作者:Kate Knibbs
唯一的例外是UMG 诉 Anthropic情况是这样,因为至少在早期,早期版本的 Anthropic 会在输出中生成歌曲的歌词。这是一个问题。该案目前的状况是,他们已经采取了保障措施,试图防止这种情况发生,而且双方都同意,在案件解决之前,这些保障措施是足够的,因此他们不再寻求初步禁令。
归根结底,对于人工智能公司来说,更棘手的问题不是参加培训合法吗?它是当你的人工智能生成的输出与特定作品太相似时你会怎么做?
您预计这些案件中的大多数都会进入审判阶段,还是即将达成和解?
很可能会有一些定居点。我预计会与拥有大量内容或特别有价值的内容的大玩家达成和解。《纽约时报》最终可能会达成和解,并达成一项许可协议,也许 OpenAI 会付费使用《纽约时报》的内容。
有足够的资金处于危险之中,我们可能至少会得到一些设定参数的判断。我感觉集体诉讼原告的眼里都是星星。有很多集体诉讼,我的猜测是,被告将抵制这些诉讼,并希望在简易判决中获胜。他们是否接受审判并不明显。最高法院在谷歌诉甲骨文该案强烈推动合理使用法朝着通过简易判决而不是在陪审团面前解决的方向发展。我认为人工智能公司将非常努力地通过简易判决来裁决这些案件。
为什么他们通过简易判决而不是陪审团裁决来获胜会更好?
与试用相比,它更快、更便宜。人工智能公司担心它们不会被视为受欢迎,很多人会认为,哦,你复制了本应是非法的作品而不是深入探讨合理使用原则的细节。
人工智能公司和人工智能公司之间有很多交易媒体机构、内容提供商和其他权利持有者。大多数时候,这些交易似乎更多地与搜索有关,而不是基础模型,或者至少我是这么描述的。您认为,在人工智能搜索引擎中使用内容许可(其中答案通过检索增强生成或 RAG 获取)是否具有法律义务?他们为什么要这样做?
如果您在有针对性的特定内容上使用检索增强生成,那么您的合理使用论证就会变得更具挑战性。人工智能生成的搜索更有可能生成直接从输出中的一个特定来源获取的文本,而这不太可能是合理使用。我是认真的可以但风险在于它更有可能与原始来源材料竞争。如果我不是引导人们阅读《纽约时报》的报道,而是给他们我的人工智能提示,使用 RAG 直接从《纽约时报》的报道中取出文本,这看起来确实是一种可能损害《纽约时报》的替代。人工智能公司的法律风险更大。
您希望人们了解哪些他们可能还不知道或可能被误导的关于生成人工智能版权之争的信息?
我最常听到的技术问题是错误的,即这些只是抄袭机器。他们所做的就是拿走我的东西,然后以文本和回复的形式将其磨碎。我听到很多艺术家这么说,我也听到很多外行人这么说,但从技术角度来说这是不正确的。你可以决定生成式人工智能是好还是坏。您可以决定它是合法的还是非法的。但这确实是我们以前从未经历过的全新事物。事实上,它需要训练大量内容来理解句子如何运作、论证如何运作以及理解有关世界的各种事实,但这并不意味着它只是复制和粘贴内容或创建拼贴画。它确实产生了任何人都无法预料或预测的东西,并且为我们提供了很多新内容。我认为这是重要且有价值的。