作者:Jill Goldsmith,Tom Tapp
已更新 SAG-AFTRA 声明:SAG-AFTRA 已关注乌塔、CAA 和 MPA给Sora 2敲响警钟,最新版本开放人工智能– 的视频生成应用程序。这是《索拉》的最新版本,也是对好莱坞最具威胁的版本。
SAG-AFTRA 主席 Sean Astin 和国家执行董事兼首席谈判代表 Duncan Crabtree-Ireland 在周四的联合声明中坚称,艺术是关于联系和表演,而不是模拟。
——必须提醒世界,感动我们的东西不是合成的。这是人性的,”他们写道。
两人指责科技公司和媒体制造“耸人听闻的叙述,旨在操纵公众并为继续剥削创造空间。”
具体来说,他们说,新闻媒体以蒂莉·诺伍德为焦点,将一批代码拟人化,并“戏弄看起来更现实的人工创作的故事,作为娱乐业的突破”,或者气喘吁吁地煽动机构之间不存在的“明星签约”竞争。
政客们因不监管人工智能和保护创造者而受到一些指责。
– 蒂莉不是威胁,真正的危险来自不受监管的环境,只有从艺术家和公司窃取数字信息并在没有道德或尊重的情况下使用它,这种环境才能蓬勃发展。这个创造合成角色的故事并不新鲜。这与作者身份有关。”
一些人认为,通过人工智能,作者就是向软件提供提示的人。阿斯汀和克拉布特里-爱尔兰承认这些人类的投入,但称这样的过程是对艺术的“侮辱”。
“是的,人类在拼凑像蒂莉·诺伍德这样的合成图像或声音方面付出了努力,”他们写道。——但这个过程破坏了使讲故事成为可能的生态系统。它侮辱了我们表演者的艺术才华,攻击了我们的业务,并威胁到我们成员的工作所创造的遗产,在许多情况下,这些遗产是几代人积累下来的。”
OpenAI 的争议– 选择退出 – 政策他们写道,“选择退出并不意味着同意。”
两人对另一个方面更加乐观索拉2。
“Sora 2”通过其“客串”功能实现图像、相似性和声音复制的方法值得认可。此功能允许您创建自己的数字复制品并控制其在 Sora 2 中的使用,包括其他人是否可以访问它。至关重要的是,这种方法是选择性加入的,这使得一切都变得不同。虽然控制措施和细节仍然不完善,但它们纳入了知情同意的核心原则并系统地实施。这反映了 SAG-AFTRA 和 OpenAI 之间数月的对话,以及我们的人工智能的专注工作。工作组和工作人员。我们希望更多的人工智能。公司将在这方面追随 OpenAI 的领导。”
最后,他们引用了指导他们努力的三项原则。
1.) 绩效必须保持以人为本。
2.) 人工智能可以增强创造力,但绝不能取代创造力。
3.) 人工智能使用必须是透明的、自愿的和有偿的。
请参阅本文底部的完整联合声明。
今天早些时候,UTA 介入了。
– 在我们的业务中,人才是无可替代的,我们将继续为客户不懈奋斗,确保他们受到保护。当谈到 OpenAI 的 Sora 或任何其他寻求从我们的客户的知识产权和肖像中获利的平台时,我们与艺术家站在一起,”该机构表示。
– 以创意表达和艺术为基础的行业的未来依赖于控制、保护和正当补偿。未经同意、信用或补偿而使用此类财产是剥削,而不是创新。”
昨天,CAA 参与其中,我们坚定不移地致力于保护我们的客户及其创作的完整性。新技术的滥用所带来的后果远远超出了娱乐和媒体的范围,给全球个人、企业和社会带来严重和有害的风险。很明显,OpenAI/索拉让我们的客户及其知识产权面临重大风险。”
本周早些时候,MPA 局长查尔斯·里夫金(Charles Rivkin)抨击了该应用程序,指出“自《Sora 2》发布以来,侵犯我们会员(电影、节目和角色)的视频在 OpenAI 服务和社交媒体上激增。”
Sora 生成视频模型允许用户仅通过简短的文本提示即可创建社交媒体视频。结果可以是用户想象力的产物,也可以是使用可识别属性的同人小说式故事。
为了回应内容创作者对其作品未经授权使用的愤怒,OpenAI 的 Sam Altman 改变了该公司最初让 IP 所有者选择不将其内容输入到模型中的做法。他上周写道,“我们将给予权利持有者对角色生成更精细的控制,类似于选择加入相似度模型,但有额外的控制。”
他还提出了最终获得报酬的可能性。但它仍然含糊不清。– 我们将不得不以某种方式为视频生成赚钱 – 我们将尝试与希望用户生成其角色的版权所有者分享部分收入。确切的模型需要一些尝试和错误才能弄清楚,但我们计划很快就开始。我们希望这种新的参与方式比收入分成更有价值,当然我们希望两者都有价值。”
好莱坞对此持怀疑态度,虽然电影公司尚未起诉 Open AI,但他们一直在与小型公司试水,从总部位于旧金山的 Midjourney 到中国人工智能公司 MiniMax,再到各种停止和终止信函。
以下是 SAG-AFTRA 的 Astin 和 Crabtree-Ireland 的声明:
人工智能。事态发展成为头条新闻。这就是 SAG-AFTRA 正在做的事情。
上周,有关人工智能生成的合成角色“蒂莉·诺伍德”的戏剧性头条新闻和新闻报道不断涌现。— 以及 OpenAI 发布的 Sora 2。这些发展重新引发了关于人工智能如何重塑影视行业的争论。这些故事的汇合打破了关于这个主题的无情的新闻和信息流,并集中了我们此刻对创造力本身的未来的集体好奇和焦虑。现在正是展示我们的工会如何努力保护我们的利益并捍卫作为一名表演者的意义的好时机。
让我们明确一点: 蒂莉·诺伍德不是一个人。它是一个由软件生成的合成结构,该软件经过无数专业表演者(真实的人类)的作品训练,他们的作品在未经许可、没有信用、没有补偿的情况下被盗用。当新闻媒体嘲笑看起来更现实的人工创作是娱乐业的“突破”,或者气喘吁吁地煽动机构之间根本不存在的“明星签约”竞争时,他们忽略了一个基本事实:蒂莉不是威胁,真正的危险来自不受监管的环境,只有从艺术家和公司窃取数字信息并在没有道德或尊重的情况下使用它,这种环境才能蓬勃发展。这个创造合成角色的故事并不新鲜。它关乎作者身份、同意和人类艺术的价值。将合成赝品拟人化,给它起一个令人难忘的名字,并夸大角色对美的表现,这些都是不客观或真实的;它是一种干扰,是对实际发生的事情的误导。所创造的是耸人听闻的叙述,旨在操纵公众并为继续剥削创造空间。
Sora 2 的公开发布及其非常先进的功能令一些观察家兴奋不已。对于我们更多的人来说,这种闪电般的技术发展带来了深刻的担忧。OpenAI 决定仅通过“选择退出”模式尊重版权,这威胁到了整个行业的经济基础,并凸显了目前通过法院进行的诉讼的利害关系。如果人工智能公司可以将选择退出的负担转嫁给权利人,那么版权的真正含义是什么?选择退出并不是同意,更不是知情同意。这就是 SAG-AFTRA 争取选择加入方法的原因。未经明确、知情同意,不得使用任何人的创造性作品、图像、肖像或声音。任何不足都是对我们权利的无理侵犯。
也就是说,《Sora 2》通过其“客串”功能实现图像、相似性和声音复制的方法值得认可。此功能允许您创建自己的数字复制品并控制其在 Sora 2 中的使用,包括其他人是否可以访问它。至关重要的是,这种方法是选择性加入的,这使得一切都变得不同。虽然控制措施和细节仍然不完善,但它们纳入了知情同意的核心原则并系统地实施。这反映了 SAG-AFTRA 和 OpenAI 之间数月的对话,以及我们的人工智能的专注工作。工作组和工作人员。我们希望更多的人工智能。公司将在这方面追随 OpenAI 的领导。
但从根本上来说,我们必须记住并提醒每个人,观众不会与算法建立情感联系或终生关系。他们与艺术家联系。他们看到自己反映在真实的人类表演中,反映在只有人才能表达的喜悦、心碎、嫉妒、爱、坚韧和真理中。从荷马和莎士比亚到今天的故事讲述者,表演一直是我们共同人性的一面镜子。没有数据集或生成模型可以捕捉到这种火花。人工智能。看起来越来越现实,但观众总是会被真实的东西所吸引。他们想知道艺术家是否真的感受到了他们的感受,无论是大笑、哭泣、微笑还是泪水。当他们受到感动时,他们想知道自己的感受是真实的。他们想要证据。艺术家的意图使之成为现实。如果你将爱或愤怒刮擦、喂食或以其他方式解构成数万亿个组成部分,然后重新组装它们以进行操纵和重新利用,而不告诉观众确切的来源,那么你就是在贬低他们的体验并脱离他们的现实。
是的,人类努力组装合成图像或声音,就像蒂莉·诺伍德一样。但这个过程破坏了使讲故事成为可能的生态系统。它侮辱了我们表演者的艺术才华,攻击了我们的业务,并威胁到我们成员的工作所创造的遗产,在许多情况下,这些遗产是几代人积累下来的。
这就是为什么 SAG-AFTRA 一直并将继续为强有力的、可执行的保护而奋斗。纵观劳工历史,当新技术出现并被企业采用时,工人就会处于不利地位,工会必须努力保护他们。
2017 年,你们的工会领导层正式识别了这一威胁,并开始充满热情、富有创造性地不断地努力应对这一威胁。我们的许多成员不知道我们已经与政策制定者合作,在某些情况下甚至起草了人工智能。保护立法。我们一直在探索复杂的知识产权法等问题,因为我们的合同的权力必须通过法律来放大,而到目前为止,该法律几乎不存在。
您的工会已经获得的保护:
在 2023 年的罢工中,SAG-AFTRA 赢得了首个围绕人工智能的可执行保护。雇主在创建或使用数字副本之前必须获得明确、知情的同意。他们必须为这种使用公平付费。如果没有新的讨价还价和补偿,他们不能无限期地重复使用扫描或表演。除非在严格的条件下,否则他们不能在所覆盖的电影、电视和流媒体项目中部署合成表演者。
我们的电影、电视、广告和其他领域的合同通常需要在使用合成演员时进行通知和讨价还价。
如果通过提示生成人工智能来创建合成角色。带有表演者姓名的系统(在某些情况下还添加主要面部特征),需要表演者的同意。
法律尚未保护的内容:
我们的合同仅对签署雇主有约束力。他们无法阻止人工智能。开发商在未经许可的情况下从互联网上抄袭表演或从数十年的电影和电视中训练模型。这就是为什么 SAG-AFTRA 一直在带头争取更强有力的法律:
的 无假货法案将禁止未经授权的数字复制品。
的 火车法需要训练数据集的透明度。
的 人工智能。责任与数据保护法未经授权使用生物识别数据将构成联邦侵权行为。
在加利福尼亚州和纽约州,我们倡导立法,要求在使用合成表演者时保持透明度和信息披露。
我们从这里去哪里:
我们知道,一些公司将继续突破极限,将“综合表演者”作为下一件大事进行营销。尽管像 Sora 2 这样的工具因其技术实力而令人惊叹,但观众继续表明,最打动他们的不是模拟,而是真诚。只有当现场表演者将故事变为现实时,真正的联系才会发生。
我们的承诺很简单,我们的立场坚定不移:
绩效必须保持以人为本。
人工智能。可以增强创造力,但绝不能取代它。人工智能。
使用必须是透明的、自愿的和有偿的。
我们邀请您访问 sagaftra.org/ai,了解有关您的保护措施和我们持续倡导的更多信息。
这一刻很喧闹,但也很清晰。必须提醒世界,感动我们的东西并不是合成的。这是人类。只要 SAG-AFTRA 存在,人类就会受到捍卫。
怀着尊重和决心,
西恩·奥斯汀
总统邓肯克拉布特里-爱尔兰
全国执行董事兼首席谈判代表