作者:Tessa Solomon
英国政府正在考虑升级其“人格权”法,该法可为艺术家提供新的保护措施,防止生成人工智能模型模仿其风格。
根据金融时报劳工政府今天启动了一项审查,审查人工智能公司如何通过抓取数字内容来训练其技术——这一过程已经受到了青睐争议英国和美国的创作者中。预计政府将在未来两年内根据其调查结果提出新的立法。
据报道,此次磋商的目的是禁止开发允许用户复制(或非常接近复制)公众人物和团体的图像、显着特征或声音的人工智能工具。该报告包括为创作者提供改进的权利机制的计划,在这种背景下,这意味着诸如开放人工智能可能需要与艺术家签订许可协议,才能使用其受版权保护的材料进行数据抓取。然而,英国和欧盟部长们必须确保选择退出数据抓取的创作者不会因为其内容的在线可见性降低而无意中受到惩罚。
OpenAI 发布后就宣布了此次磋商 Sora 文本转视频生成工具12 月 16 日向公众开放,用户可以根据简短的文本提示生成长达 20 秒的视频。甚至在发布之前,艺术家和内容创作者就呼吁对 Sora 进行法律干预,许多人对如何使用数据抓取来训练该工具表示担忧。
11 月,一群抢先体验 Sora 的视觉艺术家、电影制作人和平面设计师在开源平台上发布了该 AI 工具的副本,并对 OpenAI(该公司也是 ChatGPD 的幕后黑手)进行了严厉的谴责。信中称,该公司邀请了300名创作者来试运行产品,却没有给他们足够的劳动报酬,甚至还进行艺术审查,目的都是为了“艺术清洗”公司的形象。图像。
今年早些时候,100 多名领先的人工智能研究人员签署了一份开放信这表达了人们对生成式人工智能可能会扼杀独立研究的担忧。专家警告说,旨在阻止欺诈或捏造新闻的不透明公司协议可能会产生意想不到的效果——安全测试人工智能模型的独立调查人员可能会被禁止进入该平台或被起诉。这封信呼吁包括 OpenAI、Meta 和 Midjourney 在内的知名公司提高透明度,并为审计人员提供检查版权侵犯等潜在法律问题的途径。
信中写道,“生成式人工智能公司应该避免重蹈社交媒体平台的覆辙,许多社交媒体平台实际上禁止了旨在追究其责任的研究类型。”