作者:External Affairs and Communications
因此,一群研究人员说,在艺术家最使用的两种艺术保护工具中发现了重大弱点,以保护他们的作品。
根据他们的创作者的说法,釉料和夜幕均已开发出来,以保护人类创意免受生成人工智能的侵入性用途。
这些工具在数字艺术家中很受欢迎,他们希望停止人工智能模型(例如AI艺术生成器稳定扩散)未经同意即可复制其独特风格。同时下载了将近900万次的釉料和夜幕。
但是,根据国际研究人员的说法,这些工具具有关键的弱点,这意味着它们不能可靠地阻止AI模型对艺术家的培训。
这些工具为数字图像增加了微妙的无形畸变(称为中毒扰动)。这些毒物旨在在训练过程中混淆AI模型。Glaze采用一种被动的方法,阻碍了AI模型提取关键风格特征的能力。夜幕降临进一步发展,通过使AI模型将艺术家的风格与无关的概念相关联,从而积极破坏学习过程。
但是研究人员创造了一种称为Lightshed的方法,可以绕过这些保护。Lightshed可以检测,反向工程并消除这些扭曲,有效地剥离了毒药,并使图像再次可用于生成AI模型训练。
它是由剑桥大学的研究人员与技术大学达姆斯塔特(Darmstadt)和得克萨斯大学圣安东尼奥分校的同事一起开发的。研究人员希望通过宣传他们的工作USENIX安全研讨会,一个重大的安全会议,他们可以让创意人知道艺术保护工具存在主要问题。
Lightshed通过三步过程来工作。它首先确定是否已使用已知中毒技术改变了图像。
在第二个反向工程步骤中,它使用公开可用的中毒示例了解了扰动的特征。最后,它消除了毒药以将图像恢复为原始的,未受保护的形式。
在实验评估中,Lightshed检测到具有99.98%精度的夜叶保护图像,并有效地从这些图像中取出了嵌入式保护措施。
``这表明,即使使用夜影等工具,艺术家仍然有未经同意的人的作品被用于培训AI模型的风险。”剑桥计算机科学技术部的第一作者汉娜·福斯特(Hanna Foerster)说,他们在Tu Darmstadt的实习期间进行了工作。
尽管Lightshed揭示了艺术保护工具中的严重脆弱性,但研究人员强调,它不是作为对它们的攻击而开发的,而是紧迫的行动呼吁,以产生更好,更适应性的攻击。
来自达姆施塔特技术大学的合着者艾哈迈德·雷扎·萨迪(Ahmad-Reza Sadeghi)的合着者艾哈迈德·雷扎·萨迪(Ahmad-Reza Sadeghi)说,我们认为这是共同进化防御的机会。我们的目标是与该领域的其他科学家合作,并支持艺术界开发可以承受高级对手的工具。”
AI和数字创造力的景观正在迅速发展。今年3月,Openai推出了Chatgpt图像模型,该模型可以立即以日本动画工作室吉卜力(Ghibli)的风格制作艺术品。
这引发了有关图像版权的广泛的病毒模因和同样广泛的讨论,其中法律分析师指出,由于版权法保护特定的表达,而不是特定的艺术风格,因此吉卜力工作室对此的反应将受到限制。一个
在这些讨论之后,OpenAI宣布了迅速的保障措施,以阻止一些用户请求以生成活着艺术家风格的图像。一个
但是,关于生成AI和版权的问题仍在进行中,正如目前在伦敦高等法院审理的版权和商标侵权案件所强调的那样。
全球摄影机构Getty Images声称,总部位于伦敦的AI公司稳定性AI在该机构的受版权保护图片的庞大档案中训练了其图像生成模型。稳定性AI正在与盖蒂的主张作斗争,并认为此案代表了对生成AI行业的明显威胁。
本月早些时候,迪士尼和环球影业宣布,他们正在起诉AI公司Midjourney的图像生成器,这两家公司说,这是一个无底的窃坑。”
Foerster说:``我们希望在工作中做到的是迫切需要对更有弹性,以艺术家为中心的保护策略进行路线图。”我们必须让创意人知道他们仍然处于危险之中,并与他人合作,以便将来开发更好的艺术保护工具。
汉娜·福斯特(Hanna Foerster)是剑桥唐宁学院(Downing College)的成员。
参考:
Hanna Foerster等。浅雪:击败基于扰动的图像版权保护。https://www.usenix.org/conference/usenixsecurity25/presentation/foerster