作者:By Melissa Heikkiläarchive page
艺术家和作家对人工智能公司发起了几起诉讼,称他们的作品在未经同意或补偿的情况下被抄入数据库用于训练人工智能模型。科技公司回应称,公共互联网上的任何内容都属于合理使用范围。但我们还需要数年时间才能通过法律解决这个问题。
不幸的是,如果您的工作已被整理到数据集中并在已有的模型中使用,您无能为力。但是,您可以采取措施防止您的作品在将来被使用。
这里有四种方法可以做到这一点。
艺术家反击人工智能抓取的最流行的方式之一是在他们的图像上应用“面具”,以保护他们的个人风格不被复制。
工具如薄雾,反梦亭, 和釉对图像像素添加人眼看不见的微小变化,因此,如果图像被抓取,机器学习模型就无法正确解读它们。您需要一些编码技能才能运行 Mist 和 Anti-DreamBooth,但 Glaze 是由芝加哥大学的研究人员,应用起来更加简单。该工具是免费的,可供下载作为一个应用程序,或者保护可以是网上申请。毫不奇怪,它是最受欢迎的工具,已被下载数百万次。
但这样的防御从来都不是万无一失的,今天有效的方法明天可能就行不通了。在计算机安全领域,突破防御是研究人员的标准做法,因为这有助于人们发现弱点并使系统更安全。使用这些工具的风险是经过计算的:一旦将某些内容上传到网上,您就失去了对它的控制,并且无法追溯地为图像添加保护。
DeviantArt 和 Flickr 等热门艺术简介网站已成为人工智能公司搜索训练数据的金矿。当您在 Instagram 等平台上分享图像时,如果您公开分享了该图像,其母公司 Meta 就可以使用您的数据来永久构建其模型。(请参阅下面的选择退出。)
防止抓取的一种方法是不公开在线共享图像,或者将您的社交媒体配置文件设为私有。但对于许多创意人士来说,这根本不是一个选择。在线分享工作是吸引客户的重要方式。
值得考虑在以下平台上分享您的工作卡拉,一个为了应对对人工智能的强烈反对而创建的新平台。Cara 与 Glaze 背后的研究人员合作,计划将集成添加到实验室的艺术防御工具中。它会自动实现“NoAI”标签,告诉在线抓取工具不要从网站上抓取图像。目前它依赖人工智能公司的善意来尊重艺术家的明确愿望,但这总比没有好。
数据保护法可能会帮助您让科技公司将您的数据排除在人工智能培训之外。如果您居住的地方有此类法律,例如英国或欧盟,您可以要求科技公司选择不为人工智能训练而抓取您的数据。例如,您可以请遵循这些说明对于元。不幸的是,在没有数据保护法的地方,用户提出的选择退出请求只能由科技公司自行决定是否接受。
现场我受过训练吗由艺术家经营的 Spawning AI 公司创建,您可以通过搜索来了解您的图像是否已出现在流行的开源 AI 训练数据集中。该组织与两家公司合作:创建 Stable Diffusion 的 Stability AI 和促进人工智能开放获取的 Hugging Face。如果您将图像添加到 Spawning AI 的“不训练注册表”中,则这些公司已同意在训练新模型之前从其训练数据集中删除您的图像。不幸的是,这又依赖于人工智能公司的商誉,而不是全行业的标准。
创造 Glaze 的芝加哥大学研究人员还创造了茄属植物,这个工具可以让你给你的图像添加一层看不见的“毒药”。与 Glaze 一样,它为像素添加了无形的变化,但它不仅使 AI 模型难以解释图像,还可能破坏这些模型的未来迭代,并使它们的行为变得不可预测。例如,狗的图像可能会变成猫,手袋可能会变成烤面包机。研究人员表示,只需相对较少的毒物样本就能产生影响。
您可以通过以下方式将茄属植物添加到您的图像中在这里下载应用程序。未来,该团队希望将 Glaze 和 Nightshade 结合起来,但目前这两种保护必须单独添加。