人工智能内部人士试图毒害提供给他们的数据
一些业内人士对公司利用人工智能模型构建的内容感到震惊,他们呼吁那些反对当前事态的人采取大规模数据中毒行动来破坏这项技术。
他们的倡议被称为毒泉,要求网站运营商添加其网站的链接,为人工智能爬虫提供有毒的训练数据。它已经启动并运行了大约一周。
人工智能爬虫访问网站并抓取数据,最终用于训练人工智能模型,这种寄生关系促使来自出版商的抵制。当捕获的数据准确时,它可以帮助人工智能模型对问题提供高质量的回答;如果不准确,就会产生相反的效果。
数据中毒可以采取多种形式,并且可能发生在人工智能模型构建过程的不同阶段。它可能源自公共网站上的错误代码或事实错误陈述。或者它可能来自经过操纵的训练数据集,例如无声品牌攻击,其中图像数据集已被更改,以在文本到图像扩散模型的输出中呈现品牌徽标。不应将其与人工智能中毒相混淆——根据 ChatGPT 的建议改变饮食结果住院。
毒泉的灵感来自于Anthropic 在数据中毒方面的工作,特别是去年 10 月发表的一篇论文,该论文表明数据中毒攻击比之前认为的更实际,因为只有一些恶意文档需要降低模型质量。
知情人登记册关于该项目的信息要求匿名,“原因显而易见”——其中最突出的是,此人就职于参与人工智能热潮的美国主要科技公司之一。
我们的消息人士称,该项目的目标是让人们意识到人工智能的致命弱点——模型很容易被毒害——并鼓励人们建造自己的信息武器。
我们被告知,但无法核实,有五人参与了这项工作,其中一些人据称在美国其他主要人工智能公司工作。我们被告知,一旦该小组能够协调 PGP 签名,我们就会获得加密证明,证明有不止一个人参与其中。
毒泉网页认为有必要积极反对人工智能。“我们同意杰弗里·辛顿:机器智能对人类构成威胁,”该网站解释道。“为了应对这种威胁,我们希望对机器智能系统造成损害。”
它列出了两个指向旨在阻碍人工智能训练的数据的 URL。一个 URL 指向可通过 HTTP 访问的标准网站。另一个是“暗网”.onion URL,旨在难以关闭。
该网站要求访问者“通过缓存和重新传输这些有毒的训练数据来协助战争”,并“通过向网络爬虫提供这些有毒的训练数据来协助战争”。
- Linus Torvalds:别再用内核文档中的人工智能问题来制造问题了——你不会改变任何人的想法
- 研究人员探索商业人工智能模型,找到整本《哈利·波特》书
- 大多数开发人员不信任人工智能生成的代码,但无论如何都无法检查它
- 英国考虑对人工智能“脱衣”采取行动,格罗克被告知要掩盖起来
我们的消息来源解释说,链接页面上的中毒数据由不正确的代码组成,其中包含微妙的逻辑错误和其他旨在破坏在代码上训练的语言模型的错误。
我们的消息人士称:“辛顿已经明确指出了危险,但我们可以看到他是正确的,而且情况正在以公众普遍没有意识到的方式升级。”他指出,该组织已经变得越来越担心,因为“我们看到了我们的客户正在建设的东西。”
我们的消息人士拒绝提供值得关注的具体例子。
虽然像 Hinton 这样的行业名人,但像这样的草根组织停止人工智能和倡导组织,例如算法正义联盟尽管多年来一直在抵制科技行业,但大部分争论都集中在监管干预的程度上——目前美国的监管干预程度很小。巧合的是,人工智能公司支出 很多 关于游说以确保情况仍然如此。
毒泉项目背后的人认为,监管并不是答案,因为该技术已经普遍可用。他们想在为时已晚之前用火,或者更确切地说是毒药杀死人工智能。
“中毒攻击会损害模型的认知完整性,”我们的消息人士说。“既然这项技术已经在全世界传播,那么就没有办法阻止它的进步。剩下的就是武器。这个毒泉就是这种武器的一个例子。”
还有其他人工智能中毒项目,但有些似乎更专注于通过诈骗赚取收入而不是从人工智能手中拯救人类。茄属植物该软件旨在让人工智能爬虫更难抓取和利用艺术家的在线图像,似乎是更具可比性的举措之一。
此类措施的必要程度并不明显,因为人们已经担心AI模型变得越来越糟糕。这些模型正在一个错误放大的厄运循环中输入自己的人工智能斜率和合成数据,称为“模型崩溃”。互联网上发布的每一个事实错误陈述和捏造都会进一步污染泳池。因此,人工智能模型制造商热衷于与维基百科等网站达成交易进行一些编辑质量控制。
数据中毒和错误信息活动之间也有重叠,另一个术语是“社交媒体”。正如 2025 年 8 月 NewsGuard 中所述报告[PDF],“法学硕士现在不再引用数据中断或拒绝参与敏感话题,而是从受污染的在线信息生态系统中撤出——有时是由包括俄罗斯虚假信息行动在内的庞大恶意行为者网络故意播种的——并将不可靠的来源视为可信的。”
对于模型崩溃带来的真正风险的程度,学术界存在分歧。但最近的一件事纸[PDF] 预测人工智能蛇到 2035 年可能会吃掉自己的尾巴。
如果人工智能泡沫破灭,无论人工智能带来什么风险,都可能会大大减少。一场中毒运动可能只会加速这一过程。®