作者:Eliza Strickland
聊天机器人的革命已经使我们的世界充满了AI生成的文本:它渗透到了我们的新闻推送、学期论文和收件箱中。它的数量如此之多,以至于出现了新的行业来提供应对措施和服务。一些公司提供了这样的服务以应对这种情况。识别AI生成的文字通过分析材料,而另一些人则说他们的工具将“人性化“将您的AI生成的文字进行处理,使其无法被检测。这两种类型的工具都”可疑的表现随着聊天机器人变得越来越好,区分话语是由人类还是算法生成的将会越来越困难。
另一种方法是:从一开始就向文本添加某种水印或内容凭证,让人们可以轻松检查文本是否由AI生成。新的研究from谷歌DeepMind,在今天的期刊中被描述为自然提供了一种实现这一目标的方法。该系统名为SynthID-Text,在不牺牲“文本生成的质量、准确性、创意或速度”的情况下工作,表示说科利·普舒梅特谷歌深度思维的研究副总裁(论文的合著者)表示。但研究人员承认他们的系统还远非万无一失,并且目前尚未对所有人开放——这更像是一个演示而非可扩展的解决方案。
谷歌已经将其新的水印系统整合到了其双子座该公司今天宣布了一款聊天机器人,并且也开源了该工具和使之可用向开发者和企业开放,允许他们使用该工具来判断文本输出是否来自他们自己的模型或系统大规模语言模型 (大型语言模型),驱动聊天机器人的AI系统。然而,目前只有谷歌和相关开发者才能访问检查水印的检测器。正如科利所说:“虽然SynthID并不是识别AI生成内容的万能解决方案,但它确实是开发更可靠的AI识别工具的重要基石。”
内容凭证一直是图像和视频领域的热门话题,并被视为对抗某种上升趋势的一种方式。深度伪造技术科技公司和主要媒体机构联合发起了一项名为的倡议称为C2PA,该系统已经制定了一套机制,为图像和视频文件附加加密元数据,以表明这些文件是真实的还是由AI生成的。但文本是一个更为复杂的问题,因为文本可以很容易被修改以隐藏或消除水印。虽然SynthID-Text并不是第一个尝试为文本创建水印系统的努力,但它是在2000万个提示上进行测试的第一个系统。
外部从事内容凭证工作的专家将DeepMind的研究视为一个好的步骤。“它有望改善C2PA用于文档和纯文本的耐用内容凭证的使用,”一位专家表示。安德鲁·詹克斯微软媒体出处总监兼C2PA执行主席表示:“这是一个难以解决的问题,很高兴看到有些进展。”布鲁斯·马科尔姆克,C2PA指导委员会成员。
SynthID-Text通过巧妙地干扰生成过程来工作:它改变了一些词语的生成。聊天机器人以人类看不见但对SynthID检测器清晰的方式向用户输出。研究人员在论文中写道:“此类修改会在生成的文本中引入统计签名。”“在水印检测阶段,可以测量该签名以确定文本是否确实是由带有水印的大语言模型生成的。”
驱动聊天机器人的大型语言模型通过逐词生成句子来工作,根据之前上下文选择下一个可能的单词。本质上,SynthID-Text 通过随机为候选单词分配数字分数并让语言模型输出得分更高的单词来进行干扰。之后,检测器可以接收一段文本并计算其总体分数;带有水印的文本将比没有水印的文本得分更高。DeepMind 团队将其系统的表现与其他改变生成过程的文字水印工具进行了比较,并发现它在检测带水印文本方面做得更好。
然而,研究人员在论文中承认,仍然很容易修改由Gemini生成的文本并欺骗检测器。即使用户不知道要更改哪些词,如果他们大幅编辑文本或甚至要求另一个聊天机器人总结该文本,水印很可能会被遮掩。
为了确信SynthID-Text确实不会让聊天机器人产生更差的回复,团队将其测试了2000万次给定的提示词双子座其中一半的提示被导向了SynthID-Text系统,并收到了带有水印的回复,而另一半则收到了标准的Gemini回复。根据用户的“点赞”和“点踩”反馈,带有水印的回复与标准回复一样让用户满意。
这对于Google和在Gemini上构建的开发者来说是很好的。但解决识别AI生成文本这一完整问题(有些人称之为)AI垃圾代码这将要求许多AI公司实施水印技术——理想情况下,这些技术应该是互操作的,以便一个检测器能够识别来自多个不同大型语言模型的文本。即使所有主要的AI公司在某种程度上达成协议,仍然会存在开源大型语言模型的问题,这些模型可以轻易被修改以去除任何水印功能。
MacCormack指出,在实际实施时,检测是一个特别的问题。“在野外文本的审查中存在挑战,”他说,“因为你必须知道应用了哪种水印模型才能知道如何以及在哪里寻找信号。”总体而言,他表示研究人员还有许多工作要做。MacCormack说:“这项努力并不是死胡同,但只是漫长道路上的第一步。”