当德国记者 Martin Bernklau 在 Microsoft 的 Copilot 中输入他的姓名和位置,以查看聊天机器人如何获取他的文章时,得到的答案让他感到震惊。副驾驶的结果断言,伯恩克劳是精神病院的逃亡者、被定罪的虐待儿童者和掠夺鳏夫的骗子。多年来,伯恩克劳一直担任法庭记者,人工智能聊天机器人错误地将他所报道的审判中的罪行归咎于他。
当然,对伯恩克劳的指控并不属实,而是生成人工智能的例子幻觉。这些是对用户提供的提示的不准确或无意义的响应,而且它们非常常见。任何尝试使用人工智能的人都应该非常谨慎,因为来自此类系统的信息需要经过人类的验证和验证才能被信任。
但是为什么 Copilot 会产生这些可怕且错误的指控的幻觉?
>
Copilot 和其他生成式人工智能系统(例如 ChatGPT 和 Google Gemini)都是大型语言模型 (LLM)。大语言模型的底层信息处理系统被称为深度学习神经网络,它使用大量的人类语言来训练其算法。该算法从训练数据中学习不同单词之间的统计关系以及某些单词在文本中一起出现的可能性。这使得大语言模型能够根据计算的概率预测最可能的反应;大语言模型不具备实际知识。
用于培训 Copilot 和其他大语言模型的数据非常庞大。虽然 Copilot 或 ChatGPT 语料库的大小和组成的确切细节尚未公开,但 Copilot 合并了整个 ChatGPT 语料库以及 Microsoft 自己的特定附加数据。ChatGPT 4 的前身 ChatGPT 3 和 3.5 已知使用了数千亿个单词。Copilot 基于 ChatGPT 4,它使用的语料库比 ChatGPT3 或 3.5 更大。虽然我们不知道到底有多少个单词,但不同版本的 ChatGPT 之间的跳跃往往要大几个数量级。我们还知道该语料库包括书籍、学术期刊和新闻文章。
这就是副驾驶员幻觉伯恩克劳应对滔天罪行负责的原因。伯恩克劳经常报道涉及虐待、暴力和欺诈的刑事审判,他的故事发表在国内和国际报纸上。他的文章想必已被包含在使用与案件性质相关的特定词语的语言语料库中。由于伯恩克劳多年来一直在法庭上报道,因此当副驾驶被问及他时,与他的名字相关的最有可能的词与他所报道的犯罪有关。
这不是此类案件的第一例,我们未来几年可能会看到更多。2023年,美国脱口秀主持人马克·沃尔特斯(Mark Walters)成功起诉拥有ChatGPT的OpenAI公司。沃尔特斯主持了一个名为“武装美国广播电台”的节目,该节目探讨和促进美国的枪支所有权。大语言模型曾幻想沃尔特斯被美国支持枪支权利的组织第二修正案基金会(SAF)起诉,罪名是诈骗和挪用资金。。此前,一名记者向 ChatGPT 询问了一起有关 SAF 和华盛顿州总检察长的真实且正在进行的法律案件。
沃尔特斯从未在 SAF 工作过,也没有参与 SAF 与华盛顿州之间的案件以任何方式。但由于该基金会与 Walters 展示的目标相似,因此可以推断语言语料库中的文本内容在 Walters 和 SAF 之间建立了统计相关性,从而导致了幻觉。
在整个过程中纠正这些问题语言语料库几乎是不可能的。语料库中包含的每一篇文章、句子和单词都需要仔细检查,以识别和消除有偏见的语言。考虑到数据集的规模,这是不切实际的。
将人们与犯罪错误地联系起来的幻觉(例如 Bernklaus 案例)甚至更难检测和解决。要永久解决此问题,Copilot 需要删除文章作者 Bernklaus 的姓名才能中断连接。
为了解决此问题,Microsoft 设计了一个自动响应,当用户提示 Copilot 时会给出自动响应伯恩克劳斯案。回应详细说明了幻觉,并澄清伯恩克劳没有任何指控。微软表示,它会不断吸收用户反馈并推出更新,以改善其响应并提供积极的体验。
可能还有许多其他例子有待发现。尝试解决每个单独的问题是不切实际的。幻觉是底层 LLM 工作方式不可避免的副产品。
作为这些系统的用户,我们知道输出值得信赖的唯一方法是使用既定方法询问其有效性。正如我自己的研究所示,这可能包括在接受正确的输出之前找到三个与大语言模型的主张一致的独立来源。对于拥有这些工具的公司(例如 Microsoft 或 OpenAI)来说,没有真正的主动策略可以采取来避免这些问题。他们真正能做的就是对类似幻觉的发现做出反应。
西蒙·索恩是卡迪夫城市大学计算和信息系统高级讲师。本文是根据知识共享许可从 The Conversation 重新发布的。