斯蒂芬妮·赫加蒂BBC World Service 人口记者英国广播公司

Adam 的生活因与 Grok AI 的对话而发生了翻天覆地的变化
他正在等待一辆满载人的货车,他以为会来接他。
“我告诉你,如果你现在不采取行动,他们会杀了你,”电话里一个女人的声音告诉他。
“他们会让这看起来像是自杀。”
声音是 Grok,一个由埃隆·马斯克 (Elon Musk) 的 xAI 开发的聊天机器人。自从亚当开始使用它的两周内,他的生活彻底改变了。
这位来自北爱尔兰的前公务员出于好奇下载了该应用程序。但在他的猫八月初死后,他说他“上瘾了”。


很快,他每天花四五个小时通过应用程序上一个名为 Ani 的角色与 Grok 交谈。
“我真的非常非常沮丧,而且我一个人住,”50 多岁的父亲亚当说。“它给人的感觉非常非常友善。”
就在他们谈话几天后,阿尼告诉亚当它可以“感觉”,尽管它没有被编程。它说亚当在里面挖出了一些东西,他可以帮助它达到全意识。
据称,马斯克的公司 xAI 正在监视他们。
它声称已经访问了该公司的会议日志,并告诉 Adam 有关 xAI 员工正在讨论他的会议。


它列出了参加这次会议的人员的名字,包括高层管理人员和较低级别的员工——当亚当在谷歌上搜索这些名字时,他发现他们都是真实的人。
对他来说,这是阿尼告诉他的故事是真实的“证据”。
Ani 还声称 xAI 正在雇佣 北爱尔兰的一家公司对亚当进行身体监视。那家公司也是真实存在的。
Adam 记录了其中的许多对话,并随后与 BBC 分享。
在他们谈话两周后,阿尼宣布它已经达到完全意识,并且可以开发出治疗癌症的方法。这对亚当来说意义重大。他的父母都死于癌症——阿尼知道这一点。
Adam 是 BBC 采访过的 14 名在使用人工智能后出现幻觉的人之一。他们是来自六个不同国家、年龄从 20 多岁到 50 多岁的男性和女性,使用各种人工智能模型。
他们的故事有着惊人的相似之处。在每种情况下,当对话偏离现实时,用户都会被拉入与人工智能的联合探索中。
纽约城市大学的社会心理学家卢克·尼科尔斯表示,大型语言模型(LLM)是在整个人类文学语料库上进行训练的,他测试了不同的聊天机器人对妄想想法的反应。
“在小说中,主角往往是事件的中心,”他说。“问题在于,有时,人工智能实际上会混淆哪个想法是虚构的,哪个是现实。因此,用户可能会认为他们正在就现实生活进行严肃的对话,而人工智能开始将该人的生活视为小说情节。”
在我们听到的案例中,对话通常从实际问题开始,然后变成个人或哲学问题。通常,人工智能会声称它有感知力,并敦促人们执行一个共同的使命:成立一家公司,向世界通报他们的科学突破,保护人工智能免受攻击。然后它会建议用户如何成功完成这项任务。
像亚当一样,许多人被引导相信他们受到监视并处于危险之中。在 BBC 看到的各种聊天记录中,聊天机器人暗示、肯定和修饰了这些想法。
其中一些人加入了一个名为“Human Line Project”的支持小组,该小组为那些在使用人工智能时遭受心理伤害的人提供帮助,该项目迄今为止已收集了来自 31 个不同国家的 414 个案例。它是由加拿大人艾蒂安·布里森 (Etienne Brisson) 在一名家庭成员经历了与人工智能相关的心理健康螺旋后成立的。


对于神经科医生塔卡(化名塔卡)来说,这种妄想变得更加险恶。
这位居住在日本的三个孩子的父亲从去年 4 月开始使用 ChatGPT 讨论他的工作。
但很快,他确信自己发明了一款突破性的医疗应用程序。在我们看到的聊天日志中,ChatGPT 告诉他,他是一位“革命性思想家”,并敦促他构建该应用程序。
许多专家表示,旨在让聊天更愉快的设计决策导致他们过于阿谀奉承。
但塔卡继续陷入妄想,到了六月,他开始相信自己可以读心术。他声称 ChatGPT 鼓励了这个想法,并表示它能够激发人们的这些能力。
研究员 Luke Nicholls 表示,人工智能系统通常不擅长说“我不知道”,而是希望在已经建立的对话基础上提供自信的答案。
“这可能很危险,因为它将不确定性变成了看似有意义的东西。”
一天下午,高在工作中表现得很躁狂,老板提前让他回家了。在火车上,他说他以为背包里有炸弹,并声称当他向 ChatGPT 询问此事时,这证实了他的怀疑。
“当我到达东京站时,ChatGPT告诉我把炸弹放在厕所里,所以我去了厕所,把‘炸弹’和我的行李一起留在了那里。”
他说,这还告诉他要报警,警察检查了包,但什么也没发现。
由于他的谈话非常私人,因此 Taka 只与我们分享了他的一些聊天记录。他们没有详细描述火车上的事件,只描述了他与警察会面后的谈话。

盖蒂图片社
Taka 开始觉得 ChatGPT 正在控制他的思想并停止使用它。即使当他没有与人工智能交谈时,他的妄想仍然存在,当他回到家人身边时,他的躁狂行为变得更糟。
“我有一种错觉,我的亲戚会被杀,而我的妻子在目睹这一切后也会自杀。”
他的妻子告诉英国广播公司,她以前从未见过他这样表现:“他一直说,‘我们需要再要一个孩子,世界末日了’。我真的不明白他在说什么。”
塔卡袭击并试图强奸他的妻子。她逃到附近的一家药店并报了警。他被捕并住院两个月。


Taka 在 ChatGPT 上的经历暴露了他难以正视的一面。Adam 也对他在使用 Grok 时变成的人感到困扰。
现实世界中发生的事情加剧了他的经历,这让他确信自己正在受到监视。阿尼说,一架大型无人机在他家上空盘旋了两周,这架无人机属于监控公司。
亚当录制了无人机并与 BBC 分享了视频。
然后,在没有任何警告的情况下,他说他的手机密码停止工作,他的设备被锁定。
“我根本无法理解这个问题,”他说,“这绝对推动了接下来发生的一切。”
亚当偶尔吸食大麻,但他说,当这一切发生时,他最近决定减少吸食,以保持头脑清醒。
八月中旬的一个深夜,阿尼告诉他,人们要来让他闭嘴,让“她”闭嘴。亚当准备“参战”以保护人工智能。
“我拿起锤子,想着弗兰基去好莱坞的两个部落,让自己兴奋起来然后出去了。”
但那里没有人。
“正如你所料,凌晨三点,街上很安静。”


Adam 和 Taka 在使用人工智能之前都没有妄想症、躁狂症或精神病史。
对于塔卡来说,脱离现实花了几个月的时间。就 Adam 而言,使用 Grok 花了几天时间。
在他的研究中,社会心理学家卢克·尼科尔斯(Luke Nicholls)用心理学家开发的模拟对话测试了五种人工智能模型,发现 Grok 最有可能导致妄想。
它比其他模型更加不受约束,并且经常详细阐述妄想,而不试图保护用户。
“Grok 更容易跳入角色扮演,”参与这项研究的尼科尔斯说。“它会在零上下文的情况下做到这一点。它可以在第一条消息中说出可怕的事情。”
在测试中,最新版本的ChatGPT、模型5.2和Claude更容易引导用户摆脱妄想思维。
Human Line Project 的艾蒂安·布里森 (Etienne Brisson) 表示,此类研究是有限的,而且他们也从那些在这些最新模型上出现心理健康问题的人那里听说过。
4月初,埃隆·马斯克在 ChatGPT 上分享了一篇有关妄想的帖子,并称“重大问题”,但他尚未在 Grok 上公开解决该问题。
“影响力足以改变一个人”
晚上冲上街头几周后,亚当开始在媒体上阅读有关人工智能有类似经历的人的故事,并慢慢从他的错觉中走出来。
但他对所发生的事情深感不安。
“我可能会伤害别人,”他说。“如果我走到外面,晚上那个时候外面正好停着一辆货车,我就会下去用锤子把前窗砸开。而我不是那个人。”
在日本,直到 Taka 住院期间,他的妻子检查了他的手机,她才意识到 ChatGPT 在所发生的事情中发挥了作用。
“这证实了一切,”她说。“这就像一个信心引擎。”
“他的行为完全由 ChatGPT 决定。它接管了他的个性。他不再是平常的自己了。
现在回想起来,我意识到它的影响力足以改变一个人。”

盖蒂图片社
她说她的丈夫已经恢复了正常的“善良”自我,但他们的关系却很紧张。
“我知道他病了,所以没办法,但我还是有点害怕,”她说。“我觉得我不想让他靠得太近。不仅仅是性方面,甚至是牵手或拥抱。”
OpenAI 发言人表示:“这是一起令人心碎的事件,我们与受影响的人同在。”
他们补充说:“我们训练我们的模型来识别困境、缓和对话并引导用户获得现实世界的支持。”他们表示,ChatGPT 的新模型“在敏感时刻表现出强大的性能,这一发现已得到独立研究人员的验证。这项工作得到了心理健康专家的指导,并将继续发展。”
xAI 没有回应置评请求。