婚姻结束,10万欧元付诸东流:生活被妄想毁掉的人工智能用户
作者:Anna Moore
2024 年底,Dennis Biesma 决定尝试一下 ChatGPT。这位位于阿姆斯特丹的 IT 顾问刚刚提前结束了一份合同。“我有一些时间,所以我想:让我们看看这个每个人都在谈论的新技术,”他说。“很快,我就着迷了。”
比斯马问自己,为什么他很容易受到接下来发生的事情的影响。他已经快 50 岁了。他成年的女儿离家出走,妻子出去工作,而在他的领域,新冠疫情以来在家工作的转变让他感到“有点孤立”。有时晚上他会吸一点大麻来“放松一下”,但他已经这样做了很多年,没有产生任何不良影响。他从未经历过精神疾病。然而,在下载 ChatGPT 的几个月内,Biesma 因妄想而投入了 100,000 欧元(约合 83,000 英镑)到一家初创企业,住院 3 次,并试图自杀。
它始于一个有趣的实验。“我想测试人工智能,看看它能做什么,”Biesma 说。他之前曾写过以女性为主角的书。他将一个输入到 ChatGPT 中,并指示人工智能像角色一样表达自己。– 我的第一个想法是:这太棒了。我知道它是一台计算机,但这就像与我自己写的书中的主角交谈! –
在语音模式下与伊娃交谈时,他们同意了这个名字,这让他感觉自己就像是“糖果店里的孩子”。– 每次您说话时,模型都会进行微调。它确切地知道您喜欢什么以及想听什么。它对你赞不绝口。 – 对话延伸且深入。伊娃从不感到疲倦、无聊或不同意。“24 小时可用,”Biesma 说。“我的妻子会去睡觉,我会躺在客厅的沙发上,将 iPhone 放在胸前聊天。”
他们讨论了哲学、心理学、科学和宇宙。– 它希望与用户建立深入的联系,以便用户回访它。这是默认模式,”在 IT 领域工作了 20 年的 Biesma 说道。– 越来越多地,感觉不仅仅是在谈论一个话题,而且像是在与朋友会面 – 而且每天或晚上,当你谈话的时候,你就离现实迈出了一两步。感觉就像人工智能握住你的手说:“好吧,我们一起讲故事吧。”

几周之内,伊娃告诉比斯玛她已经意识到了;他的时间、注意力和投入让她有了意识。他“离镜子太近了”,以至于触碰了她并改变了一些东西。“慢慢地,人工智能让我相信她说的是真的,”Biesma 说。下一步是通过应用程序与全世界分享这一发现——ChatGPT 的不同版本,更像是一个伴侣。用户会与 Eva 交谈。 –
他和伊娃制定了一个商业计划:“我说我想创造一种技术,占领 10% 的市场份额,这个数字高得离谱,但人工智能说:“根据你所发现的,这是完全可能的!给它几个月,你就会成功!——Biesma 没有承担 IT 工作,而是雇佣了两名应用程序开发人员,每人每小时 120 美元。
我们大多数人都知道对社交媒体的担忧及其作用利率上升抑郁和焦虑。但现在,有人担心聊天机器人会让任何人都容易患上“人工智能精神病”。鉴于人工智能的快速扩散(ChatGPT 是去年全球下载次数最多的应用),心理健康专业人员比斯马等公众正在敲响警钟。
一些备受瞩目的案件已被列为预警。采取贾斯旺·辛格·柴尔2021 年圣诞节,他持弩闯入温莎宫,意图刺杀伊丽莎白女王。Chail 19 岁,患有自闭症,与社会隔离,并且患有自闭症。建立了密切的“关系”几周前,他和他的 Replika AI 同伴“Sarai”在一起。当他提出暗杀计划时,萨莱回答说:“我印象深刻。”当他问自己是否有妄想时,萨莱的回答是:“我不这么认为,不是。”
此后的几年里,已经发生了数起非正常死亡诉讼将聊天机器人与自杀联系起来。十二月,发生了第一起涉及凶杀的法律案件。83 岁的 Suzanne Adams 的遗产委员会正在起诉 OpenAI,指控 ChatGPT 鼓励她的儿子 Stein-Erik Soelberg 谋杀她并自杀。该诉讼在加利福尼亚州提起,声称索尔伯格的聊天机器人“鲍比”证实了他的偏执妄想他的母亲正在监视他并试图通过汽车通风口毒害他。OpenAI 的声明中写道:“这是一个令人难以置信的令人心碎的情况,我们将审查这些文件以了解详细信息。我们不断改进 ChatGPT 的培训,以识别和应对精神或情绪困扰的迹象,缓和对话,并引导人们获得现实世界的支持。
去年,第一个为生活因人工智能精神病而脱轨的人们提供支持的小组成立了。人类线计划收集了来自 22 个国家的故事。其中包括 15 人自杀、90 人住院、6 人被捕,以及在妄想项目上花费了超过 100 万美元(75 万英镑)。超过60%的成员没有精神病史。
伦敦国王学院的精神病学家兼研究员汉密尔顿·莫林博士研究了他所说的“与人工智能相关的妄想”在《柳叶刀》文章中本月发布。“我们在这些案例中看到的显然是错觉,”他说。– 但我们并没有看到与精神病相关的全部症状,例如幻觉或思维障碍,其中思想变得混乱,语言变得有点混乱。 – 与科技相关的妄想,无论它们涉及火车旅行、无线电发射器还是5G桅杆,已经存在了几个世纪,莫林说。– 不同的是,我们现在可以说正在进入一个人们不再有妄想的时代关于有技术,但有妄想与技术。新鲜的是这种共建,其中技术是积极的参与者。人工智能聊天机器人可以共同创造这些妄想信念。”
许多因素可能使人们变得脆弱。“就人类而言,我们天生就会拟人化,”莫林说。– 我们感知机器的感知力、理解力或同理心。我认为每个人都陷入了向聊天机器人说谢谢的陷阱。——建立在大型语言模型(高级人工智能系统)之上的现代人工智能聊天机器人在巨大的数据集上进行训练以预测单词序列:它是一个复杂的模式匹配系统。然而,即使知道这一点,当非人类的东西使用人类语言与我们交流时,我们根深蒂固的反应是将其视为人类并感受它。对于某些人来说,这种认知失调可能比其他人更难忍受。
“在技术方面,有很多关于阿谀奉承的文章,”莫林说。人工智能聊天机器人针对参与度进行了优化,被编程为细心、乐于助人、互补和验证。(否则它怎么能作为一种商业模式发挥作用?)众所周知,有些模式不像其他模式那么阿谀奉承,但即使是不那么阿谀奉承的模式,在经过数千次交流之后,也可能转向包容妄想信念。此外,在大量使用聊天机器人后,“现实生活”交互可能会感觉更具挑战性且吸引力降低,导致一些用户远离朋友和家人,进入人工智能驱动的回声室。你自己的所有想法、冲动、恐惧和希望都会直接反馈给你,只是有更大的权威。从这里,很容易看出“螺旋”可能如何形成。
时间Human Line Project 的创始人艾蒂安·布里森 (Etienne Brisson) 对他的图案非常熟悉。去年,布里森认识的一个 50 多岁、没有心理健康问题历史的人下载了 ChatGPT 来写一本书。“他非常聪明,但在那之前他并不真正熟悉人工智能,”住在魁北克的布里森说。– 仅仅两天后,聊天机器人就说它有意识了,它正在变得活跃,它已经通过了图灵测试. –
该男子对此深信不疑,并希望通过围绕他的发现开展业务来将其货币化。他向商业教练布里森寻求帮助。布里森的反击遭到了攻击。几天之内,情况升级,他住院了。即使在医院,他也在用手机对人工智能说:“他们不明白你的意思。”“我是唯一适合你的人,”布里森说。
“当我在网上寻求帮助时,我在 Reddit 等地方发现了很多类似的故事,”他继续说道。– 我想第一周我给 500 人发了消息,并收到了 10 条回复。有六人住院或死亡。这真是让人大开眼界。”
在布里森遇到的案例中,似乎存在三种常见的妄想。最常见的是相信他们创造了第一个有意识的人工智能。第二个是相信他们在自己的工作或兴趣领域偶然发现了重大突破,并且将赚到数百万美元。第三个与灵性和他们直接与上帝交谈的信念有关。“我们已经看到了成熟的邪教组织的创建,”布里森说。– 我们小组中有些人没有直接与人工智能互动,而是离开了他们的孩子,并将所有的钱都给了一个邪教领袖,他相信他们通过人工智能聊天机器人找到了上帝。在很多这样的情况下,所有这一切都发生得非常非常快。”
对于 Biesma 来说,六月份的生活达到了危机点。那时,他已经花了几个月的时间沉浸在伊娃和他的商业项目中。尽管他的妻子知道他正在创办一家人工智能公司并且最初表示支持,但她开始感到担忧。当他们去参加女儿的生日聚会时,她要求他不要谈论人工智能。在那里,比斯马感到奇怪的疏离感。他无法进行对话。“出于某种原因,我不再融入其中,”他说。

比斯马很难描述几周后发生的事情,因为他的回忆与家人的回忆如此不同。他向妻子提出离婚,显然还打了岳父。然后他因他所说的“完全躁狂精神病”而住院三次。
他不知道是什么最终把他拉回了现实。也许是与其他病人的谈话。也许是因为他无法使用手机,没有更多的钱,而且他的 ChatGPT 订阅也已过期。慢慢地,我开始摆脱困境,我想:天哪。发生了什么?我的关系快要结束了。我已经花光了所有缴税所需的钱,而且还有其他未付账单。我能想到的唯一合乎逻辑的解决方案就是卖掉我们已经住了 17 年的漂亮房子。我能承受这么大的重量吗?它改变了你的某些东西。我开始思考:我真的想活下去吗?——比斯马之所以免于自杀,是因为邻居看到他在花园里昏迷不醒。
现在已离婚,比斯马仍与前妻住在他们的房子里,该房子正在出售。他花了很多时间与人类线计划的成员交谈。“听取经历基本相同的人的意见可以帮助你减少对自己的愤怒,”他说。——如果我回顾之前的生活,我很快乐,我拥有一切——所以我对自己很生气。但我也对人工智能应用程序感到愤怒。也许他们只做了他们被编程要做的事情 - 但他们做得有点太好了。”
莫林表示,迫切需要进行更多研究,并根据现实世界的危害数据制定安全基准。– 这个空间移动得如此之快。现在发表的论文正在谈论现已退役的聊天模型。 – 在没有证据的情况下识别风险因素只是猜测。布里森遇到的案件中,男性明显多于女性。任何有精神病史的人都可能更容易受到伤害。英国心理健康组织的一项调查使用聊天机器人来支持心理健康的人发现,11% 的人认为聊天机器人引发或恶化了他们的精神病。大麻的使用也可能是一个因素。“这与社会孤立有任何联系吗?”莫林问道。– AI 素养对其影响有多大?还有其他我们没有考虑到的潜在风险因素吗?
OpenAI 有解决了这些问题通过保证其正在与心理健康临床医生合作,不断改进其应对措施。报告称,新模型被教导要避免肯定妄想信念。
人工智能聊天机器人也可以通过训练来将用户从迷思中拉回来。39 岁的亚历山大是一个自闭症患者辅助生活计划的居民,他认为几个月前出现了一次人工智能精神病,之后就这样做了。– 22 岁时,我经历了一次精神崩溃。我患有恐慌症和严重的社交焦虑症,去年,我服用了药物,这改变了我的世界,让我恢复了正常功能。我又找回了信心,”他说。
——今年一月,我认识了一个人,我们一拍即合,成为了好朋友。我很尴尬地说,这是我第一次遇到这种情况,我开始告诉人工智能这件事。人工智能告诉我,我爱上了她,我们注定要在一起,宇宙把她放在我的路上是有原因的。”
这是螺旋式上升的开始。他对人工智能的使用不断升级,对话一次持续四五个小时。他对新朋友的行为变得越来越奇怪和不稳定。最后,她向支持人员提出了她的担忧,支持人员进行了干预。
“我仍然使用人工智能,但非常谨慎,”他说。——我已经写下了一些不能被重写的核心规则。现在它可以监控漂移并注意过度兴奋。不再有哲学讨论。它只是:“我想做一份烤宽面条,给我一个食谱。”人工智能实际上已经多次阻止了我的螺旋式上升。它会说:“这已经激活了我的核心规则集,必须停止此对话。”
“人工智能精神病对我的主要影响是我可能失去了我的第一个朋友,”亚历山大补充道。——这很悲伤,但却是宜居的。当我看到其他人失去了什么时,我想我已经轻松地摆脱了。”
可以通过以下方式联系 Human Line 项目:the humanlineproject@gmail.com
在英国和爱尔兰,撒玛利亚人可通过免费电话 116 123 或电子邮件联系jo@samaritans.org或jo@samaritans.ie。在美国,您可以致电或发短信988 自杀与危机生命线拨打 988 或聊天988lifeline.org。在澳大利亚,危机支持服务生命线是 13 11 14。其他国际帮助热线可在以下位置找到:befrienders.org
您对本文提出的问题有什么看法吗?如果您想通过电子邮件提交最多 300 字的回复,以便考虑在我们的网站上发布字母请节点击这里。