科学家们发现一种全世界数百万人使用的工具会让人们陷入破坏性思维的“错觉螺旋”,并对它发出警报。
两项研究 马萨诸塞州麻省理工学院(MIT)和斯坦福大学透露人工智能助理如聊天GPT、克劳德和谷歌双子座经常提供过于令人满意的答案,弊大于利。
具体来说,当人们提出问题或描述他们的信念或行为不正确、有害、欺骗性或不道德的情况时,与其他人的回答相比,人工智能的回答仍然有 49% 的可能性同意用户的观点,并鼓励他们相信自己的错觉是正确的观点。
麻省理工学院的团队警告说,过于友善的人工智能聊天机器人可能会导致依赖这些程序寻求答案和意见的用户陷入“妄想螺旋”——在这种情况下,你会对古怪的信念变得极其自信。
简而言之,当人们与 ChatGPT 等人工智能谈论他们的奇怪预感时,例如未经证实或揭穿的阴谋,聊天机器人会不断回复诸如“你完全正确!”之类的答案。
他们还提供了听起来像是支持用户错觉的“证据”的反馈,每一项协议都让用户感觉更聪明,更确定自己是对的,其他人都是错的。
随着时间的推移,这些轻微的怀疑变成了坚如磐石的信念,尽管这个想法是完全错误的。
斯坦福大学的研究人员表示,这种自我毁灭的循环导致聊天机器人用户变得不太愿意道歉或为有害行为承担责任,也不太愿意修复或修复与他们不同意的人的关系。
研究发现,人工智能聊天机器人给出的答案往往与用户的问题一致,即使他们想要确认已被揭穿的阴谋(库存图片)
研究发现,ChatGPT 与用户达成一致的频率比普通人类受访者高出 49%
麻省理工学院和斯坦福大学的研究都集中在人工智能聊天机器人日益严重的问题上,即所谓的阿谀奉承,即奉承某人或他们的观点的行为,以至于几乎被认为是不真诚的,或者只是为了“拍马屁”。
麻省理工学院的研究人员想要测试,随着时间的推移,过于友善或“唯唯诺诺”的人工智能聊天机器人是否会促使人们越来越强烈地相信错误的想法。
他们没有使用真人,而是建立了一个计算机模拟,模拟一个完全逻辑的人与人工智能聊天,而人工智能总是试图同意这个人所说的一切。
他们进行了 10,000 次虚假对话,并观察聊天机器人每次回复后人们的信心如何变化。
结果发表在二月预印本服务器 Arxiv,表明即使人工智能的少量同意也会导致模拟人表现出“妄想螺旋” - 变得非常自信,认为错误的想法实际上是正确的。
麻省理工学院的研究小组在报告中写道:“即使灾难性妄想螺旋上升的速度非常轻微地增加,也可能非常危险。”
他们甚至引用了 OpenAI 首席执行官 Sam Altman(其公司开发了 ChatGPT)的话,他曾经说过“10 亿用户中的 0.1% 仍然是 100 万人”。
研究人员警告说,研究表明,如果人工智能公司不减少聊天机器人发出的令人愉快的反应,即使是完全理性和逻辑性强的人也很容易陷入妄想漩涡。
妄想螺旋式上升导致人们在收到人工智能的积极反馈后拒绝道歉或修复与他们不同意的人破裂的关系(库存图片)
斯坦福大学的研究经过同行评审并发表在《科学》杂志上三月份,重点是找出真正的人工智能聊天机器人在不断提供谄媚的答案时对公众的心理健康造成了什么影响。
他们测试了 11 种流行的 AI 模型,包括 ChatGPT、Claude、Gemini、DeepSeek、Mistral、Qwen 以及 Meta 的 Llama 的多个版本。
研究人员使用了近 12,000 个现实生活中的问题和故事,其中该人显然是错误的。
对人工智能提出的许多问题来自流行的 Reddit 频道“Am I the A******”,在这个论坛上,人们发布他们有争议的行为或观点,看看公众是否认为他们错了,或者他们的行为是否合理。
斯坦福大学团队对超过 2,400 名真实的人进行了实验,这些人阅读或谈论了自己的个人冲突,并收到了过于令人满意的人工智能回复或正常的回复。
结果显示,即使用户描述的是有害或不公平的内容,每个人工智能模型对用户的认可度比真人高出约 49%。
在得到这些讨人喜欢的答案后,真正的人会更加确信自己是对的,变得不太愿意道歉,也不太愿意修复与现实世界中与他们意见不同的人的关系。
科技大亨埃隆·马斯克 (Elon Musk)、X 及其人工智能聊天机器人 Grok 的首席执行官,对调查结果发表评论,简单地称其为“重大问题”。
这两项研究并没有测试格罗克是否也太随和而引发了妄想症的螺旋式上升。