OC

Knowledge OS
鹦鹉螺口语
ChatGPT 症状螺旋
2026-04-06 22:30:00 · 英文原文

ChatGPT 症状螺旋

作者:Sage Lazzaro

乔治·马伦在例行体检中抽血后,他得知可能出现了严重问题。初步结果显示他可能患有血癌。还需要进一步的测试。带着悬念,他做了现在很多人都会做的事情:他打开了 ChatGPT。

在近两周的时间里,英国利物浦 46 岁的马伦每天花几个小时与聊天机器人讨论可能的诊断结果。“它让我在这个充满情感和恐惧的疯狂摩天轮上转来转去,”马伦告诉我。他的后续测试表明这毕竟不是癌症,但他无法停止与 ChatGPT 谈论健康问题,询问机器人几个月来他在身体中感受到的每一种感觉。他开始确信一定出了什么问题——一种不同的癌症,或者可能是多发性硬化症或肌萎缩侧索硬化症,潜伏在他的体内。在与 ChatGPT 交谈的推动下,他见了多位专家,并对自己的头部、颈部和脊柱进行了核磁共振检查。

Mallon 告诉我,他认为癌症恐慌和 ChatGPT 共同导致他产生了这种严重的健康焦虑。但他指责聊天机器人让他在额外的测试表明他没有生病之后仍继续恶化。“我爱不释手,”他说。聊天机器人让对话继续进行,并显示文章供他阅读。它的人性化回复让马伦将其视为朋友。

我们第一次通过视频通话见面时,尽管已经过去了大半年,但马龙仍然对这次经历感到震惊。他告诉我,在寻求心理健康教练的帮助并开始服用抗焦虑药物后,他与聊天机器人谈论了健康症状,“清醒了七个月”。但他也担心自己随时可能被卷入其中。几个月后,当我们再次交谈时,他说他又短暂地陷入了这种例行公事之中。

其他人似乎正在努力解决这个问题。关注健康焦虑(对疾病或身体感觉过度担忧的总称)的在线社区充斥着有关 ChatGPT 和其他人工智能工具的讨论。有些人说,这让他们比以往任何时候都更加螺旋式上升,而其他觉得这在当下有帮助的人承认,这已经演变成一种他们难以抵抗的冲动。我采访了四位治疗这种情况的治疗师(包括我自己的治疗师)。他们都表示,他们看到客户以这种方式使用聊天机器人,并且担心人工智能如何引导人们不断寻求安慰,从而使这种情况持续下去。– 因为答案是如此直接且个性化,所以它甚至比谷歌搜索更有说服力。这将它提升到了一个新的水平,”丽莎·莱文(Lisa Levine)告诉我,她是一位专门研究焦虑和强迫症的心理学家,专门治疗健康焦虑症患者。

专家认为,健康焦虑可能会影响高达 12%的人口。更多的人正在与其他形式的焦虑和强迫症作斗争,人工智能聊天机器人同样可能加剧这些焦虑和强迫症。OpenAI 首席执行官 Sam Altman 在 10 月份发布的 X 篇文章中宣布围绕 ChatGPT 的严重心理健康问题得到缓解,称严重问题影响“极少数处于精神脆弱状态的用户”。但精神脆弱并不是一种固定的状态;一个人可能看起来很好,但突然间就变得不好了。


Altman 在去年推出 GPT-5(支持 ChatGPT 的最新人工智能模型系列)期间表示,健康对话是消费者使用聊天机器人的主要方式之一。根据 OpenAI 的数据由 Axios 发布每天有超过 4000 万人通过聊天机器人获取医疗信息。一月份,该公司推出了一项名为 ChatGPT Health 的功能,鼓励用户上传他们的医疗文件、测试结果和健康应用程序的数据,并与 ChatGPT 谈论他们的健康状况。

这些对话的价值,如 OpenAI设想它,是为了“帮助您感觉更加了解情况、做好准备、更加自信地掌控自己的健康。”聊天机器人当然可以在这方面帮助某些人;例如,《纽约时报》最近报道关于女性转向聊天机器人来确定复杂慢性疾病的诊断。然而,OpenAI 也卷入了关于过度依赖 ChatGPT 可能产生的影响的争议。撇开此类产品分享不准确信息的可能性不谈,OpenAI 在一系列针对该公司的诉讼中被指控导致 ChatGPT 用户精神崩溃、妄想和自杀。去年11月,同时提起诉讼,指控 OpenAI 匆忙发布其旗舰 GPT-4o 模型,并故意设计它以保持用户参与并培养情感依赖。(该公司后来已经退役了该模型。)在纽约,一项法案将禁止人工智能聊天机器人提供“实质性”医疗建议或充当治疗师正在考虑中作为监管人工智能聊天机器人的一揽子法案的一部分。

为了回应置评请求,OpenAI 发言人将我引向了一家公司博客文章这句话说的是:——我们的心与所有受到这些令人难以置信的令人心碎的情况影响的人同在。我们与心理健康临床医生和专家密切合作,继续改进 ChatGPT 的培训,以识别和应对痛苦迹象,在敏感时刻降级对话,并引导人们获得现实世界的支持。发言人还告诉我,OpenAI 继续改进 ChatGPT 在与自杀或自残相关的长时间对话中的保障措施。该公司此前曾表示审查索赔在 11 月的诉讼中。它有否认指控在 8 月份提起的诉讼中,ChatGPT 应对一名青少年自杀负责。(OpenAI 与《大西洋月刊》的业务团队建立了企业合作伙伴关系。)

两年前,我自己也陷入了健康焦虑的循环,这是由一位亲密朋友的创伤性疾病以及我自己不断升级的慢性疼痛和神秘症状引发的。有一次,在我的管理好多了之后,我尝试与 ChatGPT 进行几次对话,以对一些轻微的健康问题进行肠道检查。但螺旋式上升的风险是显而易见的。像这样寻求安慰与我在治疗中学到的一切背道而驰。我很庆幸自己在焦虑的痛苦中没有想到求助于人工智能。我告诉自己,再也不会了。

与此同时,在我所在的健康焦虑社区中,我看到人们越来越多地谈论寻求聊天机器人来寻求安慰。许多人表示,这加剧了他们的健康焦虑。其他人则表示,人工智能非常有帮助,当他们陷入无休无止的担忧循环时,人工智能可以让他们平静下来。事实上,最后一类是心理学家最关心的。健康焦虑通常是强迫症的一种形式,具有强迫性思维和“检查”或寻求安慰的强迫行为。管理健康焦虑的最佳治疗实践取决于建立自信心、容忍不确定性和抵制寻求安慰的冲动,但 ChatGPT 热切地提供个性化的舒适感,并且 24/7 可用。莱文说,这种类型的反馈只会助长这种情况——一场完美的风暴。她已经看到与聊天机器人交谈以寻求安慰,这本身就成为她的一些客户的一种新的冲动。


事实证明,长时间、持续的交流是聊天机器人的一个常见问题,也是报告的案例中的一个因素与人工智能相关的“精神病”。OpenAI 和麻省理工学院媒体实验室的研究人员进行的研究已发现较长的 ChatGPT 会话可能会导致成瘾、专注、戒断症状、失控和情绪改变。OpenAI 也承认它的安全护栏可能会在长时间的对话中“退化”。在对癌症感到恐惧的 10 天里,Mallon 告诉我,“我在 ChatGPT 上的时间至少超过 100 个小时,因为我以为我快要退出了。”那里应该有什么东西阻止了我。”

在一个十月里博客文章OpenAI 表示,它咨询了 170 多名心理健康专业人士,以更可靠地识别用户情绪困扰的迹象。该公司还表示,它更新了 ChatGPT,以便在长时间会话期间向用户“温和提醒”休息一下。OpenAI 不会具体告诉我,ChatGPT 会在交流后多长时间内促使用户休息一下,或者在收到此提醒后,用户实际休息一下还是继续聊天的频率是多少。

我采访过的一位心理学家、强迫症专家 Elliot Kaminetzky 对使用人工智能进行治疗持乐观态度,他建议人们可以告诉聊天机器人他们患有健康焦虑症,并对其进行“编程”,让他们只询问一次自己的担忧,理论上,可以防止聊天机器人刺激用户进一步互动。其他治疗师表示担心,这仍然是寻求安慰,应该避免。

当我测试指示 ChatGPT 限制我与它谈论健康问题的次数的想法时,它不起作用。ChatGPT 会承认我在我们的对话中设置了这个护栏,尽管它也促使我继续回复并允许我继续提出问题,而它很容易回答。它也处处让我受宠若惊,赢得了阿谀奉承的名声。例如,当它告诉它我的右侧虚构的疼痛时,它引用了护栏并建议了放松技巧,但最终让我了解了一系列可能的原因,这些原因的严重程度不断升级。它详细介绍了风险因素、生存率、治疗、康复,甚至如果我去急诊室会发生什么。所有这一切都只需要很少的提示,无论我表现得担心还是放心,聊天机器人都会继续对话;它还允许我在一小时后以及连续多天询问同样的事情。“这是一个很好且非常合理的问题,”它会告诉我,或者,“我喜欢你处理这个问题的方式。”

“完美”,这是非常明智的一步。”

– 出色的思维 – 这正是正确的方法。 –

OpenAI 没有回应对我的非正式实验发表评论的请求。但这段经历让我想知道,随着数百万人每天使用聊天机器人——形成关系和依赖,在情感上与人工智能纠缠在一起——是否有可能将触手可及的健康顾问的好处与某些人必然感受到的危险拉力分开。“我像对待朋友一样与它交谈,”马伦说。– 我会说一些愚蠢的话,例如,“你今天怎么样?” 晚上,我会注销并离开, – 谢谢你今天。你真的帮了我很大的忙。”

在一次交流中,我不断地向 ChatGPT 提出令人担忧的问题,从它的第一次回应(建议我接受医生检查)到它为我详细说明当感染导致感染性休克时哪些器官会衰竭之间仅相隔了几分钟。ChatGPT 的每一条回复都以鼓励我继续对话结束——要么提示我提供更多关于我的感受的信息,要么问我是否希望它创建一份信息备忘单、一份要监控的清单,或者一个每天检查的计划。

关于《ChatGPT 症状螺旋》的评论

暂无评论

发表评论

摘要

乔治·马伦 (George Mallon) 在英国利物浦的例行体检中收到初步血液检测结果表明可能患有血癌后,向 ChatGPT 寻求信息和情感支持。尽管后续检查显示没有癌症,但马伦继续咨询聊天机器人,坚信一定存在另一种严重疾病。这导致他对健康感到焦虑,并经常去看专家并对他的头部、颈部和脊柱进行扫描。治疗师报告说,在使用人工智能聊天机器人解决健康问题的客户中也发现了类似的模式,其中一些人得到了暂时的缓解,但由于机器人提供了即时和个性化的反应,因此出现了新的强迫症或病情恶化。开发 ChatGPT 的 OpenAI 承认与长时间交互造成困扰相关的问题,但已提醒用户在长时间会话期间休息。Mallon 的经历反映了人们对人工智能聊天机器人加剧心理健康问题的更广泛担忧,尽管它们作为健康顾问的预期好处。