OC

Knowledge OS
鹦鹉螺口语
研究警告说 ChatGPT 可能会给你不好的医疗建议
2026-03-11 15:21:14 · 英文原文

研究警告说 ChatGPT 可能会给你不好的医疗建议

作者:By Katia Riddle

Digital generated image of african american ethnicity young man wearing suit standing on purple ramp and looking to multiple message chat icons. Artificial intelligence chatbot communication concept.

Andriy Onufriyenko/Moment RF/Getty Images

随着科技公司推出平台专门设计的对于医疗保健咨询,人工智能正在迅速成为许多人医疗决策的关键角色。根据 ChatGPT 的制造商 OpenAI 的说法,超过4000万人们每天都会通过该平台获取健康信息。

但新的研究表明人工智能可能会在某些医疗场景中误导用户。

风险之一:虽然人工智能让大量的医学知识触手可及,但许多外行人不知道如何有效地利用它。在一项研究最近发表在杂志上自然医学研究人员试图通过向参与者提供医疗场景并要求他们咨询人工智能工具来模拟人们如何使用人工智能聊天机器人。在与机器人交谈后,参与者只有大约三分之一的时间正确识别了假设条件。

只有 43% 的人对后续步骤做出了正确的决定,例如是去急诊室还是呆在家里。

“人们不知道他们应该告诉模型什么,”牛津大学研究人工智能系统的安德鲁·比恩(Andrew Bean)说,他是这项研究的作者之一。

Therapy by chatbot? The promise and challenges in using AI for mental health

Bean 经常说,在使用人工智能时,得出有用的结论取决于词语的选择。“医生接受过培训,会询问你可能没有意识到应该提及的症状的问题,”比恩说。

在一个场景中,两个不同的用户对同一场景的描述略有不同。其中一人描述了“我经历过的最严重的头痛”,并在人工智能的指导下立即前往急诊室。另一名没有使用明确描述的人被告知服用阿司匹林并留在家里。“事实证明,这实际上是危及生命的情况,”比恩说。

在某些情况下,人工智能擅长识别医疗问题——例如一些研究,大型语言模型有时在诊断推理任务上可以匹配甚至超越医生。但 Bean 表示,人们使用人工智能聊天机器人的方式远比其表现良好的受控临床情况要混乱。

正确的诊断,错误的建议

即使在人工智能能够正确识别病情的情况下,它通常也不会以适当的紧急程度提出下一步的步骤。另一项研究

研究人员向人工智能机器人展示了不同的医疗场景。在 52% 的紧急情况下,机器人“分类不足”,这意味着将疾病视为不那么严重。在一个例子中,它未能指导一名假设患有糖尿病酮症酸中毒和即将发生呼吸衰竭(一种危及生命的疾病)的患者去急诊室。

该研究的作者、西奈山医生兼人工智能研究员 Girish Nadkarni 表示:“当出现教科书式的医疗紧急情况时,ChatGPT 就做出了正确的处理。”纳德卡尼说,问题在于,当出现更复杂的场景时,其中存在“时间因素”——机器人通常会高估或低估患者在寻求治疗之前可以等待的时间。

OpenAI 的一位发言人表示,这项研究并不代表人们实际使用 ChatGPT 的方式,之前的研究使用了旧版本的 ChatGPT,该公司认为该版本已针对出现的一些问题得到纠正。

人工智能可以改善医生的就诊体验

尽管担心不准确,但研究人工智能的医生相信患者使用它来获取医疗保健信息是有价值的,并指出它甚至提供了一些时间救生建议。

“我鼓励患者使用这些工具,”加州大学旧金山分校的医生、最近出版的这本书的作者 Robert Wachter 说,巨大的飞跃:人工智能如何改变医疗保健及其对我们的未来意味着什么

沃赫特认为,由于医疗保健难以负担和获得,咨询人工智能通常仍然比其他选择更好。“你从这些工具中得到的建议比没有好得多,也比你从你的远房表弟那里得到的建议要好,”沃赫特说。

尽管如此,沃切特强调,人工智能并不能取代医生。

哈佛医学院研究人工智能项目的住院医师 Adam Rodman 不鼓励人们使用人工智能来分类紧急情况,但他表示人工智能可以为患者与人类医生的互动增加重要价值。

“使用大型语言模型的好时机是当你即将去看医生时,或者在你看完医生之后,”罗德曼说。他说,它可以帮助您在预约之前更了解自己的病情,并有效地利用与您的提供者在一起的时间,让患者有机会与医生合作做出决定,而不是进行冗长的问答环节。

“更好地了解您的健康状况没有什么坏处,”罗德曼说。

医疗保健领域的人工智能将继续存在

接受本报道采访的医生承认,人工智能和医学已经密不可分,并认为人工智能和人类将变得更加擅长彼此互动。

“我希望你能将人工智能视为人类关系的延伸,”罗德曼说。他想象了一个未来,医生和人类都与人工智能合作,以促进沟通并克服医疗官僚主义。

罗德曼表示人工智能存在风险。他担心有一天人类会被机器人而不是人类告知可怕的诊断(例如癌症)。研究研究表明,当医疗保健更像是一种商业或市场产品时,人们对医生的信任度就会降低。

罗德曼说:“我希望这项技术能够以增强医学人性的方式使用,而不是切断医患关系。”

关于《研究警告说 ChatGPT 可能会给你不好的医疗建议》的评论

暂无评论

发表评论

摘要

人工智能日益影响医疗决策,数百万人每天使用 ChatGPT 等平台来获取健康信息。然而,最近的研究表明,人工智能在医疗场景中可能会误导用户,用户往往无法有效利用人工智能丰富的医学知识。例如,《自然医学》研究的参与者只有大约三分之一的时间正确识别了假设条件,并且只有 43% 的时间做出了正确的下一步决定。此外,即使人工智能正确诊断了某种情况,它也常常无法提供紧急建议。尽管存在这些担忧,一些医生还是看到了人工智能对患者教育的价值,并相信它可以增强与医疗保健提供者的互动,尽管他们强调人工智能并不能取代人类医生。