英语轻松读发新版了,欢迎下载、更新

AI迫使医生重新考虑诊断的性质

2025-01-31 09:33:28 英文原文

作者:Lakshmi Krishnan

医生最近收到了一个小小的消息学习在JAMA Network Open发表在JAMA Network公开赛中发现,Chatgpt-4在我们自己的技巧上超越了我们:诊断,有些人称之为医师最重要的程序。研究的大语言模型(LLM)胜过医生,在具有挑战性的病例上达到了90%的诊断推理得分,而医生甚至与聊天机器人一起工作的人也只达到76%。

但是,这项研究揭示了我们所知道的,比数字更引人注目不知道,关于医生的想法。为什么只有GPT才能独自王牌医生加上GPT?它引发了令人不安的问题,即使不是存在的问题:医师做出诊断时实际上是怎么回事,我们有多容易被替换? 

该研究的方法可能有助于解释这些违反直觉结果。人类分级者不仅基于诊断准确性,而且基于受访者(Bot或人类)的解释,论证和反驳称为差异诊断的微妙艺术,评估了诊断性能。对于许多经验,本能或直觉的医生(我只是知道),这种解释可能很难产生。对于与GPT配对的医生,当有AI生成的替代方案时,许多人仍然锚定了最初的印象,而不是合作者,将技术更像是搜索引擎。

我是一名执业医师和诊断的历史学家,我研究了医学是如何努力处理新技术的。我发现这些结果既迷人又熟悉,但发现了对研究的反应激增,许多人在一个人与机器战斗中分配了我们的反应。聊天机器人击败了医生医生的预后是什么更重要的是。

新的诊断技术有悠久的历史,促使有关医学实践未来的声明。在1820年代,听诊器​​揭示体内隐藏声音的能力被某些人驳回,并导致其他人预测了医生与患者之间亲密关系的结束。一个世纪后,X射线渗透到纯机械诊断方法上的肉体提出的警报。最近,正如我所示研究与同事,20Th世纪的介绍计算机化记录是为了使医疗思维和自由医生在床边进行系统化;相反,许多医生报告电子健康记录(EHR)是患者护理破坏和重要的来源行政负担

每项创新最终都发现自己的位置不是替代临床医生的位置,而是医学更广泛的解释框架和对越来越复杂的系统的贡献者的工具。

我们倾向于讲二进制故事。医师与机器的一个人倾向于专注于预测的替代模式,而不是周到的整合。它是从科幻小说中绘制的,机器霸主奴役或取代人类。现实是更平淡的,但可能会更具影响力,因为我们最终获得了挥舞着我们的工具,或者在一个日益笨拙的系统中不安地坐着,这引起了一个问题:他们是谁,我们打算工作?谁受益?谁受苦?

这项最近的研究促使如此强烈的反应,尤其是医生的原因之一是因为我们本身会诊断多少。诊断是什么?我们可以认为诊断能力的奖励可以追溯到古人预后,但是您不能在没有诊断的情况下预测),但这确实是启蒙后转向病理解剖学和疾病定位的转变,例如乔瓦尼·莫加尼(Giovanni Morgagni)以及巴黎人和爱丁堡学校的核心诊断是医生的核心身份。

我们的隐喻揭示了我们如何看待自己,我们的工作,我们抱怨的东西以及我们认为使我们重要的事情。在病房或诊所内聆听,并出现了许多速记:追逐所有潜在客户,输入数据,图表bloat,技术人员,”历史学家,教育者。这些都暗示了检测的想法 - 将微妙的线索融合到连贯的诊断中的能力。这一传统从革命后巴黎的摩尔格人和诊所一直延伸到现代学术医疗中心,不仅塑造了我们的练习方式,还塑造了我们如何理解自己是医生。

考虑一下19世纪的医生如何处理他们的工作。在欧洲诊所中,开发了一种系统的方法,该方法同时观察并记录了患者症状和体征,而米歇尔·福柯(Michel Foucault)则著名地认为,开发了一种医学凝视,有选择地从该人那里检索了一块数据整体故事,将它们插入了生物医学范式中。与新诊断技术(如R.T.H Laennec的介导听诊和Carl Wunderlich的温度测定法)一起出现了医师 - AS检测的隐喻。当启发夏洛克·福尔摩斯(Sherlock Holmes)的爱丁堡外科医生约瑟夫·贝尔(Joseph Bell)教学生观察和推断时,他不只是教授技巧。他正在编码整个临床推理的哲学,这些临床推理成为持久幻想的一部分,并带来了可行的后果。尽管医生做了许多其他事情 - 包括但不限于系统思考,对话,治疗决策,团队合作,历史和叙事重建 - 我们中的许多人都被吸引到侦探。” 

由于对人工智能的新担忧优于诊断医生,我们可以理解为什么我们开始怀疑医学的侦探工作是否正在过时,预示着算法而不是临床医生解决病例的未来。

AI迫使我们重新考虑诊断的真实本质。侦探和其他隐喻虽然有弹性,重要和有用,但似乎总是稍微错过了标记。毕竟,我们不是要抓住凶手,而是要改善人们的生活。我们谈论诊断的方式揭示了系统和解释方法之间的这种持续张力。首先,诊断既是标签又是过程。历史学家查尔斯·罗森伯格(Charles Rosenberg)著名地描述了诊断,和医学社会学家安妮玛丽·朱特(Annemarie Jutel)的暴政,他谈到了对某人疾病的标签有多么强大。

但是,我们一直在努力将诊断作为过程封装,以了解其真正的含义。叙事学者凯瑟琳·蒙哥马利(Kathryn Montgomery)认为,这是证据收集和解释的复杂相互作用。诊断始终所需的不仅仅是模式识别 - AI让我们击败的领域。这几乎与疾病相匹配。当我看到患者时,我不仅会处理数据点,还可以解释由文化背景,经验和人类互动所塑造的叙事。我在包括社会世界在内的诊断环境中运作。关于诊断差异的研究表明,这种解释性因素是多么重要 - 许多患者,尤其是那些脆弱和边缘化社区的患者,历史上已经丢失或成为医疗监视的主题,而无需将其视为症状的集合而不是复杂的症状。个人在复杂的环境中被融入。

诊断健康公平研究使我们超越了临界过程,以揭示诊断如何从广泛的社会影响到直接临床相互作用到隐藏的系统因素的多个层次运作。当我们将算法带入图片时,有很好的数据表明,这不是偏见的算法本身,而是它们编码我们现有系统中的差距和不平等。例如,有影响力的医疗保健算法通过使用医疗费用作为健康需求的代理,表现出种族偏见,使黑人患者的护理比相等的算法得分的白人患者更少。该算法反映了社会经济差异,在同一疾病中,黑人患者历史上会产生较低的成本。医疗保健中的机器学习算法可以在医疗设备,临床相互作用和干预措施中持续或扩大现有偏见,例如在较深的皮肤上工作较差的脉搏血氧仪,种族群体之间的诊断差异以及基于性别的治疗质量差异。

根据患者的起点和面临的景观,患者的诊断旅程可能会大不相同。考虑如何出现不同类型的诊断错误。对诊断差异的研究发现,错误通常不仅(甚至主要是)缺乏医学知识,而且由于系统和结构的失败(访问,跟进,数字素养和公平性和公平性)以及解释失踪的失败 - 缺失关键环境,忽略文化因素,或者未能将看似无关的症状整合到一个连贯的整体中。AI系统在跨广阔数据集的发现模式方面表现出色,但是它们可以独立地权衡患者生活经验或文化背景的重要性。这些差异揭示了为什么仅凭AI的模式识别能力无法解决我们的诊断挑战,以及为什么考虑历史,环境和多层次因素的周到的整合将如此重要。这不会只是插入案例并吐出解决方案。

如今,S AI系统代表了不同的东西 - 不仅是一种新的诊断工具,而且完全是一种新型的医学推理。最近的研究表明,Chatgpt不是通过模仿医师的思维过程而成功,而是通过将其自身的模式识别形式应用于医学知识中。最值得注意的是,它擅长解释其诊断推理,并提供了许多接受更直观方法培训的医生努力匹配的医生。作为一名医生著名的,与LLM Scribe共享诊所就像让聪明的医学学生观察者和高级主管卷入一名诊所一样。AI与众不同的是它有能力参与我们所谓的元诊断 - 不仅是将匹配症状与疾病进行模式相匹配,而且还以挑战和增强医师思维的方式解释其推理。

然而,最近的研究表明,我们还没有意识到这一潜力。当研究中的医生可以使用chatgpt时,他们经常使用狭窄的使用,提出特定的问题,而不是参与其完整的分析能力。更明显的是,当AI提出替代诊断时,许多医生仍然依靠他们的最初印象。这种抵抗仅仅是保护专业草皮。它是技术,人员和临床判断概念之间漫长而动态的相互作用的一部分,临床判断的概念一直比简单的替代或抵抗更为复杂。

在我的工作中,我发现每种新技术都促使药物重新定义,但不要放弃其解释性核心。听诊器不只是让医生听到更好的心听到。它创造了理解身体的新方法,并改变了我们的聆听方式。X射线没有揭示隐藏的结构。它重塑了我们如何概念化疾病本身。即使电子健康记录将患者的故事分散到离散的数据点时,它也会创建信息存储和访问结构,这些结构可能会在人群健康水平上产生重大影响。同样,AI已经迫使我们深入思考我们的认知过程和对语言的使用。它的算法为我们的系统中出了问题以及我们遗漏的人提供了镜子。什么是及时的工程,但修辞学是什么,什么是神经网络,而是思想哲学?

挑战不是人类和机器智能之间的选择,而是了解我们如何有理由合作。诊断的艺术始终是关于不同类型的知识,不同认识的方式和不同发现工具的整合。” 

教育改革至关重要。从健康阶段开始,医学教育必须超越其对生物医学知识获取的传统关注。随着AI系统越来越多地在模式识别和快速信息检索方面表现出色,今天的培训医师将需要成为叙事和背景的复杂口译员,而不是快速转移科学证据的存储库。他们需要成为语言的复杂用户。不教他们如何编码,教他们如何阅读。

这种转变要求重视医学培训中的人文技能 - 教医生是科学文学和人类故事的敏锐读者,他们可以清楚地表达其推理的熟练作家,以及可以将生物学,社会和社会编织在一起的细微口译员文化线程变成连贯和清晰的叙述。正如先前的诊断技术(如听诊器和X射线)需要新的解释性框架一样,当我们开发新的教育模型以帮助医生了解何时信任他们的上下文判断以及何时依靠AI的分析能力时,AI将是最有价值的。这需要了解诊断的哪些方面本质上仍然是人类。医生的重要作用不是减少,而是从信息持有人到含义制造商,从孤立的侦探到合作解释者。

谈到查尔斯·巴巴奇(Charles Babbage)1830年代的原始思维机器,亚瑟·柯南·道尔(Arthur Conan Doyle)写信给约瑟夫·贝尔坠入爱河。然而,福尔摩斯变得远远超过了纯粹的分析引擎。在60个故事中,侦探不仅展示了爱,而且展示忠诚,直觉和友善。他不仅依靠自己的分析能力,还依靠线人,专家和技术网络。最重要的是,他依靠与沃森博士的友谊,沃森博士是一种持久的文学伙伴关系,这暗示了对单独分析的合作。

Lakshmi Krishnan是乔治敦医学人文科学的医师,并在那里研究医学知识,文化和实践的交集。 

关于《AI迫使医生重新考虑诊断的性质》的评论


暂无评论

发表评论

摘要

Lakshmi Krishnan的文章探讨了人工智能(AI)对医学未来的深刻含义,特别关注诊断推理在医疗保健中的不断发展的作用。这是一个摘要和分析:### 概括**介绍:** - **上下文:**引言以医疗技术的历史演变(例如听诊器和X射线)设定了舞台。 - **挑战:**本文解决了诸如Chatgpt之类的AI工具的兴起,该工具挑战了传统的诊断方法,但也提供了集成的机会。**要点:**1。**有关AI诊断中AI的研究结果:** - 最近的一项研究发现,尽管Chatgpt可以在诊断医疗状况并解释其推理方面表现良好,但许多医生努力充分利用该工具的功能。 - 尽管AI提出了替代诊断,但医生通常依靠他们的最初印象。2。**技术与人类专业知识的整合:** - 与其将AI视为威胁,不如将其视为建立伙伴关系的机会。 - 听诊器和X射线是增强诊断功能但需要新的解释框架的技术的示例。3。**医学培训中的教育改革:** - 随着AI在模式识别和信息检索方面表现出色,医学教育必须将重点转移到诸如叙事解释和清晰沟通之类的人文技能上。 - 医师需要成为科学文学和人类故事的熟练读者,以及可以综合生物学,社会和文化因素的细微口译员。4。**医生角色的演变:** - 医师的作用正在从作为信息的存储库中发展为有意义的制造商和协作口译员。 - 当与了解如何有效整合上下文判断的医生配对时,AI将是最有价值的。5。**诊断的整体方法:** - 诊断推理不仅应依赖于模式识别,还应结合叙事理解,社会环境和文化因素。 - 医师必须开发复杂的阅读科学文学和人类故事的方法。6。**未来的合作与伙伴关系:** - 需要医生与AI系统合作,而不是与他们竞争。 - 与沃森博士(合作伙伴)一起工作的福尔摩斯(分析侦探)的比喻强调了合作伙伴关系而不是单独分析的重要性。### 分析**跨学科视角:** - 克里希南(Krishnan)汇集了病史,当前的技术进步和教育改革的见解,以对AI对医学的影响进行全面的看法。**哲学含义:** - 文章深入研究了有关人类认知和临床判断的性质的哲学问题。它认为,尽管AI可以在模式识别方面表现出色,但在理解复杂的叙事和文化背景方面却缺乏。**教育改革:** - 克里希南(Krishnan)强调需要通过更多地专注于解释技巧而不是死记硬背的记忆来适应医学教育。这种转变至关重要,因为AI接管了与信息检索和模式匹配有关的任务。**协作实践:** - 该文章倡导AI作为一种补充人类判断的分析工具,并促进技术和医学专业知识之间的合作伙伴关系。### 结论克里希南(Krishnan)的文章认为,医学中AI的整合不是被视为替代者,而应被视为诊断的伴侣。通过强调教育改革以培养解释技巧并促进协作实践,医疗保健可以利用AI的分析能力,同时维持有效患者护理必不可少的细微人类判断。