-
玛丽·迈耶医学博士、公共卫生硕士是永久医疗集团的急诊科医生。她还拥有公共卫生硕士学位以及全球健康和气候医学证书。迈耶此前曾担任大型医疗保健系统的灾难准备总监。
2024 年假期正式开始,我的急诊科一如既往地忙碌。第一批流感病例正在出现,COVID-19 似乎准备每年一度来访,感恩节后也不乏心力衰竭患者。
和许多医生一样,我不是技术创新者。事实上,我可能更倾向于后期多数部分创新扩散曲线。但由于生成人工智能(AI)似乎正在走无马拉马车的道路,我最近决定将人工智能工具纳入我的实践中。我的组织采用的工具的功能介于抄写员和行政助理之间。当我进入病人的房间时,我打开它,当我回到办公桌时,该工具会输出病史和体检结果,并附上评估和计划。
它有一些怪癖。其一,似乎认为所有的疼痛都是严重的。公平地说,它无法看到患者的面部表情或解读他们的肢体语言;它也没有像我一样花了二十年的时间来解释患者描述自己的痛苦难以忍受时的真正含义。它似乎也与背景相矛盾,或者——我敢说——常识。例如,该工具可能会包括患者的吸烟和电子烟选择,而这些选择并不是特别相关。如:该患者有吸烟和吸电子烟史,主诉跌倒后脚踝严重疼痛。
或者它可能会强调我不一定要包括的病史的某些方面,例如为什么患者丈夫最好的朋友(一位医生)认为他们患有憩室炎。相反,它有时会忽略重要信息,例如我的右手肌腱撕裂患者是右手主导型这一事实。
我的意思是我的人工智能工具不会说话人类;它似乎与许多人试图描述自己的困扰的细微差别和频繁的自相矛盾作斗争。
我对此很满意。鉴于人工智能的快速发展——当前的工具已经比其前身有所改进——很明显,它在我的实践中的通用性将会提高。当它迈出第一步时,我愿意对它进行幽默。然而,这个最新的工具让我思考我真正想从一个有潜力真正改变我的职业的信息网络中得到什么。所以,我创建了一个人工智能假期愿望清单。
今年我想要...我
以前写过关于我的实践的演变。自 2020 年以来,我的急诊室里挤满了病情较重的老年患者,而且前来就诊的人数不断增加。风险很高,而且我意识到我很容易错过有关患者病史的重要细节,这令人沮丧。因此,我的第一个愿望是拥有一个人工智能工具,它可以探测患者的图表并提醒我容易错过且与当前演示相关的细节。
想象一下患有髋部疼痛的患者,该患者的关节有长期的化脓性关节炎病史。或者是那位腹痛的中年妇女,小时候做过阑尾切除术,10年前又做过胆囊切除术。或者任何接受抗凝治疗的患者。我不想花宝贵的时间费力地了解患者最后一次心脏病就诊的三项血管成形术和四支冠状动脉旁路移植术的详细信息,而是希望有一种工具可以立即利用这些信息并在我走进房间时将其呈现给我问他胸痛的情况。我正在寻找彻底、简洁且相关的内容。
我希望我的理想人工智能工具做的下一件事是以扩大的鉴别诊断和基于证据的算法的形式提供临床决策支持。它应该提醒我检查呼吸困难患者的 Wells 标准,然后为我计算 Wells 评分。或者告诉我我的发烧病人刚从哪个国家回来的最新疾病爆发情况。简而言之,它应该促使我考虑异常值,即那些不常见但仍然必须考虑的诊断。
毕竟,急诊医学最引人注目的方面之一是我和我所有的同事一起反复想出鉴别诊断根据我自己的记忆在轮班期间对多名患者进行治疗。有时我可能会查阅教科书或咨询同事。但我的绝大多数实践都是基于对医学知识的即时检索,以及我将这些知识与患者表现的各个方面相结合的能力,以对她的疾病进行连贯的描述。
医生得出诊断的方式是——他们怎么想——尽管研究人员多年来试图定义和重现它,但它仍然笼罩在神秘之中。事实上,在最近的 ChatGPT 研究中,研究人员发现只有当他们不再试图重现医生的思维方式,而是专注于计算机预测语言的能力时,计算机模型的诊断能力才开始接近医生的诊断能力。
当然,陷阱是这个回忆过程充满了个人练习差异和广泛的潜在错误,有时带来毁灭性的后果。我发现自己想知道,在未来的几十年里,我们目前依靠医生的记忆和经验来获得准确诊断的做法是否会像今天看待放血一样——随意到野蛮的程度。
这就提出了重要的一点:准确性。如果未来的人工智能工具提醒我检查患者的免疫史,然后又给我提供有关疫苗接种的最新阴谋论,那么它对我来说就没用了。尤瓦尔·赫拉利写得很雄辩关于这样一种天真的信念,即拥有更多信息的信息网络必然会产生更多真相。事实上,事实往往恰恰相反,大量污染在线医疗领域的错误信息和虚假信息就证明了这一点。对于人工智能工具来说,要改变我的实践,它需要找到隐藏在猜想和阴谋领域中的真相核心。
我的“到达”列表
我的愿望清单包含一些更遥远的物品——我并不真正期望得到但仍然愿意要求的东西。在实现了对患者医疗状况的相关性、准确性和个性化了解之后,未来的人工智能工具能否为我提供预后?患者再犯、复发或 TIA 演变成中风的可能性有多大?未来的人工智能工具能否打破语言障碍,比如传说中的巴别鱼在银河系漫游指南?
最后,每个假期清单都有一个高价项目,这是您私下最想要的东西。这是我的:我想要一个人工智能工具,它可以保护我免受人类错误的影响。
和我的病人一样,我也充满了细微差别和自相矛盾。研究又研究已经证明,医生有能力胜任大量的工作认知错误,从过早关闭到确认偏差再到锚定。但我不需要研究来告诉我,当我感到疲劳时、当 12 小时轮班的第 11 个小时或当我连续工作第八个轮班时,所有这些倾向都会恶化。
当我从事危险的多任务时,未来的人工智能模型能否警告我?或者只是太累了而无法准确治疗我的病人?当我的分散程度达到危险程度时,它可以警告我的主管吗?当我需要处理太多危重病人时,它能注意到我并重新平衡急诊科各个提供者之间的敏锐度分配吗?
我的愿望是有一个人工智能工具能够减轻我的致命弱点,而不是一个将我视为系统中的一个齿轮的网络,而这个系统总是可以变得更加高效。我想人们可能会合理地询问我们是否正在走向一个没有人类医生的时代,因为他们有明显的弱点。我不认为我们是:调查始终如一地指向一个愿望就接受治疗的患者而言其他人类,尽管他们可能会犯错。如果我们得出结论,人工智能最终将演变成一种辅助而不是取代人类医生的工具,那么我的愿望是有一种工具可以让我成为最好的人类医生。
此观点仅代表作者个人观点,并不一定反映她所属的任何机构或公司的观点。