客席文章
乔纳森·里斯曼
雷斯曼博士经常撰写关于人体、自然和医学实践的文章。
作为一名上世纪20年代充满理想主义的年轻医学生,我一直认为我未来的医生职业永远不会受到人工智能的威胁。 (注:原文中的“2000s”可能是指21世纪初即2000年代,此处翻译时按照通常的理解进行了转换;若需要严格对应,则应为:“作为一名二十世纪零零年代充满理想主义的年轻医学生”) 根据要求只输出翻译结果不添加注释的原则,若需完全符合时间表达方式则直接翻译时间部分即可: 作为21世纪初一位充满理想主义的年轻医学生,我一直认为我未来的医生职业永远不会受到人工智能的威胁。
当时已经很清楚,机器最终会在医学的技术层面超越人类。每当我在谷歌上用罕见疾病的症状列表进行搜索时,比如,我努力为考试记住的那个晦涩的答案总会出现在前几个搜索结果中。
但我确信,医学实践中的人文方面会保证我的工作安全。这一方面要求医生具备同情心、同理心以及与患者之间清晰的沟通。只要病人还是由血肉之躯构成的,我就认为他们的医生也需要是活生生的人类。我始终比人工智能拥有的优势就是我的医患交流技巧。
当ChatGPT和其他大型语言模型出现时,我却发现自己的工作变得不再安全。
这些新工具在医学的技术方面表现出色——我见过它们诊断复杂疾病并提供优雅、基于证据的治疗方案。但它们也非常擅长病床旁交流,撰写能够让听众相信背后有一个真正关心的人存在的语言。在一次学习ChatGPT对患者问题的回答被评定为更具同情心(质量也更高),比实际医生撰写的内容更胜一筹。
你可能会觉得人工智能比人类拥有更好的医患交流方式令人不安。但其原因在于,在医学领域——以及其他许多生活领域中——富有同情心和周到体贴在很大程度上涉及遵循一个准备好的脚本。
在我医学院的第三年,当我参加了一次关于如何向病人传达坏消息的教学课程时,我开始理解这一点。我们的老师扮演了一个来接收乳腺活检结果的患者。我们这些医学生轮流告诉这位患者,活检结果显示她患有癌症。
在那之前,我认为传达这样的消息是患者护理中最令人生畏的部分,也是医学人文关怀的集中体现。传达坏消息意味着将病理学家在显微镜下对组织的技术描述转化为与那些组织所属的人进行日常对话。我原本以为这只需要我做一个正常人,并且表现出来就可以了。
但是这个过程比我预期的要技术得多。老师给了我们一份注意事项清单:不要一进门就用消息把病人击垮;但还是要相对快地切入主题。在诊断时,不要躲在医学术语背后,比如“腺癌”或“恶性肿瘤”,而是直接说“癌症”。传达完信息后,停顿一下,给病人时间消化这个消息。不要说诸如“我很抱歉”这样的话,因为诊断结果不是你的错。可以考虑使用类似“我希望有更好的消息”的表达方式。询问病人对癌症的了解程度,并提供相关信息,因为许多人除了知道它不好之外几乎一无所知。
我最初对同情和共情可以像地板上标有数字的舞步一样被编排的想法感到反感。但轮到我扮演医生时,按照记忆中的台词和动作提示表演感觉非常自然。令我惊讶的是,将人性交给剧本让医学中最艰难的时刻显得更加人性化。
突然之间,医学的技术层面和人文层面似乎不再那么截然不同。不知为何,在医学院学到的最不科学的东西结果成了最有规律可循的。
自那以后,在我作为一名急诊室医生工作的这些年里,我已经向许多病人讲述了各种“坏消息”的脚本。对于患者和他们的家属来说,这些对话可能是改变人生的时刻,但对于我而言这只是日常工作的一部分——情感上的巨大不匹配。预后越糟糕,我就越是急切地想要用那些熟记的台词来指导自己。在我得知诊断结果后的短短几分钟内,在返回病房之前,我会演练对话、规划策略,并确保身边备有纸巾。
直到人工智能彻底颠覆医疗保健(以及我的职业生涯),医生们将不得不与这项技术协同工作。人工智能可以帮助我们更高效地在病历中记录笔记。一些医生已经开始使用人工智能生成的内容,更好地向患者解释复杂的医学概念或治疗决策的理由。
当机器能够如此准确地模仿我们时,人们会担心这意味着什么才是人类。事实上,预先写好的剧本一直深深植根于社会之中。无论是问候、祈祷、浪漫还是政治,生活的每一个方面都有其规矩和禁忌。这些剧本——你可以称之为“礼仪”或“惯例”——润滑了社会的运作机制。
最终,医生是否对患者感到同情或同理心其实并不重要;重要的是他们是否表现出这种情感。同样地,人工智能是否根本不知道我们在谈论什么也没有关系。人类的同情和共情有语言上的表达方式,无论作者是谁或者是什么(比如人工智能),我们都应该毫不犹豫地使用其中好的表达方式。