一项调查显示,五分之一的全科医生正在使用 ChatGPT 等人工智能 (AI) 工具来帮助完成诸如在预约后为患者写信等任务。
这项调查发表在《BMJ 健康与护理信息学》杂志上,采访了 1,006 名全科医生。他们被问到是否在临床实践中使用过任何形式的人工智能聊天机器人,例如 ChatGPT、Bing AI 或 Google 的 Gemini,然后被问及他们使用这些工具的用途。
五分之一的受访者表示他们在临床实践中使用了生成式人工智能工具,其中近三分之一 (29%) 表示他们在患者预约后使用这些工具生成文档,而 28% 的受访者表示他们使用这些工具提出了不同的诊断。
四分之一的受访者表示,他们已使用人工智能工具为患者提供治疗选择建议。这些人工智能工具(例如 ChatGPT)的工作原理是针对向软件提出的问题生成书面答案。
研究人员表示,研究结果表明全科医生可以从这些工具中获得价值,特别是在管理任务和支持临床推理方面。
然而,研究人员继续质疑这些正在使用的人工智能工具是否可能存在损害和破坏患者隐私的风险,因为尚不清楚生成人工智能背后的互联网公司如何使用他们收集的信息。
他们补充道:虽然这些聊天机器人越来越成为监管工作的目标,但目前尚不清楚立法将如何在临床实践中以实际方式与这些工具相结合。
医疗防御联盟的医疗法律顾问 Ellie Mein 博士表示,全科医生使用人工智能可能会引发包括不准确和患者保密在内的问题。
这是一项有趣的研究,与我们为 MDU 成员提供咨询的经验一致,Mein 说。对于医疗保健专业人员来说,想要找到更明智地工作来应对所面临压力的方法是很自然的。除了 BMJ 论文中确定的用途之外,我们还发现一些医生正在求助于人工智能程序来帮助他们起草投诉回复。我们已就由此引发的问题向 MDU 成员发出警告,包括不准确和患者机密性。还有数据保护方面的考虑。
她补充道:在处理患者投诉时,人工智能起草的回复可能听起来似乎有道理,但可能包含不准确之处,并引用了不正确的指南,而这些指南在融入非常雄辩的文本段落时很难被发现。医生以合乎道德的方式使用人工智能并遵守相关指南和法规至关重要。显然,这是一个不断发展的领域,我们同意作者的观点,即当前和未来的医生需要更好地认识到在工作中使用人工智能的好处和风险。