作者:Sydney Halleman
该音频是自动生成的。如果您有,请告诉我们反馈。
编者注:本文包含来自 Healthcare Dive 最近的现场活动“人工智能与医疗保健的未来”的见解。一个 您可以在这里观看完整的活动。医疗保健组织在采用人工智能工具方面面临许多障碍。
提供者必须解决患者的担忧,而付款者和其他生命科学公司一个 努力解决如何平衡效率承诺与偏见等道德问题。
他们之所以这么做,是因为他们承诺人工智能将自动执行死记硬背的任务,减少医疗支出和浪费,让临床医生有更多的时间来照顾患者,并改变医疗保健行业。
但专家们在一次会议上表示,在生成式人工智能通过 ChatGPT 受到公众欢迎两年多后,医疗保健行业仍在努力研究如何监管、测试和实施这些工具。由 Healthcare Dive 主办的小组讨论11 月 19 日。
以下是八位医疗保健专家就组织在实施人工智能时应考虑的事项以及如何制定标准和法规提出的建议。
在决定是否集成人工智能工具时,提供商应采取的第一步是评估它将使用的临床环境。梅奥诊所平台医疗总监索尼娅·马赫尼 (Sonya Makhni) 表示,并非每种工具都适合诊所的每项任务。。
“人工智能算法可能非常好并且适合我的临床环境,但可能不适合另一个临床环境,反之亦然。”Makhni一个 说。“卫生系统需要了解......要寻找什么,他们需要了解患者群体,以便他们能够自行做出明智的决定。”
她补充说,尽管提供商必须评估人工智能工具,但由于其复杂性,他们在分析这些工具时面临着障碍,因为算法和模型可能难以理解。
“我们的劳动力确实很紧张,”马赫尼说。“我们真的不能指望每个人都获得数据科学或人工智能硕士学位才能解释解决方案。”
为了帮助解决这个问题,提供商应该求助于公共和私人财团——比如非营利组织健康人工智能联盟– 评估人工智能工具时的指导原则。
“我们已经了解了很多关于解决方案应遵循哪些类型的原则,”Makhni 说。“所以,安全、公平、有用、透明、可解释性、隐私,你知道,所有这些当我们审视人工智能解决方案时,我们应该把这些东西作为一个镜头。”
一旦提供商决定集成人工智能工具,他们就会面临另一个潜在的障碍:他们的患者。
随着人工智能工具变得越来越流行,患者对医生办公室使用的技术表示保留。去年,60% 接受调查的美国成年人告诉皮尤研究中心,他们如果他们的提供商依赖人工智能,他们会感到不舒服为了他们的医疗保健。
普罗维登斯卫生系统首席医疗信息官 Maulin Shah 表示,为了让患者更加舒适,临床医生应该强调,目前人工智能仅提供支持性作用。
– 在很多方面,人工智能实际上只是一种更好的方式来支持和提供决策支持 “医生,这样他们就不会错过任何事情,或者可以提出建议,”沙阿说。
尽管人工智能工具才刚刚在大众中流行起来,但当患者知道人工智能在医疗领域已经存在很长时间时,他们可能会感觉更好。
大西洋健康系统首席医疗信息官阿尔蒂·拉维库马尔 (Aarti Ravikumar) 指出,人工胰腺或闭环混合胰岛素泵等变革性工具已成为胰岛素依赖患者的“游戏规则改变者”。
“所有这些工作都是使用人工智能算法完成的,” 拉维库马尔说道。– 因此,我们拥有嵌入医疗设备或电子病历中的人工智能工具,并且已经存在很长时间了。 –
“这些工具都没有使临床医生摆脱这种互动或医疗决策,”拉维库马尔说。“如果我们达到了决策自动化并将临床医生从决策过程中移除的阶段,我认为我们肯定需要做出更多解释。”
每个组织在集成人工智能模型时都将被迫解决问题。但医疗保健领域的风险更高,因为偏见和幻觉,或者人工智能工具产生虚假或误导性信息,可能会导致患者护理中断。
医疗服务提供者并不是唯一一家应对偏见的医疗机构。付款人因使用人工智能工具而面临强烈反对拒绝提供医疗服务,科技公司被指控创建缩小现有医疗保健差距的工具。
谷歌云全球医疗保健总监 Aashima Gupta 表示,对于生成型人工智能公司来说,让人类参与其中至关重要,包括专家、护士或临床医生等用户的反馈。
“对我来说,反馈输入将使 gen AI 对于给定的用例更加有效,”古普塔说。
人工智能公司也应该彻底测试他们的模型。在谷歌,专门的团队试图通过欺骗手段来破解人工智能工具,比如试图提示问题的错误答案。她补充说,稳健的发展和让人类参与循环与控制错误是“齐头并进”的。
但是,杰西说,虽然组织应该对错误和偏见保持谨慎,但人工智能工具可能代表着一个尝试减少医疗保健偏见的机会 兰姆是麦肯锡咨询公司的合伙人。
– 在我们引入人工智能之前,医疗保健系统中存在大量偏见,对吗?因此,我们必须记住,我们并不是从一个完美的地方开始的,”Lamb 说。“我们可以实际使用人工智能并使用一些有意的监控来实际改善一些现有的状况。当谈到医疗保健方面的偏见时,我认为这实际上是一个巨大的机会。”
“在使用人工智能时,我们总是谈论偏见的下行风险,但我实际上认为这里也有一个相当大的好处,可以减轻我们在系统中看到的一些现有偏见,”“她补充道。
当医疗保健组织正在决定是否实施人工智能时,联邦政府和私人财团正在努力解决如何对其进行监管的问题。
尽管联邦政府在尝试监管这些工具方面取得了渐进的进展,包括通过规则制定,行业标准仍处于早期阶段。
与之前相比,人工智能的采用速度很快 美国卫生与公众服务部负责技术政策的助理部长兼代理首席人工智能官米基·特里帕蒂 (Micky Tripathi) 表示,两年前它变得更加主流,这加大了政府制定法规的压力。
特里帕蒂说,展望未来,政府和私营企业之间的合作伙伴关系将至关重要。
“这里将会有一个成熟的过程,我认为这将是一个公共的、私人的事情,”他说。
Tripathi 还想知道法规何时将有助于迫使私营行业采用自己的工具标准和认证。在行业的另一个领域,政府为电子健康记录公司申请自愿认证提供标准。
“例如,什么会促使世界各地的普罗维登斯健康中心感到有必要使用或获得某种认证或某种批准......来自为验证人工智能模型提供某些服务的组织?”“他说。“目前,对于开发这些解决方案的开发人员或实施这些解决方案的提供商组织来说,这只是纯粹的成本。”
普罗维登斯首席战略和数字官 Sara Vaezy 表示,虽然联盟可以为人工智能提供高级框架,但组织也需要开放标准来帮助解决底层的临床人工智能用例。
“我们需要类似于在互操作性方面取得的所有进展的开放标准,”Vaezy 说。
– 今天的挑战是,联盟距离我们的工作地点还很远,我们需要迅速缩小这一差距。我认为我们可以做到这一点的方法之一是通过创建开放标准,”她补充道。
咨询公司 Virtue 的创始人兼首席执行官里德·布莱克曼 (Reid Blackman) 表示,培训提供者需要与制定标准同时进行。它还可以帮助填补与人工智能相关的监管或治理方面的空白。
“你可以做很多事情来教育普通医生、护士等,让他们了解这些风险是什么,”他补充道。
“培训是一个重要的组成部分,我不想说护栏,但它是确保事情不会偏离正轨的一个重要组成部分,”布莱克曼说。