英语轻松读发新版了,欢迎下载、更新

4个常见的AI采用障碍以及如何避免它们

2025-04-21 14:14:52 英文原文

作者:By: April 21, 202510:14 AM

Generative AI(Gen AI)已经在改善患者体验和健康成果,并减轻医生,护士和临床医生的行政负担。随着对医疗保健的需求超过劳动力,医疗组织需要AI工具和自动化的帮助。

同时,AI Technologies的部署很少被插入。下面的列表汇总了许多组织遇到的最常见的障碍,以及有关如何帮助通过或周围工作的一些想法。

1。缺乏信任

您的团队了解AI Gen的能力吗?一个问题是,即使AI实施良好,员工和患者也可能不足以使用它来使用它。保证这种关注;尽管AI大约已经很长时间了,但AI和Agent AI仍然是相对较新的技术,人们可能没有所需的信息来对它们充满信心和舒适。

信任与上下文有关。病人和提供者可能不想要AI系统为了做出重大的患者保健决定,但可以批准使用AI来总结临床笔记,提供决策支持或产生患者访问摘要的初稿。右尺寸用例以与治理政策和公司目标保持一致。在整个旅程中,AI用户仍然需要对AI生成的内容或建议负责。

一项有希望提高对医疗组织AI信任的有希望的倡议是卫生AI联盟(•)。该联盟是建立负责AI在医疗保健中的负责使用的标准的主要领导者,也是各种规模的医疗保健系统的宝贵指导来源,无论他们在AI之旅中的任何位置。

2。对准确性的担忧

如果您使用Gen AI提供信息,则需要确保进入该工具的数据是准确的,并且可以使用可靠的AI算法来指导最佳结果。您是使用AI提供信息,生成内容,提出建议还是采取行动在某种形式的情况下,应进行人类的监督和持续监控,以确保利益相关者的准确回应和持续信任。

相关的特定用例将确定所涉及的风险水平,进而确定所需的监视水平。大多数AI代工具在引用来源方面都变得更好,从而更容易验证其产生的任何内容或响应。人类必须留在循环中才能进行这些评估。 

3。员工培训

采用AI工具可能会引起植根于感知的风险和不熟悉的反应。这种恐惧是真实的,向团队提供有关AI的指导和信息至关重要。就像在操作新车之前阅读新车的说明手册一样,预计将使用AI的团队应在适当的使用情况下进行培训。在收集整个组织的利益相关者的意见之后,应制定管理AI使用的政策和准则。 

应对涉及患者的AI用例进行仔细检查,监测和正确评估为了减少患者,雇员或其他利益相关者的有害结果的可能性。患者的护理必须始终出现在第一位。考虑到这一点,可能会有一些用例可以避免,因为它们会使主要利益相关者感到不舒服,而另一些则有可能带来足够的好处,以便通过密切的监控和监督可以实施它们。

医疗保健人员必须对AI所能做到的和不能做什么以及知识和知识有现实的期望,以清楚地表达这些期望与所有利益相关者。

4。保护知识产权

正如旅行者必须尊重交通法律一样,AI用户应制定政策和护栏,以指导AI使用受版权保护的材料。对受版权材料的担忧通常分为两类:(1)无意中侵犯现有版权的可能性以及(2)具有AI生成的新材料的能力。在这两种情况下,用户都应在生产任何内容(包括研究)时寻求并遵循其组织法律团队的指导,他们通常会考虑知识产权。通常,应将AI工具创建的内容视为提供有用的初稿,以供用户审查和修改。这也有助于避免复制任何人的现有工作。 

每个问题都应受到密切关注和行动,以减轻风险和疑虑。具有培训和政策的全面AI治理计划可以帮助指导负责任和成功的AI实施。

要了解更多信息,请访问以人为中心的AI研究:员工信任和工作场所经验的研究。

关于《4个常见的AI采用障碍以及如何避免它们》的评论


暂无评论

发表评论

摘要

生成的AI(Gen AI)正在改善患者的经验,健康成果和医疗保健的行政效率,但面临诸如缺乏信任,对准确性,员工培训需求的担忧以及对知识产权的保护等挑战。组织必须通过适当的治理,人类监督,利益相关者的参与和法律指导来解决这些障碍,以确保负责的AI部署。卫生AI联盟(CHAI™)被强调为建立标准并提供有关医疗保健道德AI使用的指导的关键资源。