盖蒂 /未来主义的图像
卫生从业者对医学界变得越来越不安,可以广泛使用容易产生错误的生成AI工具。
技术的扩散被一再受到阻碍猖'的幻觉,“机器人的委婉说法和令人信服的谎言。
一个明显的错误被证明是如此有说服力,以至于花了一年多的时间才被抓住。在他们的2024年5月研究论文Google研究人员在引入了称为Med-Gemini的医疗AI模型,称为Med-Gemini,展示了AI分析放射学实验室的大脑扫描,以了解各种情况。
它确定了一个“旧的基底神经节梗塞”,指的是人体中根本不存在的“基底神经节”的一部分。董事会认证的神经学家布莱恩·摩尔(Bryan Moore)将问题标记为边缘,强调Google修复了有关AI的博客文章,但未能修改研究论文本身。
AI可能将基底神经节,与运动运动和习惯形成相关的大脑区域以及基底动脉,这是脑干底部的主要血管。Google将事件归咎于简单的“基底神经节”。
令人尴尬的揭示,强调了该技术的持久和有影响力的缺点。甚至Google和Openai之类的最新“推理” AIS也是传播虚假由大型语言模型梦dream以求,这些模型经过大量的互联网训练。
在Google的搜索结果中,这可能会导致头痛对于用户的研究和事实检查工作。
但是在医院环境中,这些滑倒可能会带来毁灭性的后果。专家认为,虽然Google的人造PA很可能不会对人类患者造成任何危险,但它设定了令人担忧的先例。
医疗保健系统Providence首席医疗信息官Maulin Shah告诉边缘。“两封信,但这很重要。”
Google去年将其医疗保健AI吹捧为具有“巨大的医学潜力”,认为它可以用来识别X射线,CT扫描等中的条件。
在摩尔将公司研究论文中的错误标记为Google之后,员工告诉他这是一个错别字。在它的更新的博客文章,谷歌指出,“基底'是Med-Gemini从培训数据中学到的“基础”的常见错误转录,尽管该报告的含义没有改变。”
然而,研究论文仍然错误地指写作时的“基底神经节”。
在医学背景下,AI幻觉很容易导致混乱,甚至可能使生命处于危险之中。
莎阿告诉边缘。
这不仅仅是Med-Gemini。Google更高级的医疗保健模型被称为Medgemma,这也导致了不同的答案,具体取决于问题的方式,在某些时候导致错误。
埃默里大学放射学和信息学副教授朱迪·吉乔亚(Judy Gichoya)告诉,“他们的本性是[他们]倾向于弥补事物,这不知道,这对医学等高风险领域来说是一个大问题。”边缘。
其他专家说,我们正在急于在临床环境中适应AI人工智能治疗师,,,,放射科医生, 和护士到患者互动转录服务保证采取更加谨慎的方法。
同时,人类将不断监视幻觉AIS的输出,这可能会反应导致效率低下。
Google将全力以赴。3月,Google揭示它极易出现错误的AI概述搜索功能将开始提供健康建议。它还引入了一个“ AI共同科学家”,他将协助人类科学家发现新药等等。超级大国。”
但是,如果他们的产出未观察到没有验证,人类的生命可能会受到威胁。
莎阿告诉边缘。“也许其他人就像,如果我们能像人类一样高,那么我们就足够好了。我不会买一秒钟。”
有关健康AI的更多信息: 人工智能治疗师去干草,敦促用户继续杀人