英语轻松读发新版了,欢迎下载、更新

AI 认为膝盖 X 光检查可以显示你是否喝了啤酒,但事实并非如此

2024-12-11 20:17:33 英文原文

作者:by Dartmouth College

drinking beer
图片来源:Unsplash/CC0 公共领域

在解释诊断图像时,人工智能可以成为医疗保健专业人员和研究人员的有用工具。放射科医生可以通过 X 射线识别骨折和其他异常,而人工智能模型可以看到人类无法看到的模式,从而提供了扩大医学成像有效性的机会。

一项研究科学报告凸显了使用人工智能的隐藏挑战研究——高度准确但可能产生误导的结果的现象被称为“捷径学习”。

研究人员分析了 25,000 多张膝盖 X 光片,发现人工智能模型可以“预测”不相关且难以置信的特征,例如患者是否不吃炸豆泥或啤酒。虽然这些预测没有医学依据,但这些模型通过利用数据中微妙和意想不到的模式,达到了令人惊讶的准确度。

“虽然人工智能有潜力改变医学成像,但我们必须保持谨慎,”该研究的资深作者 Peter Schilling 博士说。达特茅斯健康中心的达特茅斯希区柯克医疗中心和达特茅斯盖泽尔医学院骨科助理教授。

“这些模型可以看到人类看不到的模式,但并非它们识别的所有模式都是有意义或可靠的,”席林说。“认识这些风险对于防止误导性结论并确保科学完整性至关重要。”

AI thought knee X-rays show if you drink beer—they don't: Researchers show how AI use in medical imaging can go wrong
QUADAS-2 摘要图。信用:npj数字医学(2021)。DOI:10.1038/s41746-021-00438-z

研究人员研究了人工智能算法如何经常依赖混杂变量(例如 X 射线设备或临床部位标记的差异)来做出预测,而不是具有医学意义的特征。消除这些偏见的尝试仅取得了一定程度的成功——人工智能模型只会“学习”其他隐藏的数据模式。

该研究的合著者、达特茅斯希区柯克机器学习科学家布兰登·希尔 (Brandon Hill) 表示:“这超出了种族或性别线索的偏见。”“我们发现该算法甚至可以学习预测拍摄 X 射线的年份。这是有害的——当你阻止它学习其中一个元素时,它会学习以前忽略的另一个元素。这种危险可能会导致一些真正的后果。狡猾的说法,研究人员需要意识到使用这种技术时这种情况是多么容易发生。”

研究结果强调了基于人工智能的严格评估标准的必要性。过度依赖标准算法而不进行更深入的审查可能会导致错误的临床见解和治疗途径。

“当涉及到使用模型来发现医学新模式时,举证责任就会大大增加,”希尔说。“部分问题在于我们自己的偏见。我们很容易陷入假设模型‘看到’的方式与我们相同的陷阱。最终,事实并非如此。”

“人工智能几乎就像与外星智慧打交道,”希尔继续说道。“你想说这个模型是‘作弊’,但这只是将技术拟人化了。它学会了一种解决分配给它的任务的方法,但不一定是人类会如何解决的。它没有我们通常理解的逻辑或推理。”

Schilling、Hill 和研究合著者 Frances Koback(三年级学生)达特茅斯盖泽尔学院与佛蒙特州怀特河交汇处的退伍军人事务医疗中心合作进行了这项研究。

更多信息:Ravi Aggarwal 等人,医学影像深度学习的诊断准确性:系统回顾和荟萃分析,npj数字医学(2021)。DOI:10.1038/s41746-021-00438-z

引文:AI 认为膝盖 X 光检查可以显示您是否喝啤酒,但事实并非如此(2024 年 12 月 11 日)检索日期:2024 年 12 月 11 日来自 https://medicalxpress.com/news/2024-12-ai-thought-knee-rays-beer.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。

关于《AI 认为膝盖 X 光检查可以显示你是否喝了啤酒,但事实并非如此》的评论


暂无评论

发表评论

摘要

《科学报告》中的一项研究表明,医学成像中使用的人工智能模型可以通过“捷径学习”产生高度准确但具有误导性的结果。研究人员发现,人工智能分析了超过 25,000 张膝盖 X 光片,并可以通过利用微妙的数据模式来高精度预测饮食习惯等不相关的特征。这凸显了严格的评估标准的必要性,以防止错误的临床见解并确保基于人工智能的医学研究的科学完整性。