作者:New Hampshire Public Radio | By Todd Bookman
发布时间:美国东部时间 2024 年 12 月 23 日上午 10:30
达特茅斯健康中心研究人员的一项新研究强调了人工智能在医学成像研究中的潜在风险,表明算法可以被教导给出正确的答案,但出于不合逻辑的原因。
该研究发表于《自然》科学报告,使用了 5,000 张人类膝关节的 X 射线缓存,并且还考虑了这些患者完成的有关饮食习惯的调查。
然后,人工智能软件被要求根据 X 射线扫描来识别哪些患者最有可能喝啤酒或吃炸豆泥,尽管 X 射线扫描中没有任何视觉证据表明这两种活动。一个膝盖。
“我们想假设它能看到人类能看到的东西,或者如果我们有更好的视力,人类就能看到,”该论文的合著者、机器学习研究员布兰登·希尔 (Brandon Hill) 说。在达特茅斯希区柯克。——这就是这里的核心问题:当它产生这些关联时,我们假设它一定来自生理学、医学图像中的某些东西。但事实并非一定如此。 –
虽然机器学习工具实际上经常准确地确定哪个膝盖(即接受 X 光检查的人)更有可能喝啤酒或吃豆子,但它也是通过对种族做出假设来实现这一点的、性别以及拍摄医学图像的城市。该算法甚至能够确定拍摄原始图像的 X 射线扫描机型号,从而能够将扫描位置与某些饮食习惯的可能性联系起来。
最终,人工智能使用这些变量来确定谁喝啤酒和吃炸豆泥,而不是图像本身中与食物或饮料消费相关的任何内容,研究人员将这种现象称为“捷径”。
– 我们展示的部分内容是,它是一把双刃剑。它可以看到人类看不到的东西,”希尔说。“但它也可以看到人类看不到的模式,这很容易欺骗你。”
该研究的作者表示,该论文强调了医学研究人员在部署机器学习工具时应谨慎行事。
– 如果你有人工智能来检测你是否认为信用卡交易是欺诈性的,谁在乎它为什么会这样认为呢?让我们停止使用信用卡收费吧,”该论文的资深作者、整形外科医生 Peter Schilling 博士说道。
但在治疗患者时,席林建议临床医生保守地使用这些工具,以便“真正优化他们所接受的护理”。