一些人工智能模型正在努力学习旧的原则,“相关性并不等于因果关系。”虽然这不是放弃人工智能工具的理由,但最近的一项研究应该提醒程序员,即使是可靠的技术版本也仍然容易出现这种情况奇怪的是,比如声称膝盖 X 光检查可以证明某人喝了啤酒或吃了炸豆泥。
人工智能模型的作用远不止生成(偶尔准确) 文本回复和 (有些)逼真的视频。真正制作精良的工具已经在帮助医学研究人员解析大量数据集,发现新突破,准确预测天气模式, 和评估环境保护工作。但根据该杂志发表的一项研究科学报告,算法“捷径学习”仍然存在生成高度准确但信息错误的结果的问题。
达特茅斯健康中心的研究人员最近利用美国国立卫生研究院骨关节炎计划提供的 25,000 多张膝盖 X 射线照片来训练医疗 AI 模型。然后,他们本质上是逆向工作,让深度学习程序找到预测无意义特征的共性,例如膝盖拥有者明显喝啤酒或吃炸豆泥——正如研究作者所解释的那样,这显然是荒谬的。
“这些模型并没有揭示隐藏在我们膝盖内的豆子或啤酒的隐藏真相,”他们写道。
然而,与此同时,该团队解释说,这些预测并不是“纯粹偶然”的结果。根本问题是所谓的算法捷径,其中深度学习模型可以轻松地通过算法找到联系可检测但仍然不相关或具有误导性的模式。
他们警告说,“走捷径使得创建具有令人惊讶的准确预测但缺乏表面有效性的模型变得微不足道。”
例如,算法识别的变量包括不相关的因素,例如 X 射线机型号或设备地理位置的差异。
“这些模型可以看到人类看不到的模式,但并非它们识别出的所有模式都是有意义或可靠的,”骨科医生、达特茅斯健康中心骨科助理教授、研究资深作者 Peter Schilling 在一篇文章中补充道。12月9日声明。“认识到这些风险对于防止误导性结论并确保科学完整性至关重要。”
获取科普通讯
每个工作日都会发送突破、发现和 DIY 技巧。
另一个持续存在的问题是,人工智能捷径学习似乎没有一个简单的解决方案。根据周一的声明,解决这些偏见的尝试仅“勉强成功”。
“这超越了种族或性别线索的偏见,”机器学习科学家兼研究合著者布兰登·希尔 (Brandon Hill) 说。– 我们发现该算法甚至可以学习预测拍摄 X 射线的年份。这是有害的;当您阻止它学习其中一个元素时,它会学习之前忽略的另一个元素。 –
希尔表示,这些问题可能会导致人类专家相信人工智能模型提出的“一些非常狡猾的说法”。对于席林、希尔和他们的同事来说,这意味着虽然预测深度学习程序有其用途,但在医学研究等情况下使用它们时,举证责任需要更加严格。希尔将与人工智能的合作比作与外星生命体打交道,同时试图将其拟人化。
“我们很容易陷入假设模型“看东西”的方式与我们相同的陷阱,”他说。——最终没有——。它学会了一种解决分配给它的任务的方法,但不一定是人类会如何解决的。它没有我们通常理解的逻辑或推理。”
通过 PopSci 的礼品指南赢得假期
为任何人购物?PopSci 团队的节日礼物推荐意味着您永远不需要在最后一刻购买另一张礼品卡。