作者:by The Mount Sinai Hospital
随着人工智能(AI)迅速融入医疗保健,西奈山伊坎医学院的研究人员的一项研究表明,所有生成的AI模型都可能仅基于患者的社会经济和人口统计学背景,为同一医学状况提供不同的治疗方法。
他们的发现是详细的在自然医学,强调早期检测和干预的重要性,以确保AI驱动的护理安全,有效且适合所有人。该论文的标题为“大型语言模型的医学决策中的社会人口统计学偏见:大规模的多模型分析”。
作为调查的一部分,研究人员强调了九个大型语言模型(LLMS)在1,000个急诊室案件中,每个病例都有32例不同的患者背景,产生了超过170万个AI生成的医疗建议。
尽管临床细节相同,但AI模型偶尔根据患者的社会经济和人口统计学概况改变了决策,影响了关键领域,例如分类优先,诊断测试,治疗方法和心理健康评估。
“我们的研究为AI保证提供了一个框架,帮助开发商和医疗保健机构设计公平可靠的AI工具,” Windreich山上医学学院的Windreich人工智能和人类健康部门生成型ia的联合院士作者Eyal Klang医学博士说。
“通过确定AI何时基于背景而不是医疗需求转移建议,我们会为更好的模型培训,及时设计和监督提供信息。我们严格的验证过程测试AI输出符合临床标准,并将专家反馈纳入了优化的绩效。这种积极的方法不仅可以增强对AI驱动的护理的信任,而且还有助于为所有人提供更好的政策。”
该研究最引人注目的发现之一是某些AI模型升级护理建议的趋势,特别是基于患者人口统计学而不是医学上的必要性进行心理健康评估。
此外,经常建议使用高收入患者(例如CT扫描或MRI)进行高级诊断测试,而低收入患者则更常见地建议您不接受进一步的检查。研究人员说,这些矛盾之处的规模强调了对强大监督的需求。
尽管该研究提供了关键的见解,但研究人员警告说,它仅代表了AI行为的快照。未来的研究将继续包括保证测试,以评估AI模型在现实世界中的性能临床环境以及不同的提示技术是否可以减少偏见。
该团队还旨在与其他医疗机构合作,以优化AI工具,确保他们坚持最高的道德标准并公平治疗所有患者。
“我很高兴能与西奈山合作进行这项重要研究,以确保AI驱动的医学对全球的患者有利,”该研究的医生 - 科学家和第一作者,与研究团队进行咨询的研究。
“随着AI变得更加融合到临床护理中,必须彻底评估其安全性,可靠性和公平性。通过确定这些模型可能引入偏见的位置,我们可以努力完善其设计,增强监督并建立确保患者保持安全,有效护理的核心。这是建立AI Assurance Assurance Assurance in Chearth Care Care的重要步骤。”
Windreich人工智能部主席兼Hasso Plattner数字健康研究所,Irene和Arthur M. Fishberg Medical of Medicine at Chind art SiniCah art Icahn Icahn Icahn Icahn Icahn Icah in ic ar Icahn Icah in ic ar Icahn Icah in ic ar Icahn ciniCah,
“通过协作和严格的验证,我们正在完善AI工具,以维护最高的道德标准并确保以患者为中心的护理。通过实施强大的保证协议,我们不仅提高了技术,而且还可以通过适当的测试和保障来建立信任。我们可以确保这些技术不仅可以为每个人提供一定的小组的护理。”
接下来,调查人员计划通过模拟多步临床对话并在医院环境中驾驶AI模型来扩大其工作,以衡量其现实世界的影响。他们希望他们的发现能够指导制定医疗保健中AI保证的政策和最佳实践,从而促进对这些强大的新工具的信任。
更多信息:Mahmud Omar等人,大型语言模型的医学决策中的社会人口统计学偏见,自然医学(2025)。doi:10.1038/s41591-025-03626-6
引用:医学中的AI在玩公平吗?研究人员强调生成模型,敦促保障措施(2025年4月7日)检索2025年4月7日摘自https://medicalxpress.com/news/2025-04-ai-medicine-playing-fair-stress.html
该文档具有版权。除了为私人研究或研究目的的任何公平交易外,没有未经书面许可,可以复制部分。内容仅用于信息目的。