生命科学行业的顾问预计,美国食品和药物管理局将在年底前发布有关在临床试验和药物开发中使用人工智能的新指南。
这项技术在加速开发和提高药物疗效方面具有巨大潜力,同时也引发了令人头疼的法律问题,其发展速度如此之快,以至于 FDA 也难以掌控它。
去年,FDA单独发布了医疗器械指南草案这将允许制造商在最初提交产品的上市前基本上预先指定设备的未来功能,而无需稍后重新提交以获得批准。
人工智能和机器学习可以从电子健康记录和其他来源中提取数据,并做出有用的推论,从药物如何影响某些患者到优化剂量。
它可以预测某些人群的不良反应,改善临床试验招募,筛选化合物并改善上市后安全监测,以及许多其他潜在的变革性用途。
FDA 药物评估与研究中心医疗政策办公室主任 Khair ElZarrad 在最近的一次会议上表示,人工智能对临床医生来说非常有用,自 2016 年以来,大约有 300 份向 FDA 提交的药物以某种形式提到了人工智能的使用。FDA 播客。
为医疗产品公司提供咨询的里德·史密斯法律顾问莎拉·汤普森·希克 (Sarah Thompson Schick) 表示,预期的指导意见可能会解决患者安全以及人工智能算法流入和流出的数据的质量和可靠性等问题。
另一个考虑因素是:“人工智能是否适合你正在做的事情,”希克补充道,他也在最近的这篇文章中讨论了这些问题。视频。
“我们如何确保在关键研发活动中使用的人工智能模型的持续改进和培训过程中解决这些问题。以及我们如何减轻围绕这些问题的潜在风险?”
Schick 表示,FDA 和业界都在继续思考人工智能应如何或在多大程度上用于研发,特别是随着技术的进步。
上个月,FDA 发布了“特殊通讯《美国医学会杂志》概述了该机构对人工智能在临床研究、医疗产品开发和临床护理中的使用的担忧。
其中:FDA 官员认为需要专门的工具,以便能够“在使用大型语言模型的上下文和环境中”对大型语言模型进行更彻底的评估。
《JAMA》上的这篇文章还指出了人工智能模型发展的潜力——需要持续的人工智能性能监控。
“该机构表示担心,对人工智能整个生命周期进行定期的本地评估对于产品随着时间的推移的安全性和有效性是必要的,而且这样做所需的工作规模可能超出任何当前的监管计划或机构的能力。发展和临床社区,”霍金路伟合伙人罗伯特·丘奇和他的同事在一篇文章中写道客户备注上个月。
FDA 还对不公平的竞争环境表示担忧,大型科技公司拥有初创公司和学术机构无法匹敌的资本和计算资源。该机构指出,后者可能需要帮助以确保人工智能模型安全有效。
该机构强调了确保人类临床医生继续参与了解产出如何产生并倡导高质量的益处证据的重要性。
FDA 数字健康卓越中心主任 Troy Tazbaz 最近在一份报告中表示博客文章“人工智能开发生命周期以及风险管理框架”的标准和最佳实践可以帮助减轻风险。
这包括“确保数据适用性、收集和质量符合正在训练的人工智能模型的意图和风险状况的方法”。
ElZarrad 列出了一些挑战,其中一些挑战可能会反映在预期的指导中。
一是用于训练人工智能模型的数据集的质量、大小和“代表性”的可变性。“负责任地使用人工智能确实要求用于开发这些模型的数据适合目的和用途。这是我们试图强调和澄清的概念。”
他指出,通常很难理解人工智能模型是如何开发并得出结论的。“这可能需要或要求我们开始考虑围绕透明度的新方法。”
人工智能潜在的数据隐私问题比比皆是,其中许多涉及患者数据。人工智能开发人员必须确保他们遵守《健康保险流通和责任法案》(即 HIPAA)以及其他一系列联邦和州法律。希克指出,一般来说,所使用的患者数据都是经过汇总和去识别化的。
虽然生命科学领域的领导者欢迎更多的指导,但他们不会坐视不理,直到获得指导。“我认为公司不一定会等待 FDA,”希克补充道。