2025年6月2日
。 国际医学科学组织委员会工作组XIV(CIOMS)草案报告 提供全面的原则和最佳实践,翻译全球人工智能(AI)要求 - 例如《欧盟人工智能法》(EU AI ACT)中的那些要求,为药物宣传的实用指南(PV)。在美国不存在总体AI立法的美国,该报告可以指导立法者,监管机构和其他利益相关者在PV中使用AI的方法。目前为报告草案的咨询期开放,并鼓励感兴趣的各方通过在2025年6月6日之前对报告草案发表评论来利用这一机会。
欧盟AI法案于2024年通过,是AI的第一个综合法律框架,使用基于风险的方法将AI系统分为四类。高风险系统,包括医疗保健和PV的系统,面临着严格的风险管理,透明度,人类监督和数据保护的要求。PV中的AI系统是否取决于其特定用途,可能需要逐案评估。在药用产品生命周期内,欧洲药品局(EMA)区分了构成高患者风险的系统,即直接受到患者安全的影响,以及具有高监管影响的系统,AI系统会显着影响监管决策。
该报告草案将《欧盟AI法案的高级要求》转化为针对PV现实量身定制的可行指导,并补充了EMA正在进行的监管工作,该工作强调了在PV中负责任地利用AI的重要性。特别是,EMA 2024关于在药用产品生命周期中使用AI的反思论文呼应了CIOM的建议,呼吁进行监管影响和风险评估,模型绩效的记录以及与良好的药物保护实践要求的一致性。EMA的监管科学策略及其特定于AI的工作组强调了创新和患者安全之间的协调需求,该目标报告草案为PV利益相关者提供了运作。该报告草案可帮助组织实施法律符合法律规定,科学强大且在道德上声音的AI系统,同时支持整个地区的协调并为未来的监管和技术变化做准备。
While the U.S. has not yet implemented comprehensive legislation, the U.S. Food and Drug Administration (FDA) January 2025 guidance, âConsiderations for the Use of Artificial Intelligence to Support Regulatory Decision-Making for Drug and Biological Productsâ (FDA Guidance), details the risk-based considerations and methodologies the FDA is considering in its approach to AI development and deployment, aligns with the Draft Reportâs themes, and provides helpful context for how life sciences公司应评估PV领域中的AI实施。新的美国总统管理局还致力于进行AI发展,整合是优先事项。报告草案的用例和提出的挑战是对在光伏空间中创新的利益相关者的有用指南,同时等待监管机构的进一步指导。
在许多方面,报告草案是《欧盟AI法》的高级监管要求与不断发展的美国监管地位之间的实际桥梁,并探讨了在PV中实施AI的实际现实。因此,报告草案重点介绍了生命科学公司在PV活动中实施AI时应采取的几个关键步骤:
将监管原理转化为PV实践 。虽然《欧盟AI法案》规定了高危AI系统的广泛义务,而FDA指南提出了一个基于风险的框架,以根据AI系统与失败模式的结果相称的特定作用来量身定制风险管理,但该报告草案在独特的工作流,数据分类,数据分类,PV的风险分类中的这些风险管理方面对这些风险管理方面的考虑。公司应将报告草案中提出的用例视为根据这些监管原则来解释风险的指南。例如,报告草案提供了有关如何进行PV用例(例如个体案例安全报告处理和信号检测)的详细指导。它强调了对基于风险的人类监督的需求,该监督是针对AI错误对患者安全和监管决策的潜在影响而量身定制的,直接反映了欧盟AI的专注于使用的比例和背景,并帮助FDA指南中讨论的风险评估考虑因素。
操作人类的监督 。欧盟AI法案要求高危AI系统受到适当的人类监督。报告草案通过定义循环中的人类,循环中的人类和指挥部人类的实用模型来扩展这一点,并将其映射到特定的PV任务中。它提供了一个具体的例子,说明了公司如何随着时间的推移实施,监控和调整监督模型,确保人类代理和问责制符合法规和道德期望,并提供了解释和合并这些模型的用例示例。这些用例具有帮助利益相关者思考如何评估人类在FDA指导中详细介绍的派生风险分析的监督,这强调了评估给定的AI或系统的可靠性和信誉的重要性,而且还评估了负责监督责任的人类元素。
确保有效性,鲁棒性和连续监控 。该草案详细介绍了如何建立参考标准,使用现实世界中的PV数据验证AI模型既有定性和定量数据,又设置了连续的性能监控以检测模型漂移或新兴风险。它还解决了PV中数据质量和代表性的挑战,提供了减轻偏见的策略,并确保AI系统随着临床实践和数据源的发展而保持可靠。
建立透明度和解释性 。透明度是《欧盟AI法案》的基石,该法案规定了高风险AI系统的清晰文档,可追溯性和解释性。尽管FDA指南提到了保持系统透明以帮助监管评估的重要性(强调模型开发可见性对监管决策的重要性),但对于公共透明性的关注而言,这在很大程度上是无声的。该报告草案为实现透明度目标提供了PV特异性的路线图:它概述了应向利益相关者(例如,模型架构,预期输入和输出,人类交互)披露哪些信息,如何记录绩效评估以及如何实施可解释的AI AI技术来支持监管AI技术,以支持监管审计审核,用户信任,用户信任和错误调查。该报告草案还强调了传达数据出处以及AI在生成或处理安全信息中的作用的重要性。在整个开发周期中,公司应确定需要披露哪些信息,对其进行分类,并确保可以对适用的法律结构下的相关利益相关者进行充分描述和解释给定的AI系统。
解决数据隐私和跨境合规性问题 。报告草案加强了对PV中严格数据隐私控制的需求,从而加强了诸如欧盟一般数据保护法规之类的数据保护框架。它讨论了生成AI和大型语言模型所带来的风险,包括潜在的重新识别和以前匿名数据的联系,并为消除识别,数据最小化和安全数据处理提供了实用的建议,使生命科学公司应寻求实施生命科学。
促进非歧视 。欧盟AI法案要求AI系统避免歧视性结果。FDA指导强调了数据集和模型培训中识别和计算偏见的重要性。报告草案通过建议选择和评估培训和测试数据集以确保代表性以及实施缓解偏见的策略来实现这些目标。它将非歧视性的非歧视框架为PV中的监管和道德要求。
建立治理和责任结构 。报告草案建议建立跨职能的治理机构,整个AI生命周期的角色和职责的分配,并定期审查与指导原则的遵守情况。它提供了诸如治理框架网格之类的工具,以帮助组织记录行动,管理变更并确保可追溯性促进内部监督和外部监管检查。
评论报告草案 。通过监管机构,学者和行业代表之间的共识发展,该报告有望在全球范围内塑造监管期望。当前的咨询期为生命科学公司提供了为PV中AI的未来标准做出贡献的关键机会,他们应通过对报告草案的评论来审查报告草案并利用这一机会(这里 )到2025年6月6日。鉴于最终报告可能为美国立法者和监管机构提供路线图,以便他们在PV空间中开发自己的AI及其应用程序,因此他们可以利用美国立法者和监管机构的路线图。积极参与公众咨询(例如报告草案)有助于为发展最佳实践的发展做出贡献,并确保在塑造未来的指导方面考虑所有观点。
该帖子截至上述发布日期。Sidley Austin LLP不承担更新此帖子或有关随后对此帖子的任何发展的帖子的责任。