EMA 采用关于药物开发中 AI/ML 的反思文件 - 监管焦点

2024-09-30 20:18:18 英文原文

EMA 采用关于药物开发中的 AI/ML 的反思论文

监管新闻|2024 年 9 月 30 日 |

欧洲药品管理局 (EMA) 在考虑了数十名利益相关者的反馈后,通过了一份关于在药物开发中使用人工智能 (AI) 的反思文件 (RP),这些利益相关者在咨询期间要求澄清并提供有关该文件范围的更多信息。该机构表示,更新后的文件还包括根据最近的欧盟人工智能法案进行的更改。

9月30日,EMA宣布其人用药品委员会(CHMP)方法学工作组起草小组已审查了包括监管机构和公共财团在内的66个利益相关者对其人工智能反思文件的反馈。根据收到的 1,342 条评论,该机构决定更新该文件的关键部分。(相关:EMA 在 2023 年 7 月 20 日监管焦点新反思论文中详细介绍了 AI/ML 药物开发的生命周期方法)

“一般而言,一些评论提出了一些话题或要求提供一定程度的规范性细节,而这些关于人工智能使用的初步反思无法容纳,”EMA 表示。“这些意见将在未来人工智能领域正式 EMA 科学指南的起草过程中得到考虑。”

“根据评论,技术术语和定义已尽可能统一,并得到扩展术语表的支持,”该机构补充道。“此外,反思论文的范围得到了进一步明确,不排除浅层机器学习技术,它可能具有 RP 中解决的许多功能和挑战。”

浅层机器学习 (ML) 通常称为传统 ML,它在神经网络中使用的抽象级别比深度 ML 更少。浅层学习模型用于更简单的任务,而深度机器学习则用于识别捕获数据中更复杂的关系。

本文使用经济合作与发展组织(OECD)制定的人工智能定义,其中指出“人工智能系统是一种基于机器的系统,旨在以不同程度的自主性运行,并且可以部署后表现出适应性,并且对于显式或隐式目标,从接收到的输入推断如何生成可以影响物理或虚拟环境的输出,例如预测、内容、建议或决策。/ML 用于涵盖通过 ML 过程开发的所有模型,无论具体的模型架构如何。”

EMA还指出,在《人工智能法》附件3包含如何定义高风险人工智能的具体语言后,它重新措辞了人工智能产品的风险定义。更具体地说,该机构已将“高风险”一词替换为“高监管影响”和“高患者风险”,以澄清与反思文件相关的大多数人工智能监管要求均基于欧盟立法。

例如,在开发人工智能模型的部分中,该论文现在指出,如果在具有高监管影响或高患者风险的医药产品生命周期中使用第三方人工智能模型或服务,则软件开发人员应使用提供特定使用环境的方法资格流程。

“针对评论,我们进一步澄清了建模中使用的数据的可用性要求、第三方人工智能系统的使用以及机器学习模型前瞻性测试的需要,”EMA 表示。“RP 中的关键信息仍然是,虽然承认人工智能技术有潜力改善医药产品生命周期的许多方面(如果不是所有方面),但监管机构、付款人和患者的可信度绝不能因新技术的引入而受到损害。“

更新反思论文

9 月 30 日,EMA 宣布其人用药品委员会 (CHMP) 方法学工作组起草小组已审查了 66 个利益相关者(包括监管机构和公共财团)对其 AI 反思文件的反馈。根据收到的 1,342 条评论,该机构决定更新该文件的关键部分。(相关:EMA 在新的反思论文《监管焦点》2023 年 7 月 20 日详细介绍了 AI/ML 药物开发的生命周期方法)

“一般而言,一些评论提出了一些话题或要求提供一定程度的规范性细节,而这些细节无法在这些关于人工智能使用的初步反思中得到满足,”EMA 表示。“这些意见将在未来人工智能领域正式 EMA 科学指南的起草过程中得到考虑。”

“根据评论,技术术语和定义已尽可能统一,并得到扩展术语表的支持,”该机构补充道。“此外,反思论文的范围得到了进一步明确,不排除浅层机器学习技术,它可能具有 RP 中解决的许多功能和挑战。”

浅层机器学习 (ML) 通常称为传统 ML,它在神经网络中使用的抽象级别比深度 ML 更少。浅层学习模型用于更简单的任务,而深度机器学习则用于识别捕获数据中更复杂的关系。

该论文使用了经济合作与发展组织 (OECD) 制定的人工智能定义,其中指出“人工智能系统是一种基于机器的系统,旨在以不同程度的自主性运行,并且可能表现出部署后的适应性,对于显式或隐式目标,从接收到的输入推断如何生成可以影响物理或虚拟环境的输出,例如预测、内容、建议或决策。ML 用于涵盖通过 ML 过程开发的所有模型,无论具体的模型架构如何。”

EMA 还指出,在《人工智能法案》附件 3 包含如何定义高风险人工智能的具体语言后,它重新定义了人工智能产品风险的定义。更具体地说,该机构已将“高风险”一词替换为“高监管影响”和“高患者风险”,以澄清与反思文件相关的大多数人工智能监管要求均基于欧盟立法。

例如,在开发人工智能模型的部分中,该论文现在指出,如果在具有高监管影响或高患者风险的医药产品生命周期中使用第三方人工智能模型或服务,则软件开发人员应使用提供具体使用环境的方法验证流程。

“为了回应评论,我们对建模中使用的数据的可用性要求、第三方人工智能系统的使用以及机器学习模型的前瞻性测试的需求进行了进一步的澄清,”EMA 表示。“RP 中的关键信息仍然是,虽然承认人工智能技术有潜力改善医药产品生命周期的许多方面(如果不是所有方面),但监管机构、付款人和患者的可信度绝不能因新技术的引入而受到损害。”

更新反思论文

2024 年监管事务专业人员协会。

关于《EMA 采用关于药物开发中 AI/ML 的反思文件 - 监管焦点》
暂无评论

摘要

EMA 采用关于药物开发中 AI/ML 的反思论文监管新闻|2024 年 9 月 30 日 |欧洲药品管理局 (EMA) 在考虑了数十名利益相关者的反馈后,通过了一份关于在药物开发中使用人工智能 (AI) 的反思文件 (RP),这些利益相关者在咨询期间要求澄清并提供有关该文件范围的更多信息。相关:EMA 在新的反思论文《监管焦点》中详细介绍了 AI/ML 药物开发的生命周期方法,2023 年 7 月 20 日)EMA 表示:“总体而言,一些评论提出了一些话题或要求提供一定程度的规范性细节,而这些细节无法在这些关于人工智能使用的初步反思中得到满足。”“浅层机器学习 (ML),通常称为传统 ML,在神经网络中使用比深度 ML 更少的抽象级别。“为了回应评论,我们进一步澄清了关于建模中使用的数据的可用性、使用第三种方法的要求。EMA 表示,“各方人工智能系统,以及对机器学习模型进行前瞻性测试的需求。RP 中的关键信息仍然是,尽管承认人工智能技术有潜力改善医药产品生命周期的许多方面(如果不是全部),监管机构、付款人和患者的可信度绝不能因新技术的引入而受到损害。”