作者:Natasha Lomas
欧盟基于风险的人工智能规则手册(又名欧盟人工智能法案– 已经酝酿多年。但随着关键合规截止日期的到来,预计在未来几个月(甚至几年)会听到更多有关该法规的信息。同时,请继续阅读该法律及其目标的概述。
那么欧盟想要实现什么目标呢?将时钟拨回到2021 年 4 月,当时委员会发布了最初的提案,立法者将其制定为法律,以通过培养公民之间的信任来增强欧盟在人工智能领域的创新能力。欧盟表示,该框架将确保人工智能技术保持“以人为中心”,同时也为企业提供明确的规则来发挥机器学习的魔力。
整个行业和社会越来越多地采用自动化无疑有可能提高各个领域的生产力。但如果产出不佳和/或人工智能与个人权利相交叉且不尊重个人权利,它也会带来快速扩大损害的风险。
因此,欧盟《人工智能法案》的目标是通过设定旨在降低出现严重错误的风险的条件来推动人工智能的应用并发展本地人工智能生态系统。立法者认为,设置护栏将增强公民对人工智能的信任和接受。
在本世纪初,当法律正在讨论和起草时,这种通过信任培育生态系统的想法相当没有争议。不过,一些人提出了反对意见,认为监管人工智能还为时过早,欧洲的创新和竞争力可能会受到影响。
当然,很少有人会说现在还为时过早,因为由于生成型人工智能工具的蓬勃发展,这项技术已迅速进入主流意识。但仍有人反对,尽管该法律包含了监管沙箱等支持措施,但它却限制了本土人工智能企业家的前景。
即便如此,许多立法者的大辩论现在仍然存在如何监管人工智能,欧盟已通过《人工智能法案》确定了其方向。接下来的几年都是关于欧盟执行该计划的。
人工智能的大部分用途是不是根本不受《人工智能法案》的监管,因为它们不属于基于风险的规则的范围。(还值得注意的是,人工智能的军事用途完全超出了范围,因为国家安全是成员国的法律权限,而不是欧盟级别的法律权限。)
对于人工智能的范围内使用,该法案基于风险的方法建立了一个层次结构,其中有一些潜在的用例(例如,“有害的潜意识、操纵和欺骗性技术”或“不可接受的社会评分”))被认为具有“不可接受的风险”,因此被禁止。然而,禁止用途清单中充满了例外情况,这意味着即使法律中的少量禁令也带有大量警告。
例如,禁止执法部门在公共场所使用实时远程生物识别技术并不是一些议员和许多民间社会团体所推动的全面禁令,但允许其用于某些犯罪的例外情况。
不可接受的风险/禁止使用的下一层是“高风险”用例,例如用于关键基础设施的人工智能应用程序;执法;教育和职业培训;卫生保健;以及更多 - 应用程序制造商必须在市场部署之前并持续进行合格评估(例如当他们对模型进行实质性更新时)。
这意味着开发人员必须能够证明他们在数据质量、文档和可追溯性、透明度、人工监督、准确性、网络安全和稳健性等方面满足法律要求。他们必须建立质量和风险管理体系,以便在执法机构上门进行审计时能够证明其合规性。
公共机构部署的高风险系统也必须在欧盟公共数据库中注册。
还有第三个“中等风险”类别,它将透明度义务应用于人工智能系统,例如聊天机器人或可用于生成合成媒体的其他工具。这里担心的是它们可能被用来操纵人类,因此这种类型的技术要求用户知道他们正在与人工智能交互或查看人工智能生成的内容。
人工智能的所有其他用途都会自动被视为低/最小风险,并且不受监管。这意味着,例如,使用人工智能来分类和推荐社交媒体内容或定向广告之类的东西在这些规则下不承担任何义务。但该集团鼓励所有人工智能开发人员自愿遵循最佳实践以增强用户信任。
这套基于风险的分层规则构成了《人工智能法案》的大部分内容。但对于支持生成式人工智能技术的多方面模型也有一些专门的要求——《人工智能法案》将其称为“通用人工智能”模型(或 GPAI)。
人工智能技术的这个子集,业界有时称之为“基础模型”,通常位于许多实现人工智能的应用程序的上游。开发人员正在利用 GPAI 中的 API 将这些模型的功能部署到他们自己的软件中,通常会针对特定用例进行微调以增加价值。所有这些都表明,GPAI 已迅速在市场上获得了强大的地位,并有可能大规模影响人工智能的结果。
GenAI 的兴起不仅重塑了围绕欧盟人工智能法案的讨论,还重塑了人们对人工智能法案的看法。由于欧盟漫长的立法程序与围绕 ChatGPT 等 GenAI 工具的炒作同时发生,它导致了规则手册本身的变化。欧洲议会议员抓住机会做出回应。
欧洲议会议员建议增加GPAI 的附加规则– 即 GenAI 工具背后的模型。这些反过来又加剧了科技行业对欧盟在法律方面所做的事情的关注,导致一些激烈的游说活动要求排除 GPAI。
法国人工智能公司 Mistral是最响亮的声音之一,他认为对模型制造商的规则将阻碍欧洲与美国和中国人工智能巨头竞争的能力。OpenAI 的 Sam Altman 也在对记者的旁白中表示,它如果法律证明过于繁琐,可能会将其技术撤出欧洲在欧盟斥责他这一笨拙的威胁后,他又匆忙回到传统的地区权力掮客的压榨(游说)方式。
奥特曼参加欧洲外交速成班是《人工智能法案》最明显的副作用之一。
所有这些噪音的结果是立法程序的结束是一场令人紧张的旅程。花了几个月的时间马拉松式的最后谈判会议欧洲议会、理事会和委员会之间将文件推过线去年。政治协议于 2023 年 12 月达成,为2024 年 5 月通过最终文本。
欧盟宣称《人工智能法案》是“全球第一”。但在这个尖端技术背景下成为第一意味着仍有很多细节需要解决,例如制定具体标准该法律将适用该法律,并制定详细的合规指南(实践守则),以便该法案设想的监督和生态系统建设制度发挥作用。
因此,就评估其成功而言,该法律仍然是一项正在进行的工作,而且将持续很长一段时间。
对于 GPAI,《人工智能法案》延续了基于风险的方法,只是对大多数模型提出了较宽松的要求。
对于商业 GPAI,这意味着透明度规则(包括技术文档要求和有关用于训练模型的受版权保护材料的使用的披露)。这些规定旨在帮助下游开发者遵守自己的《人工智能法案》。
还有第二层——针对最强大(且有潜在风险)的 GPAI——该法案要求对具有“系统性风险”的 GPAI 进行主动风险评估和风险缓解,从而规定了模型制作者的义务。Ø
例如,欧盟担心非常强大的人工智能模型可能会给人类生命带来风险,甚至可能导致技术制造商失去对自我改进人工智能持续开发的控制。
立法者选择依靠模型训练的计算阈值作为该系统风险层的分类器。根据在浮点运算 (FLOP) 中测量的训练所使用的累积计算量大于 10,GPAI 将落入此范围25。
到目前为止,还没有任何模型被认为在范围内,但当然,随着 GenAI 的不断发展,这种情况可能会发生变化。
参与监督《人工智能法案》的人工智能安全专家也有一些余地,可以表达对其他地方可能出现的系统性风险的担忧。(有关欧盟为《人工智能法案》设计的治理结构的更多信息,包括人工智能办公室的各种角色,请参阅我们的先前的报告.)
Mistral 等人的游说确实导致了 GPAI 规则的淡化,例如对开源提供商的要求更宽松(幸运的 Mistral!)。研发也被排除在外,这意味着尚未商业化的 GPAI 完全不属于该法案的范围,甚至不适用透明度要求。
《人工智能法案》于 2019 年在欧盟正式生效。2024 年 8 月 1 日。该日期基本上打响了发令枪,因为从明年初到 2027 年中左右,遵守不同组成部分的最后期限将在不同的时间间隔内到来。
一些主要的合规截止日期是生效后六个月,届时有关禁止使用案例的规则将开始生效;实践守则开始适用后九个月;透明度和治理要求需要 12 个月;其他人工智能要求为 24 个月,包括某些高风险系统的义务;其他高风险系统为 36 个月。
采取这种错综复杂的法律规定的部分原因是为了给公司足够的时间来使其运营井然有序。但更重要的是,监管机构显然需要时间来弄清楚在这一前沿背景下合规性是什么样的。
在撰写本文时,欧盟正忙于在截止日期之前制定法律各个方面的指导,例如GPAI 制定者的行为准则。欧盟也是咨询关于法律对“人工智能系统”的定义(即哪些软件将在范围内或不在范围内)以及与禁止使用人工智能相关的澄清。
《人工智能法案》对范围内公司意味着什么的整体情况仍在不断完善和充实中。但关键细节预计将在未来几个月和明年上半年确定。
还有一件事需要考虑:由于人工智能领域的发展速度,随着这些技术(及其相关风险)的不断发展,遵守法律的要求可能会继续发生变化,也。因此,这本规则手册很可能需要保留为一份动态文件。
GPAI 的监督集中在欧盟层面,其中 AI 办公室发挥着关键作用。委员会为执行这些规则而可能采取的处罚措施最高可达模型制造商全球营业额的 3%。
在其他地方,该法案针对人工智能系统的规则的执行是分散的,这意味着它将由成员国级当局(复数,因为可能指定多个监督机构)来评估和调查大部分合规问题人工智能应用程序。这种结构的可行性如何还有待观察。
从表面上看,违反禁止用途的处罚最高可达全球营业额的 7%(或 3500 万欧元,以较高者为准)。违反其他 AI 义务可能会被处以最高全球营业额 3% 的罚款,如果向监管机构提供不正确信息,最高可处以 1.5% 的罚款。因此,执法机构可以采取的制裁力度是有一定范围的。