作者:AI Office
Axel Voss(EPP,德国)写道,欧洲人工智能办公室明年需要增加到 200 多名工作人员来实施人工智能规则,否则该委员会缺乏雄心会让公民和企业面临风险。
Axel Voss(欧洲人民党,德国)自 2009 年起担任欧洲议会议员。他是上个任期《人工智能法案》的影子报告员和《人工智能责任指令》的报告员。他目前是欧洲议会法律事务委员会(JURI)的成员以及内部市场和消费者保护委员会(ITRE)的候补成员。
半年后,欧盟共同规则开始适用于最先进的人工智能模型,这对于支持下游产业和保护公民免受系统性风险至关重要。
然而,欧盟委员会人工智能办公室执行这项任务的人手严重不足,到目前为止只有大约 85 名工作人员,其中只有大约 30 名团队成员专门负责实施《人工智能法案》。
相比之下,英国的人工智能安全研究所似乎已拥有超过 150 名员工,只专注于保护先进的人工智能。一个国家的人工智能监管能力已经是欧盟的五倍,甚至没有一部法律可以实施。
当其他国家将引导世界向更强大的人工智能过渡作为领导优先事项时,委员会未能兑现其对成员国和欧洲议会的承诺。
让我们回到2023年12月,当时机构间谈判已经结束。欧盟决定对具有潜在巨大利益和危害的颠覆性技术的早期迹象做出迅速反应,引入通用人工智能模型规则,该模型是 ChatGPT & Co. 的基础技术。
议员与 27 个成员国之间达成的政治协议的一个关键要素是赋予委员会必要的执行权,将整个欧盟的人工智能专业知识集中到一个强大的人工智能办公室。虽然它已经成立,但似乎还无法胜任这项任务。
欧洲新技术专员 Henna Virkkunen 认识到,人工智能领域未来五年将充满挑战,因为该技术发展非常快,并指出欧洲过于依赖第三国。
事实上,在数十亿美元的投资和少数几家之间的战略伙伴关系的推动下,欧盟以外最富有的公司陷入了一场竞争。它们突破了通用人工智能的界限,在大多数认知工作中达到或超过人类的能力。
早期的进步给数以百万计的最终用户留下了深刻的印象,他们使用外国通用人工智能模型,欧洲企业正在跨行业整合这些模型。
欧洲承担了这些动态的成本。各种通用人工智能模型都不够安全。缺乏透明度给试图负责任地建立黑盒模型的下游欧盟公司带来了负担。缺乏护栏会给整个欧盟带来系统性风险。
一些最著名的专家不断警告可能造成的严重伤害,包括降低生物武器开发的门槛、失去对自主人工智能的控制、关键部门的重大事故,或者大规模的有害歧视和虚假信息。
人们可能会认为,委员会意识到欧洲通过前所未有的人工智能进步需要巨大的能力。但现实是缺乏野心。
虽然人工智能办公室通过在第一个通用人工智能实践守则中详细制定规则而为安全人工智能创新制定了全球标准,但只有一个小团队致力于这一过程。
其他可交付成果的延误也在不断累积。利益相关者等待了几个月的模板,概述了如何公开报告人工智能培训内容。与构成不可接受风险的特定人工智能用例相关,委员会在这些规则适用前三个月启动了公众咨询。
承诺在 2023 年 12 月增加 80 名员工,以实施《人工智能法案》。虽然还不够,但这将是一个开始。
然而,人工智能办公室的人员数量似乎分散在整个人工智能办公室,不仅涵盖《人工智能法案》,还涵盖国际协调、人工智能造福社会等等——这些重要任务值得他们投入专门的资源。
就在上周,继三月份的技术专家招聘之后,人工智能办公室发布了首次招聘法律和政策人才。目前尚不清楚将填补多少职位。
最高层的委员会领导层应该认真保护欧盟公民免受严重伤害,并打造一个我们可以信任人工智能所提供服务的单一市场。人工智能办公室不仅应配备法律执行权,还应配备有效实施规则所需的所有资源。
Henna Virkkunen 专员承诺,到明年年底,数字服务法执行团队的员工人数将达到 200 人。
委员会应该对备受赞誉的人工智能里程碑式规则表现出同样的雄心。到明年年底,人工智能办公室A2、A3单元将拥有200多名员工。
管理最先进的模型需要最大的能力。毕竟,需要涵盖所有系统性风险、市场发展和法律方面的专业知识,同时与技术同步发展。