作者:Sara Goudarzi
巴黎峰会上的利益相关者将需要解析不同的参与者如何理解治理的概念。图片:Sophie Animes -Stock.adobe.com
下周初,巴黎将举办法国人人工智能行动峰会,另一个全球召集的重点是利用AI的力量在有益的未来中。会议的关键主题之一是设计结构,以永远利用AI,并与主要目的与所有相关参与者澄清和设计共同有效的治理框架。
尽管峰会的意图令人钦佩,但由于在同一AI页面上获得不同优先事项的国家的挑战,该目标已经进行了无数次的尝试,但成功的次数有限。它还与2025年人工智能的更广泛关注联系在一起,即(甚至是)政府和创建AI的政府和公司是否会以负责任的方式接触并控制强大的新AI系统。仅在过去的几周里,中国的DeepSeek R1特朗普总统宣布,据说较低的成本上涨的模型,以低得多的成本达到了市场,Openai-Softbank-Oracle Stargate倡议是一项耗资5000亿美元的计划,旨在在美国建立数据和计算基础设施而且,他的政府迅速撤销了拜登政府的行政命令,重点是AI安全和测试标准。
新车型正在到达现场,并希望推动AI进步前进,全力以赴。如果那样,安全性就在很大程度上得到了唇部服务。
巴黎峰会上的利益相关者肯定会有一个完整的议程。他们将需要解析不同的参与者如何理解治理的概念。他们将借鉴欧盟,美国及以后的见解,了解监管,基于安全和自愿治理承诺的机会和局限性,以及批发还是拼凑的方法是可取的。组织者似乎着手展示国际统一的前进之路,试图将本年度的全球议程放在安全,负责任地利用AI上。但是,AI在全球范围内发展的独特方式以及政府在利用私营部门创新方面的不同偏好可能使得对AI治理挑战的国际共识达成共识。
治理:一句话中有什么?未来一年的一个关键问题将是AI生态系统中的关键参与者如何解释治理。目前,治理是一个可延展的,批准的术语,政府,公司和其他利益相关者已经用来指导AI模型或塑造其行为的权重,以及生产它们的公司的权重;通过测试和评估从技术上评估安全性和风险;甚至控制创建所需的组件的扩散基础AI模型,是大规模的通用神经网络。破译公司和政府如何解释AI治理可以表明他们是否同意如何安全利用强大的新系统。
作为峰会组织者正确地指出,诸如G7的Hiroshima AI流程,英国Bletchley宣言以及私营部门驱动的技术协议等国家和多边群体在2024年选举中对AI进行欺骗性的使用,并同时发展了治理框架。这些努力在某些领域命名为减轻社会和人类风险的广泛目标,例如,但有足够的不同,例如,以其技术特异性或目标受众不容易整合。尽管峰会的崇高目标,但试图实现一个国际公认的人工智能治理框架可能会既有挑战又令人沮丧。采用不同方法来监管其私营部门的政府可能不同意对监管治理的样子的单一理解,并且公司有激励措施根据其商业利益了解AI治理。这些是国际峰会会议将继续努力解决的挑战。承认该术语的战略性歧义并分享有关治理的特定最佳实践可能会在AI围绕AI的各种法规,标准或自愿承诺方面取得进展更大的效率。
欧盟的监管方法将如何票价?对于欧盟来说,治理主要意味着监管。去年,欧洲联盟通过采用全球第一个全面的监管框架来开发和部署AI。AI行为标志着人工智能治理的重要里程碑,鉴于缺乏可比的法规,为其他国家提供了独特的蓝图:韩国和巴西拟议后来的法规与欧盟框架有很强的相似之处。欧洲联盟是第一个制定道路规则的人,在治理中获得了领导地位,从而极大地影响了AI甚至超出其边界的监管。尽管其他国家仍在权衡其针对治理的战略,但欧盟及其成员国的代表可以利用其在峰会上的统一愿景,并利用它来推动国际治理框架,该框架采用了《 AI法案》中的关键特征。
欧盟的关注现在已转向实施。AI法案在很大程度上依赖于技术标准和实践守则来定义开发人员的合规性。从AI治理的角度来看正在进行的努力为了确定合规性要求对于确定该法案是否能够成功减轻风险并保护欧洲公民免受算法危害,例如暴露于AI生成的虚假信息或歧视性偏见,以对未代表数据集进行培训的系统。在外交政策方面,实施该法规为欧盟提供了另一个机会,以扩大其对全球AI治理工作的影响。随着美国政府重新评估其对AI监督的方法,并随着未来的未来 美国AI安全学院不确定的欧盟准备通过塑造对AI的全球解释来填补差距,从而通过标准和最佳实践来表现出可信赖的AI的样子。
什么是新的美国方法?在整个大西洋地区,美国新政府的变化使联邦AI政策的未来陷入了不断变化。特朗普总统撤销了拜登政府的执行命令14110关于安全,安全和可信赖的AI的使用和使用和指导评论评估该命令与增强美国的全球人工智能主导地位和人类蓬勃发展,经济竞争力和国家安全的处于矛盾之处。鉴于拜登的行政命令代表了发展强大的政府的有意义的一步特朗普政府审查的结果标准和测试方案可能会阐明AI安全标准和评估以及进行它们的尸体如何适合美国的第一愿景。
行政命令14110分配了美国政府的AI测试和评估的责任。商务部下的美国AI安全研究所已开发了支持安全和值得信赖的AI的指导和最佳实践。根据上届政府的政策,美国AI安全研究所的任务是对私营部门边境AI模型进行自愿进行公共部署测试,并与其他政府机构(包括能源和家园部门)对AI风险进行测试安全。这些机构主要关注对AI国家安全风险(包括化学,生物学,放射学和核风险)的评估,这可能会激励特朗普政府允许其工作继续进行。关于AI安全研究所是否持续存在以及AI安全的哪些方面对特朗普团队的突出有更多的线索将在未来的几个月内展开。美国承诺在巴黎提出的提案的意愿(或不愿意)可能暗示安全性在政府更大的AI战略中的特征,以及新政府是否将治理视为单方面或多边练习。
治理的拼布被子?随着美国集中治理措施经历了一段过渡时期,各州可能会占据监管的斗篷。在过去的一年中,美国几个州通过了与AI相关的法律,其他州有望在2025年继续前进。这些法律可以提供有意义的监督,但也形成了一系列国家法规,这些法规可能会不均匀地保护风险。
虽然是演变和终极灭亡的加利福尼亚州SB 1047加利福尼亚州在2024年抓住了头条新闻一系列账单这打扰了某些深层假货,保护表演者的数字相似性并促进数字素养。科罗拉多州制定了法律反映欧盟AI法案的部分,要求高危系统的开发人员和部署使用合理的护理来保护消费者免受可预见的算法歧视风险。田纳西州立法者通过了猫王法,为个人的姓名,照片,相似性或声音提供财产权。今年年初,纽约立法者介绍了账单受到SB 1047的启发,该SB 1047提供了举报人的保护,并要求AI公司制定模型安全计划;纽约劳工部计划要求雇主在与AI采用有关的批量裁员时披露。在一年中,其他州可能会强加其他要求。
基于州的方法展示了如何按发行的基础进行监管,这具有针对特定类型的AI危害的优势,但可能会给跨州范围的公司带来差距或合规性困难。考虑到在行动峰会上这种方法的优点和缺点,可以为未来的方式提供见解。
自愿方法的机会和限制。当监管和立法在政治上不可行时,通过私营部门的自愿承诺进行治理提供了另一种道路。但是,此类承诺的价值可能受到限制。通常会激励签署人在他们投资的领域倡导措施。例如,2023年白宫领先的科技公司在涵盖的实践公司中做出的承诺已经参与了,例如红色团队和网络安全。一年后,公司在这些领域扩大了努力,同时对透明度和信息共享承诺看到的进度更少。这遵循基本业务逻辑:增强产品安全性和保护知识产权比分享对局限性和内部流程的见解更为一致。
但是,将现有商业惯例重新构架为有意义的行动风险被视为参与奖杯的自愿承诺。他们也未能推进更雄心勃勃的治理目标,例如数据供应链中的安全措施,能源效率或劳动力标准。立法者需要更多地考虑政府和企业如何确保自愿步骤真正的,重大的投资负责任地利用AI。
在接下来的一年中,不乏AI治理主题。DeepSeek R1提出了政策问题,例如,关于开发强大的开源模型以及应控制的程度可能引起的潜在滥用和安全问题。《星际之门》项目的四年制数十亿美元的计划指出,将市场动态转移为新政府方法的AI生态系统括号。同时,私营部门似乎打算开发AI代理,旨在将大型语言模型和其他高级模型带入复杂的体现或数字功能。这人工智能行动峰会对于希望在未来一年实施AI治理的国家和州政府,可能是一个概念的基础,但是如果利益相关者要开发真正可行的建议,利益相关者必须愿意探索这些系统的不同模式。如果没有,峰会有可能成为会议巡回赛上的另一站。