人工智能的科学太重要了,不能仅仅交给科学家们处理。

2024-10-21 10:00:52 英文原文

作者:Hadrien Pouget

加州州长加文·纽森近期否决SB-1047州法案的决定(该法案旨在为监管人工智能风险设定新的全球标准)受到了世界各地政策制定者和公司的密切关注。此次否决本身对以下内容是一个显著挫折:“人工智能安全”运动然而,或许更为关键的是纽森的解释。他批评该法案“没有基于对AI系统和能力的经验轨迹分析”。在纽森简短的信中,“经验性的”、“证据”、“科学”和“事实”这些词出现了八次。

关于人工智能的风险和收益缺乏科学共识已成为监管的一大障碍——不仅在州级和国家级别,而且在国际上也是如此。正如人工智能专家有时激烈地表示,被分割的在哪些风险最值得关注的问题上,世界领导人正努力寻找共识。华盛顿以及伦敦正在为人工智能驱动的生物、网络和信息威胁在接下来几年内出现做好准备。然而,他们的同行在巴黎北京对风险的担忧不那么强烈。如果要弥合这些观点,实现强有力的国际协调,我们将需要一个可信且具有全球合法性的关于人工智能及其影响的科学评估。

加州州长加文·纽森最近否决SB-1047法案的决定(该法案旨在为监管人工智能风险设定新的全球标准)引起了世界各地政策制定者和公司的密切关注。这一否决本身对以下内容而言是一个明显的挫折:“人工智能安全”运动然而,也许更为关键的是纽森的解释。他批评该法案“没有基于对AI系统和能力的经验轨迹分析”。在纽森简短的信中,“经验的”、“证据”、“科学”和“事实”这些词出现了八次。

关于人工智能的风险和益处缺乏科学共识已成为监管的一大障碍——不仅在州级和国家级,而且在国际上也是如此。正如人工智能专家有时强烈主张的那样分开的世界领导人在哪些风险最值得关注的问题上苦苦寻求共识。华盛顿以及伦敦正在为人工智能驱动的生物、网络和信息威胁在未来的几年内出现做准备。然而,他们的同行在巴黎以及北京对风险的看法不那么确定。如果要弥合这些观点以实现强有力的国际协调,我们将需要一个可信的、具有全球合法性的关于人工智能及其影响的科学评估。

好消息是上个月,联合国会员国同意启动一个“独立的国际人工智能科学委员会。”坏消息是,联合国可能为这个委员会的失败埋下了伏笔。这里的关键词是“独立”,这意味着一个由科学家领导的过程,并且成员国的作用将被最小化。这听起来很值得称赞。但是,在面对像人工智能这样的全球性挑战时,历史表明,科学研究的独立性往往会导致政治上的无关紧要。矛盾的是,提升科学影响的最佳方式是让政客们来掌控这一过程。


新的联合国面板是少数在长达一年的谈判中幸存下来的组件之一。全球数字契约,于九月采纳并通过,旨在成为联合国对数字时代的回应。它的存在是广泛渴望获得更好的关于人工智能的信息的证据。在生存风险和乌托邦式益处的承诺之间摇摆不定,世界各国领导人努力理解人工智能的影响和潜力——更不用说应对它们了。

缺乏一个基于事实的共同的人工智能图景,这鼓励了竞争对手推动他们自己的相互对立的——往往是自利的——观点。今年五月,华盛顿和北京之间罕见地举行了关于人工智能的双边会议撤销了到地缘政治姿态展示;没有安排后续会议。在欧洲,一场无声的争夺正在进行中叙述伦敦和巴黎之间的紧张关系因巴黎筹备英国人工智能安全峰会的继任活动而加剧。对风险更加持怀疑态度的巴黎同时扩大了范围为了突出机会和创新,边缘化了安全对话。而美国、欧盟和中国的监管制度反映了对技术的不同愿景,使得这些司法辖区在“之外的任何协调或和谐都显得不太可能。自愿的 承诺事项“来自AI公司的”

科学无法解决所有这些冲突,其中一些冲突源于地缘政治、经济利益和价值观的差异。但随着人工智能承诺扰乱全球安全、不平等、劳动力市场等等,决策者需要了解这项技术的影响,并与盟友和对手达成至少大致一致的看法,以确定如何应对。问题在于专家社区远未达成共识。实际上,专家们甚至在基本问题上激烈地持不同意见:人工智能是否是一种存在风险或者仅仅是炒作?

回答这些问题不会容易,但这也不是世界首次努力构建应对复杂国际挑战的共同科学认知。过去的尝试展示了哪些方法有效以及哪些无效。

我们甚至不必回顾那么久远的过去。在2018年,人工智能已经因为在游戏中击败人类并在著名的复杂棋盘游戏围棋中战胜人类而引起轰动几年了。(同一年,一个不太为人知的人工智能系统发布了——它后来被称为“GPT-1”。)认识到这项技术的潜力和更好地理解它的必要性,一些世界领导人提出了全球人工智能伙伴关系(GPAI)于2020年正式成立。

GPAI允许成员国委托独立的人工智能专家小组编写报告,政治干预相对较少。这一过程产生了关于困难且重要主题的报告,涵盖了例如支撑底层的AI系统。社交媒体,的数据的收集和使用,的人工智能系统的环境影响,和工作条件然而,所有报告都包含相同的警告:它们“并不代表GPAI成员的官方观点。”这最终成为了一个问题。因为决策者没有对这些报告承担责任,他们几乎没有动机去阅读、理解或投资于GPAI的活动。该倡议未能引起轰动,并在仅四年之后就被并入经合组织。

将GPAI与一个更为成功的努力进行比较:联合国政府间气候变化专门委员会(IPCC),该组织的里程碑式报告一直是气候谈判的基础。IPCC报告由独立科学家编写,但至关重要的是,它们从头到尾都参与了政府代表的意见。除了批准范围和提名专家外,各国还被邀请对报告草案提出意见,在逐行基础上就报告摘要进行协商并达成一致,并分段采纳报告。因此,决策者无法忽视IPCC的报告。他们必须理解这些报告,针对其中的问题采取立场,并同意最终文本。结果是产生了一份可以作为国际讨论起点的报告。

这并不是说政府间气候变化专门委员会(IPCC)没有缺点。尽管它为全球科学共识做出了贡献,世界仍然没有看到足够的气候行动。但是,一个没有IPCC的世界会更糟糕。它的报告一直是任何气候行动的核心:最值得注意的是《联合国气候变化框架公约》、1997年京都议定书和2015年巴黎协定的制定。找到可行的解决方案总是很困难,但如果没有IPCC,甚至不会有讨论的基础。事实是,这些报告让政治进入了科学过程。这一方法使IPCC获得了诺贝尔奖,而GPAI(可能是指全球预防武装冲突倡议或其他相关组织)则在争取相关性方面陷入了困境。

讽刺的是,GPAI在2018年被提出为“国际人工智能委员会”,设想成为AI领域的IPCC。但到其正式启动时,它已经失去了与IPCC成功核心要素相关的名称和实质内容。因此,这类组织往往随着时间的推移越来越多地寻求政府参与也就不足为奇了。另一个以IPCC为模型的组织——生物多样性和生态系统服务政府间科学政策平台——得出了一个结论:评论其活动的一个方面认为,“早期过于专注于制作科学评估”限制了其影响力。它呼吁科学家和政策制定者之间进行更多的“联合生产”报告。

在许多程序性细节尚待确定的情况下,联合国新设立的人工智能小组为时未晚。在这个充满复杂性的政治与科学交织的领域中采取行动将是各国为了克服对立的国家利益而共同努力的必然步骤。像政府间气候变化专门委员会一样,该小组应将核心科学研究任务留给科学家处理,但也必须提供机会让各国政府指导研究、持续反馈并公开认可研究成果。


如果课程既然历史事实是清楚的,那么为什么联合国要推动一个“独立”的以科学为主导的人工智能小组呢?也许成员国特别致力于在这个重要新议题上保持科学的纯洁性。但更可能的解释是在国际紧张局势日益加剧且与人工智能深度交织的情况下,将棘手问题推给一群孤立的政治弱势专家组成的小组更容易,然后忽视他们产生的任何不方便的结果。

诚然,将科学与政治结合起来确实存在实际挑战。科学研究结论可能会被歪曲或淡化,这一点已经在政府间气候变化专门委员会(IPCC)中体现出来。被控告的过去的参与也是如此。政府的介入也是一个缓慢而痛苦的过程。IPCC的全面评估报告每份都需要五到七年的时间——在人工智能的世界里,这几乎是永恒。联合国将产生这种类型报告中最雄心勃勃的一个版本,但我们同时也应该确保这不是唯一的解决方案。

更灵活、更专注且科学上独立的补充流程应当并行进行。一个仍在进行中的过程报告关于去年十一月由29个国家政府委托的高级AI安全问题的研究是一个典型例子。为科学家们提供多个合作平台可以创造冗余,确保没有单一失败点,不同意见能够被听到,并且科学建议能够满足紧迫的政策需求。其中一些工作可能包括移交向诸如经合组织(OECD)这样的受人尊敬的技术熟练的国际机构

但尽管这听起来可能有些奇怪,一份缓慢而缩水的联合国报告可能是世界所需要的。国际上对人工智能治理采取一致行动将需要政治意愿,而这显然目前尚不存在。建立全球共识必然需要耐心。它不需要是IPCC的精确复制——毕竟,人工智能是一套不同的问题。但我们绝对不能忽视过去的教训。否则,我们将冒着几年后必须重新启动这一进程的风险。

有人说过“战争太重要了,不能交给将军们处理。”如今,随着人工智能的发展,“科学太重要了,不能只交給科学家们处理。”

关于《人工智能的科学太重要了,不能仅仅交给科学家们处理。》的评论


暂无评论

发表评论

摘要

加州州长加文·纽森最近否决了一项名为SB-1047的州法案,该法案旨在为规范人工智能风险设定新的全球标准,这一决定引起了世界各地政策制定者和公司的密切关注。他批评该法案“没有基于对AI系统和能力的经验轨迹分析”。好消息是,上个月联合国成员国同意成立一个“独立的国际人工智能科学委员会”。但更有可能的情况是在日益增长的国际紧张局势中,这些紧张局势与人工智能密切相关,将棘手问题推给一群孤立且政治权力受限的专家小组更加容易,并且可以忽略他们产生的任何不便的结果。联合国将产生此类报告中最雄心勃勃的一个版本,但我们同时也应该确保这不是唯一的解决方案。