作者:Amelia Lester
如果 2023 年是人工智能时代突破年,那么2024年就是道路规则制定的时候。今年是美国政府机构根据白宫关于人工智能安全的行政命令采取行动的一年。今年夏天,欧盟的人工智能法规成为法律。10 月,瑞典人介入,诺贝尔奖变成了对诺贝尔奖的全民公投。技术的使用和开发;Bhaskar Chakravorti,一位频繁的作家对外政策关于人工智能主题,建议委员会对获奖者的选择可以被解读为“认识到人工智能不受限制的增长所带来的风险。”
2024 年,FP 撰稿人最关心的问题是这种增长应该受到何种程度的限制。维克托·梅耶-舍恩伯格 (Viktor Mayer-Schönberger) 和乌尔斯·加塞尔 (Urs Gasser) 等人认为,各国应该本着实验精神走自己的路——只要可以找到有效的方式聚集在一起并从彼此的错误中学习。鲁曼·乔杜里 (Rumman Chowdhury) 对这种情况没有发生感到沮丧,特别是对于全球大多数国家的居民来说,他们刚刚接触人工智能,却没有足够的工具来安全地使用和消费人工智能。查克拉沃蒂担心监管陷阱——为了建立护栏,政府可能会无意中加剧人工智能垄断问题。
如果 2023 年是人工智能时代突破年,那么2024年就是道路规则制定的时候。今年是美国政府机构根据白宫关于人工智能安全的行政命令采取行动的一年。今年夏天,欧盟的人工智能法规成为法律。10 月,瑞典人介入,诺贝尔奖变成了对诺贝尔奖的全民公投。技术的使用和开发;Bhaskar Chakravorti,一位频繁的作家对外政策关于人工智能主题,建议委员会对获奖者的选择可以被解读为“认识到人工智能不受限制的增长所带来的风险。”
2024 年,FP 撰稿人最关心的问题是这种增长应该受到何种程度的限制。维克托·梅耶-舍恩伯格 (Viktor Mayer-Schönberger) 和乌尔斯·加塞尔 (Urs Gasser) 等人认为,各国应该本着实验精神走自己的路——只要可以找到有效的方式聚集在一起并从彼此的错误中学习。鲁曼·乔杜里 (Rumman Chowdhury) 对这种情况没有发生感到沮丧,特别是对于全球大多数国家的居民来说,他们刚刚接触人工智能,却没有足够的工具来安全地使用和消费人工智能。查克拉沃蒂担心监管陷阱——为了建立护栏,政府可能会无意中加剧人工智能垄断问题。
在预览 2025 年人工智能辩论的走向时,Ami Fields-Meyer 和 Janet Haven 表示,我们都在担心错误的事情:而不是仅仅关注人工智能对选举中的错误信息和虚假信息的有害影响与今年美国总统大选前夕发生的情况一样,各国政府需要看到该技术在更广泛地废除公民自由和个人权利方面的潜力。自由。与此同时,贾里德·科恩指出人工智能和地缘政治即将发生的冲突,并指出数据之战将在未来几年内建立或摧毁帝国。
作者:Bhaskar Chakravorti,1 月 25 日
塔夫茨大学弗莱彻学院全球商学院院长查克拉沃蒂写道,加速派在引导人工智能发展的竞争中获胜。但他在这篇有先见之明的文章中指出,随着监管机构急于将法案纳入法律,他们可能会无意中增强加速主义者的市场力量。
负责维护公共利益的监管机构怎么可能采取可能使事情变得更糟的行动呢?查克拉沃蒂写道,因为人工智能监管是在“全球拼凑”中随意出现的,而规模较小的公司由于缺乏遵守多项法律的资源而自动处于不利地位。然后是法规本身,通常需要红队要求来识别安全漏洞。这种先发制人的方法成本高昂,并且需要初创企业不易获得的各种专业知识。
幸运的是,查克拉沃蒂提出了政府可以采取的几种方法来阻止人工智能市场的集中化,而不必完全放弃监管。
作者:Viktor Mayer-Schönberger 和 Urs Gasser,9 月 16 日
两位技术治理教授(一位来自牛津大学,另一位来自慕尼黑工业大学)通过现实主义视角对人工智能监管提出了不同的看法。Mayer-Schönberger 和 Gasser 认为,人工智能在全球范围内的监管碎片化是一个特征,而不是一个缺陷,因为监管该技术的目标尚未明确定义。
在这个“概念和搜索阶段”,开放的沟通和创新渠道最为重要。然而,世界缺乏促进监管实验的机构,而现有机构(例如二战后的布雷顿森林体系)并不适合这项任务。“也许我们需要不同的机构来帮助进行这种实验和学习,”作者总结道,然后根据过去的技术突破提出了一些可能的前进道路。
作者:鲁曼·乔杜里,9 月 19 日
更多数字化国家已经在努力解决如何保护其公民免受人工智能增强内容的侵害。密克罗尼西亚的一个家庭首次接触可靠的互联网接入,如何避免这些相同的问题?这是美国人工智能科学特使乔杜里提出的问题,他从斐济访问归来,担心全球多数国家对这一问题缺乏关注。
乔杜里写道,这种脱节并不是因为缺乏兴趣。但解决方案往往过于狭隘——专注于增强数字访问和能力,却没有为制定保障措施、进行彻底评估和确保负责任的部署提供适当的资金。“今天,我们正在改造现有的人工智能系统,以提供我们在构建它们时并未优先考虑的社会保障措施,”乔杜里写道。随着全球多数国家投资发展基础设施和能力,也有机会纠正人工智能早期采用者所犯的错误。
作者:Ami Fields-Meyer 和 Janet Haven,10 月 31 日
在 11 月美国总统大选前夕,人们对人工智能对选举公正性影响的担忧成为焦点。但副总统卡马拉·哈里斯 (Kamala Harris) 的前政策顾问菲尔兹-迈耶 (Fields-Meyer) 和国家人工智能咨询委员会成员哈文 (Haven) 指出,人工智能对自由开放的社会构成了“同样根本的威胁”:压制公民权利和个人机会掌握在不透明和不负责任的人工智能系统手中。
他们写道,要扭转这种漂移,就需要扭转为其提供动力的电流。展望未来,华盛顿需要创建一个新的、持久的范式,其中以数据为中心的预测技术的治理是强大的美国民主的核心组成部分。作者写道,必须通过一个独立但相关的项目来补充一系列政策建议,以确保个人和社区对人工智能在他们的生活中如何使用以及如何不使用拥有发言权。
作者:Jared Cohen,10 月 28 日
高盛全球事务总裁科恩认为,数据是“新石油”,它塑造着下一次工业革命,并定义了全球秩序中的富人和穷人。然而,与石油有一个至关重要的区别。大自然决定了世界石油储备的位置,但各国决定在哪里建设数据中心。由于美国面临国内无法突破的瓶颈,华盛顿必须考虑规划全球人工智能基础设施建设。科恩将此称为“数据中心外交”。
随着人工智能需求的增长,数据中心瓶颈的紧迫性也随之增加。科恩认为,美国应该建立一系列合作伙伴,共同建设数据中心——尤其是因为中国正在执行自己的人工智能基础设施领先战略。这种战略并非没有风险,与当前地缘政治竞争向内转、国内产能建设的趋势背道而驰。尽管如此,随着人类更大的繁荣和自由受到威胁,美国必须立即采取行动,将地理置于技术竞争的中心,科恩接着概述了首要的必要步骤。