英语轻松读发新版了,欢迎下载、更新

技术能否拯救一个陷入混乱的世界?

2025-01-06 11:00:45 英文原文

作者:Michael Hirsh

一年多前,在一场战争游戏中,在一场想象中的美国和中国之间的冲突中,测试人工智能与人类推理的对比,期间发生了一件有趣的事情。事实证明,由 AI 指导的团队(由 OpenAI 的 GPT-4 提供支持)在如何处理危机的建议方面比人类团队更加谨慎,甚至明智。

“它识别出了人类看不到的反应,而且它并没有变得疯狂,”乔治梅森大学国家安全研究所项目主任贾米尔·贾弗告诉我。或者,正如 Jaffer 的报告所述得出结论:“人类始终试图提高赌注,并发出直接对抗中国的意愿,而人工智能则采取防御性行动,并试图限制潜在对抗的范围和性质。”

这一结果的重要意义不仅在于它似乎打破了经常发生的噩梦预测来自技术专家的威胁终结者超级智能人工智能对人类造成了毁灭性的灭绝。它还提出了一个重要的问题:如果我们快速发展的一些技术不仅不会毁灭我们,反而可以拯救我们自己,那会怎样?

因为我们可能需要储蓄。由二战战胜国——特别是美国、俄罗斯和中国——精心策划的已有 80 年历史的自由国际秩序正在迅速瓦解,而这主要是由这三个前盟友造成的。随着主要大国争夺主导地位,剩下的是一种“残骸”的全球体系,其中许多战后秩序的关键机构,包括联合国、世界贸易组织和国际货币基金组织,都在逐渐衰落。变得无关紧要。目前的一个主要例外可能是北约,面对俄罗斯总统弗拉基米尔·普京对乌克兰的侵略,北约已经恢复并扩大。但随着长期对北约持怀疑态度的美国候任总统唐纳德·特朗普即将于 1 月 20 日上任,这种情况可能会发生变化。

与此同时,从人工智能、气候到核扩散等各个领域的多边谈判都陷入停滞或未能取得进展。我们正处于一个得过且过的世界,对于每个大国来说,民族主义都取代了国际主义,公开的冲突迫在眉睫(或者已经发生,如乌克兰),合作不存在或太浅薄以至于不可能修复任何东西。

而这种情况恰恰发生在历史上各国停止沟通的错误时刻,此时许多高科技威胁正以超快的速度出现。其中:令人惊讶的先进人工智能,首次提出了真正与人类竞争的智能的可能性;新型核武器技术;新生物的生物合成;未来的新冠病毒类型病毒;和 CRISPR 基因增强;以及气候危机等需要全球合作的其他威胁。

在某些情况下,无限制的技术军备竞赛会带来重大风险——无论是意外战争还是流氓科学实验室向大气中释放新生物。“国际合作的缺乏令人严重震惊,”兰德公司政策研究员、《不确定性下的威慑:人工智能与核战争

但是,如果在世界秩序迅速恶化的情况下,其中一些技术(如乔治·梅森兵棋推演所证明的那样)也能带来真正的希望之光呢?


随着特朗普本月晚些时候再次就任美国总统,情况在好转之前可能会变得更糟。与北约一样,特朗普对任何阻碍“美国优先”的多边秩序都没有什么好感。他蔑视盟友,蔑视国际组织(他计划首先,退出世界卫生组织),驳斥了全球主义的理念,并以赤裸裸的零和、输赢的方式看待世界。这一次,特朗普建立了美国历史上最成功的民粹主义运动之一,他对自己更加自信了。他任命激烈的反全球主义忠诚者担任内阁高层,甚至在宣誓就职之前就威胁美国盟友,暗示他将从丹麦手中夺回格陵兰岛,从巴拿马手中夺回巴拿马运河,并将加拿大变成第 51 个国家。

由于美国在一个饱受打击和失败的全球体系中的领导地位有可能完全消失,一些战略专家认为,当前时刻比冷战时期危险得多。美国和苏联之间的冷战对峙基本稳定;今天,俄罗斯和中国总体上结伴对抗西方,但又不完全结盟,我们面临着一种更难以预测的地缘政治“三体问题”。

在一些战略家看来,当今的环境可能与第一次世界大战前不稳定的世界非常相似,只是当前的多层次危机可能更加危险。哥伦比亚大学国际事务教授迈克尔·多伊尔表示,“这有点像 1914 年,但杀伤力要大得多,现在的竞争是相互蔑视、认为具有颠覆性的强国之间的竞争。”

甚至在我们面临来自各个方向的技术挑战之前。曾担任巴拉克·奥巴马总统时期的美国能源部长、现任核威胁倡议组织负责人的物理学家欧内斯特·莫尼兹表示,技术威胁正在多个层面上出现,但它们都令人担忧,特别是如果不开展合理限制方面的国际合作的话。即将推出。

“所有新技术都以令人难以置信的速度出现,”莫尼兹说。——人工智能是典型代表,但它绝不是唯一的。空间技术。网络量子信息系统、无人机、3D 打印、生物技术等等。——也许最紧迫的是核威胁,而此时中国、美国和俄罗斯都已加强了核威胁。核武器计划。

“我们不得不说,使用核武器的风险比冷战结束以来,尤其是古巴导弹危机以来的任何时候都要高,”莫尼兹说,并指出美国,近几十年来,俄罗斯和中国都忽视了进行“自动防故障”审查,以防止意外发射(尽管拜登政府最终确实进行了一次),以及将《新削减战略武器条约》延长五年美国和俄罗斯之间的条约(军备控制制度的剩余部分)将于 2026 年 2 月 4 日后到期。

与此同时,官员们表示,美中核谈判的每一项努力都往往会搁浅,因为北京拒绝就核、气候和其他问题谈判达成实质性协议,除非就其对台湾的权利达成协议。2024年中,北京停止核军控谈判美国此举是为了报复其继续向台湾出售武器。尽管美国总统乔·拜登和中国国家主席习近平在 2024 年 11 月的一次会议上同意,任何使用核武器的决定都应由人类而不是人工智能来控制,而且尽管拜登政府一再寻求与北京方面进行合作,在集团层面,这些会谈尚未达成任何实质性协议。目前还不清楚特朗普新政府是否会继续实施这些措施。

“尤其是气候风险,非常像慢速火车失事风险,随着极端天气变得更加突出,这种风险正在变得更糟,”莫尼兹说。– 核风险可能是相当突然的灾难性事件。生物技术介于两者之间,但显然新技术再次脱颖而出。合成生物学,特别是人工智能与机器人技术的结合,可能会导致一些非常糟糕的生物体的合成。我们知道,坦率地说,禽流感已经得到证实,例如,我们还没有听说过最后一个。”(一些有争议的实验室研究正在进行中,这些研究以多种方式修改禽流感病毒这可能会使它们对人类造成更大的风险。)

总而言之,如果各国不相互谈论相互克制,尤其是在涉及美国和中国之间令人担忧的关系时,这将是一幅可怕的景象,而且看不到明显的解决方案。

但从长远来看,也许——只是也许——技术本身将有助于扭转局面,首先是最具革命性的技术:人工智能。也许,就像乔治·梅森战争游戏一样,新一代人工智能将找到人类似乎一直失败的权宜之计类型的解决方案。“我们需要采取新的方法来实现战略稳定,”莫尼兹说。– 威慑和双边军备控制的旧观念不再适用。 –

诚然,目前依赖人工智能可能是一厢情愿的想法。我最近问迈克尔·霍洛维茨(Michael Horowitz),他在去年担任拜登负责部队发展和新兴能力的副助理国防部长,最新的人工智能是否基于所谓的大型语言模型或生成式预训练变压器(GPT)?“在我们相处不好的时候,我们可以比别人做得更好。”

“这完全有可能,尽管我们谈论的是尚未达到这种程度的系统,”现在宾夕法尼亚大学任教的霍洛维茨说。– 人工智能决策支持工具可能不太积极或更规避风险,但这取决于用于训练它的数据。用于对其进行编程的参数。我认为现在我们将看到什么存在一定程度的不可减少的不确定性。”

但目前,霍洛维茨说,“我认为我们不太可能就限制性计划达成一致。”他说,军事战略家会太担心对手会想出办法利用这一点,并补充说,“如果你知道你的对手已经制定了克制程序,你就会有动力在危机时刻找到一种利用这一点的方法。”(《乔治》梅森人工智能生成的场景,事实上,中国最终决定入侵台湾。)

除此之外,前 OpenAI 开发者利奥波德·阿申布伦纳 (Leopold Aschenbrenner) 在最受关注的一篇文章中指出,为了控制即将到来的 GPT 主导时代,美国和中国之间已经展开了激烈的斗争。论文2024 年。尽管许多专家不同意他的评估,但 Aschenbrenner 警告说,GPT 生成的“超级智能”将在本十年末实现,并在下一个 2030 年代末实现新的世界秩序将会建立——这取决于哪个国家脱颖而出。阿申布伦纳总结道:——如果幸运的话,我们将与[中国共产党]进行一场全面的竞赛;如果我们运气不好,就会发生全面战争。”

其他科学家,例如被称为“人工智能教父”的诺贝尔物理学奖获得者杰弗里·辛顿 (Geoffrey Hinton),认为人工智能可能取代人类如果没有更多的政府监管,就会以可怕的方式发生。– 随着气候变化,很容易建议您应该做什么:您只需停止燃烧碳即可, – Hinton告诉路透社。– 如果你这样做,最终一切都会好起来的。对于 [AI] 来说,根本不清楚你应该做什么。但如果没有国际合作,任何监管都无法发挥作用。


An illustration shows a red emergency phone with half of it fragmented and digitized.

插图显示了一部红色紧急电话,其中一半已支离破碎且已数字化。

但回到乔治·梅森大学的那场战争游戏,如果事情没有那么可怕怎么办?如果北京和华盛顿双方都能被说服以反映避免冲突愿望的方式开发和编程人工智能,结果会怎样呢?

可以说,北京确实寻求这样的结果,双方都需要一些好的战略建议来实现这一目标。中国在历史上处于一个特殊的位置,一只脚介入国际体系,另一只脚在试图反抗华盛顿的过程中竭力退出。但中国不是俄罗斯,在普京的领导下,俄罗斯选择以各种可以想象的方式反抗西方的全球秩序。北京在开发清洁技术方面处于领先地位,并且非常有兴趣维持过去半个世纪丰富了中国的全球经济。

莫尼兹指出,在俄罗斯-乌克兰战争期间,习近平“警告普京总统不要炫耀和使用核武力,这显然是出于自身利益,他也这么做了。”

但与此同时,在如此复杂的世界结构中,人类的决策已不再可靠。特朗普所代表的民粹主义反抗战后全球体系的一大主题是,普通选民正在拒绝接受如此多的选举结果- 所谓的精英创建了战后国际体系,但在它造成巨大的收入不平等时袖手旁观。这种拒绝并不奇怪,因为全球亿万富翁阶层似乎正在掌控一切,至少在美国是如此。人类的宗派主义和部落主义以及激烈的阶级冲突似乎永远不会消失。

不过,另一种前景也出现了。如果全球体系中新出现的“精英”不再是人类怎么办?他们在推理和理解复杂趋势的能力方面遥遥领先,以至于我们别无选择,只能服从他们?专家们对这样的想法感到遗憾:新的人工智能,如果成为通用人工智能 (AGI),将不会类似于人类智能。这引发了人们的疑问:人工智能偶尔出现的奇怪的不道德行为是否会带来危险?例如,一家人工智能公司最近被起诉一个聊天机器人告诉一名 17 岁的年轻人,谋杀他的父母是对他们限制他的屏幕时间的合理回应。有很多理由怀疑人工智能将带我们走多远。就连乔治梅森大学的报告也得出结论,人工智能团队“没有对所有提示提供一致且完整的答案或建议,引发了人们对其在危机决策中使用的可靠性的担忧。”

然而,考虑到人类智力所表现出的局限性,这样的人工智能实体是否也不太可能屈服于自我毁灭的部落主义——今天我们所说的“身份政治”——以及始终存在的宗派主义。似乎破坏了人类建立全球秩序的努力?如果人工智能没有特定的人类身份——无论是种族、国家还是阶级——那么也许它不会那么容易受到身份政治的诱惑。

相反,一个纯粹基于情报的人工智能系统,无论是在华盛顿还是在北京,都可能得出最理性的结论——特别是,中国和美国对彼此构成的战略威胁远非如此。较少的比每个国家因合作失败而面临的危险更重要。这将考虑到每个经济体参与全球市场、阻止气候危机和未来流行病以及稳定每个国家想要商业开发的地区(尤其是南半球)的共同利益。


霍洛维茨表示,如果激励措施一致,就有可能将人工智能引入作为警示性参与者。他补充说,美国和中国之间可能发生的事情类似于 1972 年海上事件协议。莫斯科和华盛顿的一项建立信任措施,为苏联和美国海军制定了规则,以确保它们遵循国际标准。“我们需要一个用于和平时期自主 [AI] 系统的版本。”

同样,生物技术——只要它不失控——可以极大地帮助全球经济和卫生体制,从而产生新的药物和疗法、可持续的生物燃料、具有新功能的先进材料以及提高作物产量等。许多其他潜在的好处。

此外,完全可以想象,即将上任的特朗普政府——尽管他承诺与北京展开新一轮关税战——将找到适应中国的新方式。值得注意的是,即将上任的国家主席邀请习近平参加他的就职典礼(尽管习近平拒绝了);冷落了像他的前国务卿迈克·蓬佩奥这样的长期对华鹰派;他的核心圈子包括几位认识到美中相互依存的根本现实的商界人士。其中最重要的是他未来的首席顾问埃隆·马斯克(Elon Musk),他在中国进行了大量的制造业投资,这些投资与他的特斯拉汽车公司有关,他曾形容自己是“有点亲中国”。特朗普表示,霍华德·卢特尼克将作为商务部长“领导他的关税和贸易议程”,长期以来,他通过他的华尔街金融服务公司 Cantor Fitzgerald 和 Cantor Fitzgerald 在中国拥有商业利益。BGC集团。

特朗普还暗示,他不会像拜登那样急于保卫台湾,讲述 彭博社七月,——台湾应该向我们支付防务费用。“台湾没有给我们任何东西。”(未来的人工智能战略家也应该考虑到这一点。)

尽管特朗普在第一个任期内只升级了美国的核武库,而他的支持者的“2025计划”议程呼吁恢复核试验,但他也一再警告说,“就他而言,最大的核试验”人类面临的威胁来自核武器,”莫尼兹说。

在气候变化问题上,虽然特朗普过去称其为“骗局”,并可能再次退出多边气候协议,但当选副总统 J.D. 万斯此前已承认这是一个问题。特朗普即将上任的能源部长克里斯·赖特(Chris Wright)虽然是一名石油高管和化石燃料使用的捍卫者,但他也接受了这一现实。

——我认为否认主义确实已经减少了。极端天气之类的事情让人很难忽视,”莫尼兹说。——现实是,如果你看看美国的碳轨迹,我很难说特朗普政府做出了任何改变。尽管共和党在头两年控制了国会参众两院,但清洁能源创新议程得到了两党的支持。其次,私营部门并不以四年为周期进行资本配置。他们正在研究 20 年和 30 年的周期。而且他们没有一点改变。”

莫尼兹和其他人指出,巨大的全球利益已经在发挥作用——包括对清洁能源的投资、大型制药公司对安全生物技术的兴趣,甚至普京不愿在乌克兰部署核武器(尽管他一再威胁)这样做)——这表明即使是特朗普政府对当前的技术革命也只能产生有限的影响。

– 在这三个领域(核、生物和气候)中,风险的性质各不相同。人们处理风险的方式是不同的,”莫尼兹说。– 但它们都提供了促进人类福祉的机会。我们的工作就是管理风险并促进收益。”

没有理由认为人工智能如果使用得当,能够在这一努力中发挥很大作用。或者,正如贾菲尔在反思他的战争游戏时所说的那样:“仅根据这个结果,我认为人工智能可以成为未来国家安全决策者的出色副驾驶。”

本文已更新,以反映拜登政府确实进行了“自动防故障”审查以防止意外发射核武器的事实。 

关于《技术能否拯救一个陷入混乱的世界?》的评论


暂无评论

发表评论

摘要

将人工智能(AI)融入美国和中国等国家之间的战略和安全决策过程既带来了挑战,也带来了机遇。以下是从您提供的文本中得出的要点和注意事项:### 挑战:1. **身份政治和部落主义**:- 如果设计不当,人工智能系统可能会受到人类偏见的影响。- 如果人工智能系统依赖有偏见的数据或编程,那么身份政治和宗派主义的诱惑仍然可能会影响它们。2. **部落主义和民族认同**:- 人类经常根据国家、种族或阶级身份做出决定,这可能会破坏理性合作。- 确保人工智能避免此类偏见需要仔细的设计和监督。3. **激励措施错位**:- 为了让人工智能成为国家之间的有益中介,激励措施必须朝着互惠互利而非冲突的方向发展。- 1972 年海上事故协议等建立信任措施可以作为人工智能监管的典范。### 机会:1. **理性的战略决策**:- 人工智能系统缺乏人类身份偏见,可以就战略威胁和合作利益得出更理性的结论。- 这可以通过关注共同的经济、环境和安全利益来帮助缓解冲突。2. **加强合作**:- 在核裁军、生物技术监管和减缓气候变化领域,人工智能可以提供促进全球福祉的客观评估。- 例如,人工智能驱动的分析可能支持采取更合理的方法来应对流行病和气候危机。3. **经济相互依存**:- 通过参与全球市场来认识到共同的经济利益可能是合作人工智能系统的关键驱动力。- 埃隆·马斯克等商界领袖承认与中国合作的重要性,并暗示未来的政府可能会效仿。### 当前上下文:1. **政治现实**:- 即将上任的特朗普政府对关税和中国的立场仍不确定,但可能不会大幅改变现有的经济相互依存关系。- 即使像迈克·蓬佩奥这样的强硬派人物也被边缘化,转而采取更务实的方式处理中美关系。2. **气候变化否认主义**:- 尽管气候变化否认主义在政治上持续存在,但无论短期政治周期如何,私营部门投资都将继续支持清洁能源和环境举措。- 极端天气事件日益迫使公众认识到气候问题。3. **核武器威胁**:- 尽管特朗普或普京等人物发表言论,但实际考虑往往会限制核武器的部署。- 人工智能系统可以通过提供故障安全机制和客观威胁评估来帮助降低风险。### 未来方向:1. **人工智能作为副驾驶**:- 有效利用人工智能可以增强国家安全背景下的决策,充当人类战略家的副驾驶。- 将人工智能正确融入战略规划需要解决偏见问题并确保激励措施一致。2. **监管框架**:- 建立自治系统的监管框架可以防止潜在的冲突并促进国际合作。- 像《海上事故协议》这样的模型为建立人工智能治理规范提供了先例。总之,虽然将人工智能纳入国家间战略决策过程面临着重大挑战,但加强理性合作、减轻威胁和支持全球福祉的机会使其成为一种有前景的工具。适当的设计、监督和激励措施的协调对于有效利用这些好处至关重要。