作者:By Henry A. Kissinger, Eric Schmidt, and Craig MundieNovember 18, 2024
从军事战略的重新调整到外交的重构,人工智能将成为世界秩序的关键决定因素。人工智能不受恐惧和偏袒的影响,为战略决策带来了客观性的新可能性。但战士和和平缔造者都利用的客观性应该保留人类的主观性,这对于负责任地行使武力至关重要。战争中的人工智能将照亮人性最好和最坏的表现。它将成为发动战争和结束战争的手段。
人类通过长期的斗争,以更加复杂的安排来构建自己,以便没有一个国家能够绝对控制其他国家,从而达到了连续、不间断的自然法的地位。在一个主要参与者仍然是人类的世界中,即使配备了人工智能来向他们提供信息、咨询和建议,各国仍应享有基于共同行为规范的一定程度的稳定性,并受到时间的调整和调整。
但如果人工智能作为一组实际上独立的政治、外交和军事实体出现,那将迫使古老的权力平衡转变为新的、未知的不平衡。民族国家的国际协调——在过去几个世纪中实现的一种脆弱且不断变化的平衡——之所以得以维持,部分原因在于参与者之间固有的平等性。一个严重不对称的世界——例如,如果一些国家比其他国家更容易采用最高水平的人工智能——将难以预测。如果某些人类可能在军事或外交上与高度人工智能化的国家或人工智能本身对抗,人类可能会难以生存,更不用说竞争了。这种中间秩序可能会导致社会内部崩溃和外部冲突无法控制的爆发。
其他可能性还有很多。除了寻求安全之外,人类长期以来还为了追求胜利或捍卫荣誉而进行战争。机器——目前——缺乏任何胜利或荣誉的概念。他们可能永远不会发动战争,而是选择根据复杂的计算立即、仔细划分领土转让。或者,他们可能会采取行动,升级为血腥的人类消耗战——看重结果而忽视个人生命。在一种情况下,我们的物种可能会发生如此巨大的转变,从而完全避免人类行为的残酷。在另一种情况下,我们会被技术所征服,以至于它会把我们带回到野蛮的过去。
许多国家都专注于如何“赢得人工智能竞赛”。在某种程度上,这种动力是可以理解的。文化、历史、沟通和观念共同在当今的大国之间造成了一种外交局面,助长了各方的不安全感和猜疑。领导人认为,增量战术优势可能在未来的任何冲突中发挥决定性作用,而人工智能恰恰可以提供这种优势。
如果每个国家都希望最大化自己的地位,那么就会为敌对的军事力量和情报机构之间的心理较量创造条件,这是人类以前从未遇到过的。存在的安全困境等待着我们。对于任何拥有超级智能人工智能(即假设的比人类更聪明的人工智能)的人类演员来说,合乎逻辑的第一个愿望可能是试图保证没有其他人获得这种强大的技术版本。任何这样的行为者也可能默认地合理地认为,其竞争对手受到同样的不确定性的困扰并面临同样的风险,也会考虑采取类似的行动。
如果没有战争,超级智能人工智能可以颠覆、破坏和阻止竞争程序。例如,人工智能有望以前所未有的效力增强传统计算机病毒,并彻底伪装它们。就像 2010 年发现的计算机蠕虫 Stuxnet 一样,这种网络武器被认为毁掉了伊朗五分之一的铀离心机,人工智能代理可以通过混淆对手的存在的方式破坏对手的进展,从而迫使敌人科学家们追逐影子。凭借其操纵人类心理弱点的独特能力,人工智能还可以劫持敌对国家的媒体,产生大量令人震惊的合成虚假信息,从而激发大众反对该国人工智能能力的进一步进步。
各国很难清楚地了解自己在人工智能竞赛中相对于其他国家的立场。最大的人工智能模型已经在与互联网其他部分断开连接的安全网络上进行训练。一些高管认为,人工智能的发展本身迟早会迁移到坚不可摧的掩体中,其超级计算机将由核反应堆提供动力。数据中心甚至现在都建在海底。很快它们就可以被隔离在绕地球的轨道上。企业或国家可能会越来越多地“走向黑暗”,停止发布人工智能研究,这样不仅可以避免恶意行为者得逞,还可以掩盖自己的发展速度。为了歪曲他们的进展的真实情况,其他人甚至可能尝试故意发布误导性的研究,而人工智能则协助创造令人信服的捏造事实。
战争中的人工智能将照亮人性最好和最坏的表现。
这种科学诡计是有先例的。1942年,苏联物理学家乔治·弗莱奥罗夫注意到美国和英国突然停止发表有关原子裂变的科学论文,他正确地推断出美国正在制造核弹。如今,鉴于衡量智力等抽象事物的进展的复杂性和模糊性,这样的竞赛将变得更加难以预测。尽管有些人认为优势与其所拥有的人工智能模型的规模相称,但较大的模型不一定在所有情况下都优越,并且可能并不总是优于大规模部署的较小模型。更小、更专业的人工智能机器可能会像一群无人机对抗航空母舰一样行动——无法摧毁它,但足以压制它。
如果一个参与者在某一特定能力方面取得了成就,那么他可能会被认为具有整体优势。然而,这种思路的问题在于,人工智能仅仅指机器学习的过程,它不仅嵌入在单一技术中,而且嵌入在广泛的技术中。因此,任何一个领域的能力都可能是由与另一领域的能力完全不同的因素驱动的。从这些意义上讲,通常计算的任何“优势”都可能是虚幻的。
此外,正如近年来人工智能能力呈指数级和不可预见的爆炸式增长所证明的那样,进步的轨迹既不是线性的,也不是可预测的。即使一个参与者可以说“领先”另一个参与者大约数年或数月,但在关键时刻某个关键领域突然出现的技术或理论突破也可能会扭转所有参与者的地位。
在这样一个世界里,没有任何领导人可以相信他们最可靠的情报、他们最原始的本能,甚至现实本身的基础,因此不能指责政府以最偏执和怀疑的立场行事。毫无疑问,领导人在做出决定时已经假设他们的努力受到监视或受到恶意影响造成的扭曲。默认最坏的情况,任何边境行动者的战略考虑都是将速度和保密置于安全之上。人类领导人可能会担心没有第二名这样的东西。在压力下,他们可能会过早加速人工智能的部署,以威慑外部干扰。
几乎在整个人类历史中,战争都是在一个确定的空间内进行的,在这个空间中人们可以合理确定地了解敌方军队的能力和位置。这两个属性的结合为双方提供了一种心理安全感和共同共识,从而可以在知情的情况下限制杀伤力。只有当开明的领导人对如何打仗的基本认识达成一致时,敌对势力才能决定是否应该打仗。
速度和机动性一直是支撑任何特定军事装备能力的最可预测的因素之一。早期的例子是大炮的发展。狄奥多西城墙建成后的一千年里,保护着君士坦丁堡这座伟大的城市免受外来入侵者的侵害。然后,在 1452 年,一名匈牙利炮兵工程师向君士坦丁十一世皇帝提议建造一门巨型大炮,从防御墙后面发射,将攻击者粉碎。但自满的皇帝既没有物质手段,也没有认识到这项技术重要性的远见,因此驳回了这一提议。
对他来说不幸的是,这位匈牙利工程师原来是一名雇佣兵。他改变了战术(和阵营),更新了自己的设计,使其更具机动性——可以由不少于 60 头牛和 400 名男子运输——并接近了皇帝的竞争对手奥斯曼苏丹穆罕默德二世,后者正准备围攻埃及。不透水的堡垒。这位富有创业精神的匈牙利人声称这把枪可以“粉碎巴比伦本身的城墙”,赢得了年轻苏丹的兴趣,并帮助土耳其军队在短短 55 天内攻破了古老的城墙。
这部十五世纪戏剧的轮廓在历史上屡见不鲜。十九世纪,速度和机动性首先改变了法国的命运,拿破仑的军队压倒了欧洲,然后在赫尔穆特·冯·毛奇(老)和阿尔布雷希特·冯·罗恩的指挥下改变了普鲁士,他们利用了新的技术发达的铁路可以实现更快、更灵活的机动。同样,闪电战——德国军事原则的演变——在第二次世界大战中被用来对付盟军,产生了巨大而可怕的效果。
在数字战争时代,“闪电战”具有了新的含义并变得无处不在。速度是瞬时的。攻击者无需牺牲杀伤力来维持机动性,因为地理位置不再是限制。尽管这种组合在很大程度上有利于数字攻击的进攻,但人工智能时代可以看到响应速度的提高,并使网络防御能够与网络攻击相匹配。
在动态战争中,人工智能将引发另一次飞跃。例如,无人机速度极快,移动性超乎想象。一旦人工智能不仅被部署来引导一架无人机,而且还指挥它们的机队,无人机云将形成并作为一个有凝聚力的集体同步飞行,完美的同步性。未来的无人机群将毫不费力地解散并重组成各种规模的单位,就像精英特种作战部队是由可扩展的分遣队组成的,每个分遣队都有主权指挥能力。
此外,人工智能将提供同样快速、灵活的防御。用常规射弹击落无人机舰队即使不是不可能,也是不切实际的。但发射光子和电子(而不是弹药)的人工智能枪可以重新产生与太阳风暴相同的致命致残能力,太阳风暴可以炸毁暴露卫星的电路。
人工智能武器将前所未有地精确。对手地理知识的限制长期以来限制了任何交战方的能力和意图。但科学与战争的联盟已经开始确保仪器的准确性不断提高,人工智能有望取得更多突破。因此,人工智能将缩小初衷和最终结果之间的差距,包括在使用致命武力方面。无论是陆基无人机群、部署在海上的机械军团,还是可能的星际舰队,机器都将拥有高度精确的杀人能力,几乎没有不确定性,影响力无限。潜在破坏的范围仅取决于人类和机器的意志和克制。
在动能战争中,人工智能将引发巨大的飞跃。
因此,人工智能战争时代将主要减少对对手能力的评估,而不是对其意图及其战略应用的评估。在核时代,我们已经进入了这样一个阶段,但随着人工智能证明其作为战争武器的价值,其动态和意义将变得更加引人注目。
有了如此宝贵的技术,人类甚至可能不是人工智能战争的主要目标。事实上,人工智能可以完全消除人类在战争中的代理作用,从而降低战争的致命性,但可能同样具有决定性。同样,领土本身似乎不太可能引发人工智能的侵略,但数据中心和其他关键数字基础设施肯定可以。
那么,投降不会发生在对手人数减少、军械库空无一人的时候,而是当幸存者的硅盾牌无法拯救其技术资产以及最终拯救其人类代表时。战争可能演变成一场纯粹机械死亡的游戏,决定因素是人类(或人工智能)的心理力量,他们必须冒险或放弃以防止彻底毁灭的突破时刻。
在某种程度上,甚至管理新战场的动机也是陌生的。英国作家 G.K.切斯特顿曾经打趣道,“真正的士兵战斗不是因为他讨厌眼前的东西,而是因为他热爱身后的东西。”人工智能战争不太可能涉及爱或恨,让唯一的一个概念是士兵的勇敢。另一方面,它可能仍然包含自我、身份和忠诚——尽管这些身份和忠诚的本质可能与今天的不一致。
战争的计算向来相对简单:哪一方首先感到无法忍受战争的痛苦,就有可能被征服。过去,对自身缺点的认识已经产生了克制。如果没有这种意识,也没有对痛苦的感觉(因而对痛苦有很大的容忍度),人们不能不想知道,如果有的话,什么会促使人工智能被引入战争,以及什么会结束它所引发的冲突。一个会下棋的人工智能,如果从未被告知决定游戏结束的规则,它可能会玩到最后一个棋子。
在人类的每一个时代,几乎就像遵循某种自然法则一样,正如我们中的一个人(基辛格)曾经说过的那样,出现了一个单位——拥有权力、意志以及智力和道德动力,按照自己的价值观塑造整个国际体系。——人类文明中最常见的安排是传统意义上的威斯特伐利亚体系。然而,主权民族国家的概念只有几个世纪的历史,诞生于 17 世纪中叶统称为《威斯特伐利亚和约》的条约。它不是社会组织的预定单位,它可能不适合人工智能时代。事实上,随着大规模虚假信息和自动歧视引发人们对这种安排的信心丧失,人工智能可能对各国政府的权力构成固有的挑战。或者,人工智能很可能会重置竞争对手在当今系统中的相对地位。如果其权力主要由民族国家本身利用,人类可能会被迫走向霸权停滞,或者走向人工智能赋权的民族国家的新平衡。但这项技术也可能成为更根本性转变的催化剂——向全新体系的转变,在这个体系中,州政府将被迫放弃其在全球政治基础设施中的核心作用。
一种可能性是,拥有和开发人工智能的公司将积累社会、经济、军事和政治权力。今天的政府被迫应对自己的困境,既作为私营企业的啦啦队长(利用其军事力量、外交资本和经济实力来促进这些本土企业的发展),又作为对垄断贪婪持怀疑态度的普通公民的支持者和保密。这可能是一个站不住脚的矛盾。
与此同时,企业可以结成联盟,以巩固其已经相当大的实力。这些联盟可能建立在优势互补和合并利润的基础上,或者建立在人工智能系统开发和部署的共同理念之上。这些企业联盟可能会承担传统的民族国家职能,但它们不会寻求定义和扩大有界领土,而是培育分散的数字网络作为它们的领域。
人工智能可能对各国政府的权力构成固有的挑战。
还有另一种选择。不受控制的开源扩散可能会产生较小的帮派或部落,这些帮派或部落的人工智能能力虽不合格,但具有强大的人工智能能力,足以在一定的有限范围内管理、提供和保护自己。在拒绝既定权威、支持去中心化金融、沟通和治理的人类群体中,这种技术驱动的原始无政府状态可能会获胜。或者这样的分组可能包含宗教层面。毕竟,就影响范围而言,基督教、伊斯兰教和印度教都比历史上任何国家都更大、更持久。在未来的时代,宗教教派比国家公民身份更可能成为身份和忠诚度更相关的框架。
无论是哪种未来,无论是由企业联盟主导还是分散到松散的宗教团体中,每个团体声称拥有的新“领土”以及他们将争夺的新“领土”都不会是几英寸的土地,而是数字景观,寻求个人用户的忠诚度。这些用户与任何政府之间的联系将颠覆传统的公民概念,实体之间的协议也将不同于普通的联盟。
从历史上看,联盟是由个人领导人建立的,有助于在发生战争时增强国家的实力。相比之下,和平时期围绕普通人的观点、信仰和主观身份构建的公民身份和联盟——或许还有征服或十字军东征——的前景将需要一种新的(或非常古老的)帝国概念。它还将迫使人们重新评估效忠承诺所带来的义务和退出选择的成本(如果人工智能纠缠的未来确实存在的话)。
民族国家的外交政策是通过平衡理想主义和现实主义来制定和调整的。回想起来,我们的领导人所达成的暂时平衡并不是最终状态,而只是他们所处时代的短暂(如果有必要)策略。随着每一个新时代的到来,这种紧张局势都会对政治秩序的构成产生不同的表达。追求利益和追求价值之间的二分法,或者特定民族国家的优势和全球利益之间的二分法,一直是这种永无止境的演变的一部分。在外交活动中,小国领导人历来都会直接做出回应,优先考虑自身生存的需要。相比之下,那些拥有实现额外目标手段的全球帝国的人却面临着更加痛苦的困境。
自文明开始以来,随着人类组织单位的发展,他们同时实现了新的合作水平。但今天,也许是由于全球挑战的规模以及国家之间和国家内部明显的物质不平等,对这一趋势的强烈抵制已经出现。事实证明,人工智能可以满足更大规模的人类治理的需求,不仅能够精确、准确地洞察国家的需要,而且能够洞察全球的相互作用。
我们希望,出于国内外政治目的而部署的人工智能可能不仅仅只是阐明平衡的权衡。理想情况下,它可以提供新的、全球最优的解决方案,以比人类能力更长的时间范围和更高的精度发挥作用,从而使相互竞争的人类利益协调一致。在未来的世界中,机器智能应对冲突和谈判和平可能有助于澄清甚至克服传统困境。
然而,如果人工智能确实要解决我们本应希望自己解决的问题,我们可能会面临一场信心危机——过度自信和缺乏信心。对于前者,一旦我们了解了自己自我纠正能力的局限性,就可能很难承认我们在处理人类行为的存在问题时将太多权力让给了机器。对于后者来说,认识到只需将人类代理从处理我们的事务中去除就足以解决我们最棘手的问题,这可能会过于明确地揭示人类设计的缺点。如果和平一直只是一种简单的自愿选择,那么人类的不完美的代价就是永久的战争。知道解决方案一直存在但我们从未设想过,这将打击人类的自豪感。
就安全而言,与人们在科学或其他学术活动中被取代的情况不同,我们可能更容易接受机械第三方的公正性,因为它必然优于人类的自利性——正如人类很容易认识到的那样在有争议的离婚中需要调解员。我们的一些最糟糕的特征将使我们能够展现出我们最好的一些特征:人类追求自身利益的本能,即使以牺牲他人为代价,也可能让我们做好准备接受人工智能对自我的超越。
加载中...