外星甲骨文:军事决策与无法解释的AI

2025-09-26 07:35:11 英文原文

您是否会在培训和经验的每一项策略中都持将数千人生命,这似乎注定要出于灾难性的失败?

1863年,随着维克斯堡(Vicksburg)的竞选活动停滞了,尤利西斯·S·格兰特(Ulysses S.谢尔曼(Sherman)本人在战争中没有懒散的人,将其视为鲁ck的陷阱 -敌人很高兴每年操纵的确,它违反了当时的所有军事正统观念,这强调了安全的供应线,安全的操作基础和武力集中。格兰特(Grant)做了相反的事情:他从仓库中砍下了脚步,将军队游行在两个敌军之间,并试图在没有受保护的撤退线的情况下越过密西西比州。但是谢尔曼遵循命令并尽自己的一份力量。格兰特(Grant)的令人沮丧的计划奏效了,维克斯堡(Vicksburg)跌倒了。

谢尔曼(Sherman)在维克斯堡(Vicksburg)体现的紧张局势在那里,声音,传统的评估与非常规,有风险但出色的方法发生冲突 - 在现代战争中可能会发现一个奇怪的回声。高级AI可能会提出像格兰特(Grant)对谢尔曼(Sherman)的计划一样,对指挥官的陌生策略提出:不透明,违反直觉但可能是果断的。

这造成了一个人工智能命令的困境,并提出了一个关键的问题:当无法完全理解其推理时,军事领导人如何建立对这些外星人的信任的正当信任?这信任挑战不是任意的。它直接来自三个动力学具有战略性创造性的AI:战略性敏锐度,AI创造力和可理解性之间的逆关系以及可解释的AI的局限性。

在某种程度上,该分析颠倒了战争中先进的人工智能所带来的问题。而不是检查致命,完全自主的AI带来的困难代理商在执行人类指挥下,我们强调了成为军事指挥官的挑战,这些军事指挥官成为高级AI系统可能出色但难以理解的策略的代理商。

战略性敏锐度

启用AI 决策是一个不可避免的 特征未来战争。现代战争的军事行动的速度正在增加,复杂由于机器人系统的传播以及日益增长的重要性网络和电子战需要快速,协调的行动的发展。为了使美国军方在这种环境中维持竞争优势,先进的AI系统应在战争的运营和战略水平上塑造指挥决策。为此,美国将被迫面对前所未有的挑战整合AI系统的最决定性建议违抗人类理解

这种运营需求导致了第一个原则:先进的AI系统将具有高水平的战略性敏锐度,能够制定出对特殊创造力和有效性的判断远远超过人类在某些复杂领域的能力。高级AI的非凡战略判断源于基本的技术优势,使其能够以方式处理信息,学习和战略不同于许多尊重都优越人类认识。虽然我们无法对可能产生战略敏锐性的技术特征伸张正义,但两个当前的AI的属性值得一提。

首先,现代的AI系统,尤其是深度学习模型,具有质量规模的模式识别和计算深度。他们可以处理和识别广泛的数据集中的复杂,微妙的模式(例如,过去的战争游戏,传感器饲料或历史场景)使高级AI能够感知复杂的相互依存关系和逃避人类感知的长期含义。作为一个分析在支持AI的战争中,这可以驻留在远低于人类观察的噪音水平的表面信号。或国际象棋,以无与伦比的深度和速度来计算概率和结果,从而预见了战略优势。

第二,现代AI可以参与自我监督的学习和不受约束的探索。通过类似的技术强化学习自我播放,高级AI可以在没有人类指导甚至人类生成的数据的情况下学习和完善策略。通过反复对抗自己或在模拟环境中,他们探索了问题空间,发现新颖的解决方案并优化了不受人类偏见或历史先例影响的策略。alphazero通过在国际象棋,Shogi中实现超人的表现,并在数小时内发展出来,开发了创造性和非正统的策略来证明这一点,从而重新定义了最佳游戏。

可理解性 - 创造性关系

但是,这种敏锐度引起了第二个原则:AI战略判断中的创造力和非明显程度与对人类指挥官的直接理解成反比。能够实现真正新颖和优越的战略成果的机制通常使这些解决方案不透明人类理解

与依靠学习和先天启发式方法(可能很容易偏见和其他功能障碍),高级AI系统可以运行紧急,纯粹用于性能的跨人类启发式方法,而不是人类解释性Alphago的 移动37反对李·塞多尔(Lee Sedol)完美地封装了这一点:最初是一个举动被解雇被人类的掌握是错误的,违反了传统的智慧,但事实证明是战略上的关键,最终是正确的游戏。违反直觉优化的能力扩展到更复杂的战略领域,如DeepMind的Alphastar所示掌握Starcraft II具有被认为是的策略难以想象的不寻常顶级人类球员

军事指挥官习惯于植根于熟悉的公理,历史类比和清晰的因果关系的解释,将发现这些这些很高优化AI生成的解决方案难的直观地掌握或相信。AI的外星逻辑与人类直觉之间的固有断开意味着,随着AI在战略上变得更加敏锐和真正创新,对人类指挥官的认知负担,以了解为什么决策是最佳的增长,超过了直觉人类理解的限制。

实际解释性限制

鉴于他们的战略性敏锐度以及AI创造力与对人类的可理解性之间的反比关系,先进的AI系统将以本质上无法解释,即在实时决策中将基本原理传达给人类用户的基本原理。

要求一个完全可读的人解释对于人工智能决定,尤其是对于最具创造力的见解 - 面对实用的限制。驱动AI决定的复杂计算与人解释可能不相容逻辑。AI可能会提供事后合理化出现合理且令人欣慰的是,但解释可能与AI的实际计算路径几乎没有相似之处。就像父母可以向孩子解释有关圣诞老人和驯鹿的令人满意但不准确的故事,AI可以为其决定提供解释,这是其决定性的解释,该决定可以为人类的决定提供解释,这是可见的,令人舒适的,令人舒适的,但根本上是与现实脱节的,但会与现实相关,但有可能对理解和误解的理解和误解的理解。

即使是善意解释的AI框架努力应对这种固有的张力。尽管提供有意义的解释之类的目标至关重要,但核心挑战在于确保解释准确性 - 解释确实反映了AI的复杂内部过程。对于高级,不透明的模型,验证这种准确性是非常困难的,通常是不可能的,即使准确,人类也可能难以区分有效的解释与被捏造的解释。此外,可以操纵或过度简化解释,以凭借忠诚而实现可理解的能力。在战时决策中,极端的压力和认知负荷使破译或验证复杂AI解释的详尽分析成为不现实的目标。

培训和教育人类用户成为更好的 怀疑论者AI不足以解决此问题。这种怀疑将与军队的深度紧张需要为了速度在决策中。一项2024年的卡内基捐赠研究模拟台湾危机成立领导者不愿意根据AI生成的建议采取行动,在审问系统逻辑时放慢了决策。一个愿景建议那是新的政变将是一种直觉的形式,即何时对AUS的AI充满信心以及何时质疑模型驱动的结果。如果AI系统的战略飞跃远远超出了人类的理解,那就这样政变不再可能了吗?

管理AI-Command困境

由于这些动态,指挥官将面临艰难的困境:接受并根据建议采取行动,他们不完全理解或直观地信任或拒绝这些判断和有殴打的风险由AI支持的对手。作为Erik Lin-Greenberg笔记,有效整合AI技术的军队将更好地应对威胁,而那些允许AI阻碍决策和运营的人可能会发现自己在战场上处于不利地位。人类心理学并在压力下做出决策。这意味着设计管理风险,交流的AI信心水平,并支持指挥官在面对AI的困惑建议时做出明智的选择。导航这一AI命令困境将是未来军事的核心成功

那是中心挑战,是:军事如何在没有解释性的情况下对先进的AI产生合理的信任?如果支持AI的战争与一些预测,人类的监督将无法与事件率保持同步。AI系统最具创造力的建议的解释将很难以速度验证。

因此,我们提出了一种监督机制,该机制适应了经过时间考验的军事原则来管理复杂的高风险系统,例如野战炮对射击数据的独立验证的需求。应用于AI,可以通过解释决策来生成合理的信任,而是通过验证多个独立开发的AIS的一致输出来生成。我们提出了通过共识和通过分歧进行校准的两个机器速度大门的边界监督,以便只有AI输出存活独立的交叉检查到达指挥官,结构化差异作为人为干预的触发因素。简单地说:没有校准门,陆上的监督会崩溃成橡胶冲压剂输出或将其限制在人类速度上 - 正是AI支持的战争旨在逃脱。

通过共识进行校准(一个例子合奏学习)使用多个独立的AI代理 - 也许具有不同的算法或培训数据分析相同的问题。就像炮兵任务仅在独立计算发射解决方案匹配公差,当不同的AI代理收敛于一致输出时,AI解决方案获得了合理的信任。

分歧校准反映了炮兵调整火过程,预计初始镜头会错过且与目标的差异为校正提供了必不可少的信息。在枪支中,不能通过假设第一轮将是完美的,而是通过观察错误,诊断其原因并进行迭代精炼目标来实现准确性,直到信心足够高到足以发射以发挥作用。同样,当多个AI代理产生时冲突建议,分歧本身成为一个诊断信号:它揭示了隐藏的偏见,数据异常或不可预测的模型行为,这些行为值得进行人类审查。信任不是从假设透明度进入AI的思想中出现的,而是从可观察到的可融合过程中的透明度出现。分歧在执行决策之前,故意浮出水面,审问和用于纠正课程。在这两种情况下,单个AIS的内部运作都比可观察到的多代理系统的可观察到可靠的效果重要:隐藏的错误和偏见是通过分歧浮出水面的,只有能够承受这种对抗性审查的建议才能以行动为由。

军方长期以来一直了解到,信任是通过结果获得的。格兰特大胆的维克斯堡竞选活动对谢尔曼来说似乎是鲁ck的,但谢尔曼认识并信任他的上司。最有影响力的AI策略经常会违背人类逻辑。培养对这些不透明甲壳的合理信任的关键是严格的校准和信心,而不是解释性。明天的复杂战场上的决定性优势要求美国军方开发校准方法,使指挥官能够自信,迅速执行AI生成的计划,即使他们的基本天才仍然是一个谜。

DBA的Andrew A. Hill是美国陆军战争学院的Brehon Burke Somervell总裁。

达斯汀·布莱尔(Dustin Blair)是一名陆军军官,目前是美国陆军网络司令部的火灾负责人。他是美国陆军战争学院的毕业生,多次部署到阿富汗和伊拉克。

本文中表达的观点是作者,不代表美国陆军网络司令部,美国陆军战争学院,美国陆军,国防部或美国政府的意见,政策或立场。

**请注意,作为房屋风格岩石战争直到美国国会法规更改该名称之前,美国国防部将不会使用其他名称。

图片:Midjourney

关于《外星甲骨文:军事决策与无法解释的AI》的评论


暂无评论

发表评论

摘要

文章讨论了军事领导人在信任先进的AI系统中面临的挑战,这些系统在战争期间提出了非常规策略。它突出了人类指挥官的传统思维与不透明但可能出色的AI系统建议之间的紧张关系。作者认为,由于AI的战略敏锐度,其创造力与人类的可理解性成反比,因此很难理解其决策背后的基本原理。他们提出了一种称为“通过共识进行校准”和“通过分歧进行校准”的方法,在这种方法中,通过验证多个独立AIS而不是解释性的一致输出来构建对AI的信任,而不是解释性,确保军事指挥官可以自信地对复杂的AI-Arive策略行事。