英语轻松读发新版了,欢迎下载、更新

命令与控制和人工智能,天哪!– 彼得罗夫定律案例 –   |亚利桑那州立大学的小战争杂志

2025-01-13 06:03:15 英文原文

作者:Christopher J. Heatherly

战争故事

9月26日th,1983 年。苏联和美利坚合众国之间的冷战达到顶峰。分配到苏联防空部队的斯坦尼斯拉夫·彼得罗夫中校在莫斯科郊外的一个核攻击预警掩体前站岗。他的转变开始时与其他转变一样,但结束时彼得罗夫确实拯救了世界免遭毁灭。在那决定命运的一天,苏联预警系统将反射的阳光误认为是五枚来袭的美国核导弹。苏联军事条令要求值班军官将发射报告向上级传达,而上级又与苏联总参谋部。斯坦尼斯拉夫主动决定不向上级通报,因为他知道美国不会以如此战略上无关紧要的先发打击来发动世界大战。他将信息保留在他的水平上,那一刻过去了,世界得救了一个 

让我们考虑一下另一种情况。苏联利用比人类反应和决策速度更快的人工智能(AI)平台作为其预警系统的一部分。人工智能平台收到同样的虚假报告,但得出结论该信息是事实,并将该信息转发给苏联总参谋部。苏联总参谋部距离预警系统的日常活动太远,无法识别这个错误。苏联以其核武库全力回应。美国和北约预警系统检测到苏联大规模导弹发射。按照既定的战争计划,西方以核反击作为回应。我们所知道的人类生命已不复存在。 一个 有人可能会提出反驳,认为无论有没有人工智能的帮助,现有的核武器协议都可以防止错误的武器发射场景。

然而,历史记录却讲述了一个截然不同、更可怕的故事。至少在九个已知事件,世界来到了核末日的边缘。按理说,我们将来也会遇到类似的情况,需要快速分析和做出关键决策。 一个 欢迎来到革命

纵观历史,军事专业人士研究了以前的冲突,为下一场战争准备招募、训练和资源士兵。

虽然这些变化通常是渐进的,但有时它们会导致战争的演变。过去的演变包括火药的引入,大大降低了装甲和固定工事的防御价值,或者在第二次世界大战期间从战列舰到航空母舰的转变,使海战现代化。极少数情况下,发展如此激进以至于超越了进化创建一个革命军事事务(RMA)不可逆转地改变战争。可以说,过去最具影响力的 RMA 来自核武器的发展和后来的扩散,赋予人类在全球范围内立即毁灭自己的能力。重申一下,自从奥本海默从瓶子里释放原子精灵以来,战争及其影响从未改变过。 一个 人工智能是军事领域的下一次革命。

人工智能将对战争的战术、作战和战略层面的军事行动的各个方面产生积极或消极的影响。人工智能对战争的改变将超过火力、航空、大规模生产和核武器所带来的改变的总和。虽然人工智能这个概念还太新生,无法全面列出其对国家或非国家行为者的潜在用途,但我们可以自信地预测一些应用。人工智能将在数据分析、软件和应用程序开发、后勤以及各级战争的瞄准方面发挥重要作用。更具体地说,在战略和运营层面,人工智能将成为心理战、虚假信息策略和公共事务信息传递的主要工具。在“泥泞的靴子”战斗战术层面,人工智能将协助机组人员使用武器或设置障碍物、火力规划、路线选择和其他基本的士兵任务。 一个 随着人工智能接近人类的批判性思维能力,将不可避免地将其纳入决策中,以增强或彻底取代自该隐杀死亚伯以来使用的“循环中的人”控制机制。

诚然,人工智能在决策速度、数据聚合、甚至减轻领导层的道德负担方面提供了诱人的优势。军事领导人必须认识到在放弃指挥或控制功能之前将人工智能引入决策所固有的许多危险。最终,使用致命武力的决策权必须保留在人类的思想和手中。 一个 将人工智能融入军事行动

美国军方度过21月初

英石世纪在全球反恐战争 (GWOT) 的框架下,在伊拉克、阿富汗和其他地方开展反叛乱 (COIN) 行动。随着这些战役的全面停止,美国军队再次回归其进行大规模地面作战行动(LSGCO)的核心使命。按理说,美国、其盟国和竞争对手将对美国在 COIN 和 LSGCO 中的军事能力的有效性进行同样经过时间考验的分析。这些研究的共同目标是保持相对于同等或接近同等竞争对手的决定性优势。在美国结构中,分析是通过检查条令、组织、培训、材料、领导力和教育、人员和设施(DOTMLPF)来进行的。这些研究将包括对人工智能的检查,以最好地评估其在整个冲突范围内的适用性——否则的假设是愚蠢的。如果说历史有什么教训的话,那就是它经常证明,不适应就会导致社会灭亡。仍有待回答的问题有两个:人工智能可以在哪些方面为任务成功做出贡献,以及人工智能可以在多大程度上帮助军事领导人?一个 

为了最好地回答这个问题,有必要回顾一下命令和控制的双重概念。这 控制科学最好的定义是用于练习指挥艺术的流程和设备。这指挥艺术是指挥官领导团队的过程。关于指挥和控制的讨论构成了华盛顿州立大学陆军预备役军官训练团 (ROTC) 系主任所使用的军事科学课程的重要组成部分。在这些课程中,学员被分配了两项任务:一个 

  1. 完成一系列简单的数学问题。一个 
  2. 画出蒙娜丽莎。 一个 第一项任务是数学,它很容易理解,因为这门学科受经过验证的逻辑、原则和规则的约束。

通过类似的规则驱动流程、清单和标准操作程序 (SOP) 实现控制功能的科学。控制手段,例如条令作战命令或战术无线电使用,很容易教授,也很容易保留。人工智能通过操作软件理解控制,并且由于其更快地处理来自更多数据源的信息的卓越能力,将超越人类。例如,协助情报、监视、目标获取、侦察(ISTAR)周期的人工智能平台将更有效地搜索整个大型情报企业的数据库,以交叉引用报告、更新收集计划、提供早期预警指示或在特定情况下向单位发出警报在战场上满足标准。在像国际象棋这样的游戏中,规则是明确定义和执行的,人工智能具有明显的优势。 一个 然而,战争并不是一件合乎逻辑的事情。

战争本质上是混乱、肮脏的,而且常常不合逻辑。由于每次军事行动中都存在不确定性和动态的作战环境,战斗变得更加复杂,普鲁士军事理论家卡尔·冯·克劳塞维茨将其称为“战争的迷雾和摩擦”。这需要多年的训练、教育、以及掌握正确军事决策所需的领导技能的经验。当前的人工智能系统,无论其复杂程度如何,都无法与人类独特的指挥能力相媲美——尤其是在存在重大信息差距的情况下。难怪画《蒙娜丽莎》给学员们带来了更大的挑战。 一个 如果使用得当,人工智能将完成或增强控制功能,同时为军事领导人提供更多的时间来思考或专注于关键的指挥任务。一个 

提案我们可以寻求哪些指导方针来最好地将人工智能融入军事行动,以利用其优势来对抗我们的竞争对手?

科幻小说或许能指明道路。

1942 年,作家艾萨克·阿西莫夫在一篇题为《机器人三定律》的短篇小说中提出了现在著名的“机器人三定律”。逃避。在他们的原始版本中,三定律听写:一个 

  1. 机器人不得伤害人类,或因不作为而允许人类受到伤害。一个 
  2. 机器人必须服从人类发出的命令,除非这些命令与第一定律相冲突。一个 
  3. 机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。一个 一个 

《学说》要求制定一项新的法律,取代阿西莫夫之前的著作,以斯坦尼斯拉夫·彼得罗夫的历史时刻为基础,解释人工智能在军事决策中的未来应用。该提案结合了人工智能在战争中可能带来的好处,同时避免了与其使用相关的潜在负面后果。 一个 彼得罗夫定律

– 保留或夺走生命的最终决定必须由人类独特的理性化、同理心和理解作为或不作为后果的能力来保障。 一个 需要明确的是,本文并不认为军事领导人应该完全避开人工智能。

人工智能将在未来陆地、海洋、空中、太空、信息和网络领域的作战中发挥重要作用,即使不是潜在的决定性作用。人工智能作为控制工具提供了最大的价值,为领导者提供了一系列经过分析的选项,以增强人类对给定问题集得出的结论。相反,将指挥职能直接交到“人工智能手中”,可以免除指挥官做出决策的后果,从而使领导者有可能逃避其角色中固有的关键责任。坦率地说,士兵应该为自杀的决定而挣扎。一个 

即使作为控制工具,当考虑领导者根据人工智能系统的建议做出决策时的潜在后果时,人工智能集成是最后一个问题。例如,人工智能工具为战术场景中的几种可能结果分配概率值。受支持的领导者会考虑所有选项并,在运用他们的经验、培训和教育之后,选择人工智能系统认为发生可能性较小的结果。他们的政治或军事上级会支持这一选择吗?人们希望,如果不支持这些领导人,将不可避免地导致人工智能得出的百分比拥有最终决定权的情况,而人类只是在橡皮图章上盖章决定。一个 

结论

毫无疑问,人工智能将彻底改变从和平到全面战争的整个冲突范围。它实现这一目标的程度将完全取决于它融入军事决策的方式。领导者应该将人工智能作为一种告知而非取代其指挥职责的手段。彼得罗夫定律将确保决策仍然是人类领导的唯一职责。 一个 

关于《命令与控制和人工智能,天哪!– 彼得罗夫定律案例 –   |亚利桑那州立大学的小战争杂志》的评论


暂无评论

发表评论

摘要

“彼得罗夫定律”的提议强调了将人工智能(AI)融入军事行动的关键伦理和实践边界。以下是需要考虑的一些关键点:### 要点1. **人类决策的首要地位**:- 人工智能可以提供有价值的见解、数据分析和战略选择,但不应凌驾于人类指挥官的最终决策权之上。- 指挥官必须对采取可能导致生命损失或重大后果的行动承担最终责任。2. **道德考虑**:- 人工智能缺乏理解战争中复杂的道德困境所需的道德推理和同理心。- 人类领导者对他们的决策负责,包括根据道德原则而不是仅仅根据数据驱动的概率做出艰难的选择。3. **避免过度依赖**:- 如果领导者知道系统具有很高的准确率,他们可能会过度依赖人工智能建议。- 这种过度依赖可能导致军事人员自满并减少批判性思维,从而削弱他们有效处理不可预见情况的能力。4. **政治和道义支持**:- 必须支持领导者在必要时做出偏离人工智能预测的决策。- 如果没有这种支持,决策文化可能会转向完全遵循自动化系统。5. **平衡整合**:- 人工智能应通过提供强大的数据分析、预测建模和实时态势感知来增强人类能力。- 然而,人类必须保持对关键决策的监督和最终权威。### 实际实施1. **培训和教育**:- 领导者需要了解人工智能系统的局限性,并接受道德决策过程的培训。- 定期训练练习应模拟尽管人工智能工具的数据存在冲突,但人类判断至关重要的场景。2. **透明度和问责制**:- 确保人工智能决策透明,并对自动化系统提供的建议提供清晰的解释。- 对决策过程中人工智能的使用以及偏离这些建议的行为建立明确的责任界限。3. **文化转变**:- 培育一种重视人类判断力和技术进步的军事文化。- 鼓励批判性思维和道德推理,以防止过度依赖自动化系统。4. **政策制定**:- 制定政策,在决策过程中强制进行人类监督,特别是那些涉及生死攸关的决策的过程。- 根据具体情况制定何时应遵循人工智能建议以及何时应提出挑战的指南。5. **测试和评估**:- 持续测试和评估人工智能系统的集成,以确保它们不会削弱人类的领导能力。- 定期进行审查,评估现有政策是否足够或需要调整以应对新出现的挑战。### 结论彼得罗夫定律强调了在军事环境中维护人类决策的至关重要性,在军事环境中,伦理推理和道德判断至关重要。通过确保人工智能成为增强人类能力而不是完全取代人类能力的工具,我们可以利用先进技术的优势,同时保持各级指挥的责任和义务。这种方法不仅可以防止潜在的滥用或过度依赖人工智能,而且还维护了战争中必要的道德标准。