在内布拉斯加州奥马哈举行的一次会议上,负责美国核武库的空军上将安东尼·J·科顿强调了人工智能在核决策中的重要性。“我们还在开发人工智能或人工智能驱动的、以人为主导的决策支持工具,以确保我们的领导者能够应对复杂、时间敏感的场景,”棉花在一次演讲中说10 月 27 日。
Cotton 的演讲反映出其他所有行业都在热衷于采用人工智能。与硅谷一样,五角大楼也在大肆宣传人工智能的快速采用。但也像硅谷一样,美国军方严重依赖模糊的流行语和营销炒作,而没有解释计划如何使用这项新技术的具体细节。
科顿是美国战略空军司令部 (STRATCOM) 的负责人,该司令部是美国军队中负责处理国家核弹和洲际弹道导弹的部门。他在国防情报信息系统(DoDIIS)全球会议上发表讲话。这次会议为 IT 专家和美国军事领导人提供了一个聚会和交谈的机会。
正如首先报道的空军与太空部队杂志科顿的演讲发生在会议开幕当晚。按照军事标准,美国的核武器是古老的技术,五角大楼计划在未来几十年内花费 1.7 万亿美元对其进行升级。Cotton 表示,该项目的很大一部分将涉及 IT 基础设施的现代化,并将人工智能系统集成到核指挥和控制中。
– 为了保持竞争优势,我们正在探索所有可能的技术、技巧和方法,以协助实现[核指挥、控制和通信]能力的现代化。战略司令部和整个企业正在将我们的遗留[核指挥、控制和通信]系统升级为现代 IT 基础设施,”他说。
对于科顿来说,人工智能是美国核武器未来的关键。– 先进的人工智能和强大的数据分析能力提供决策优势并改善我们的威慑海报。信息技术和人工智能的优势可以更有效地整合常规能力和核能力,从而加强威慑。”他说。– 人工智能/机器学习能力可提供独特的威慑效果,补充传统军事力量。 –
科顿还称人工智能是“力量倍增器”,并多次表示,作为任何决策过程的一部分,人类始终会参与其中。“先进的系统可以更快、更有效地通知我们,但我们必须始终在循环中保持人为决策,”他说。
科顿的言论存在两个问题。第一,它含糊不清。美国核武器系统的许多工作方式,尤其是指挥和控制,都是秘密的。人工智能是一个营销术语,描述了一堆不同的系统。人工智能炒作和核保密的结合让人很难知道科顿到底在谈论什么。
“我认为可以肯定地说,他们在这里谈论的不是天网”,核保密专家、史蒂文斯理工学院教授亚历克斯·韦勒斯坦 (Alex Wellerstein) 告诉 404 Media,他指的是天网五角大楼资助的人工智能系统试图消灭人类终结者电影。
他非常明确地表示,他正在谈论的是分析和提供信息的系统,而不是发射导弹的系统。如果我们相信他的话,那么我们就可以忽略对正在做出核目标决策的人工智能的更常见的恐惧。但仍然存在其他恐惧和批评。”
韦勒斯坦指出,将句子中的“AI”替换为“计算机分析”会使它们变得平凡。“例如,想象一下这是一种算法,可以筛选大量卫星数据,以便分析导弹是否正在发射,以及根据其轨迹分析其可能的目的地,”他说。——如果使用机器学习等技术(例如,基于大量导弹发射情况的“训练”集进行大规模统计分析)来开发它,人们对此不会感到惊讶,这不一定比基于其他方法的类似算法更可怕。”
但使用人工智能来分析和整理军事数据仍然存在一些问题。我们正在谈论核武器。科顿所说的最重要的决定是人类决定是否发射核武器。这个决定可能会不可逆转地改变地球上的生命,尽管科顿很清楚人类会做出这样的决定,但他希望更快地做出决定,并得到人工智能系统的帮助。
美国拥有装备核的隐形潜艇、遍布全国的发射井中的洲际弹道导弹以及准备投掷核弹的轰炸机。“威慑”是指立即准备好大量核武器的做法。这个想法是,中国、俄罗斯或其他核装备国家不会向美国发射导弹,因为如果他们这样做,我们就会向他们发射所有导弹。
但只有当负责按下核武器发射按钮的人掌握有关正在发生的事情的可靠情报时,威慑才能发挥作用。过去 50 年来,每次核大国几乎按下按钮都是因为机器发生故障,人类了解这种故障,并且决定不按下按钮。
1956 年,NORAD 误解了一群天鹅作为一架身份不明的苏联轰炸机飞越土耳其上空。1960年,雷达设备认为挪威上空升起的月亮是苏联的全面导弹袭击。一年后,中继站故障美国的核力量保持高度戒备,认为这意味着袭击。1967年太阳耀斑击中 NORAD 雷达出现故障。分析人士最初认为这是苏联的一次干扰尝试。
这样的事还有很多很多。在许多情况下,人类分析数据并发现机器出现了故障。人类把我们从悬崖边拉了回来。“他们并不总是知道错误的根源,但他们了解系统的错误性,事后人们能够诊断错误的具体原因(例如,光以有趣的方式从云层反射,损坏的芯片等),这些知识随后成为后来系统读数解释方式的一部分,”韦勒斯坦说。
将人工智能纳入指挥和控制的问题之一是它是一个黑匣子。“在这种情况下,这种事情可能发生吗?有可能——我们可以描述机器学习错误的问题(幻觉,或奇怪的“中毒”效应,有时会出现在图像生成器中,让他们“着迷”)“以特定的形式),即使我们不完全理解它们为什么会发生,”他说。“人们希望在这种情况下,不仅要对可能出现的归因错误进行严格的测试,而且要让操作员和实际做出决策的人非常熟悉它们。”
人工智能素养是一个大问题。正如科顿和其他人所承诺的那样,随着这些系统被集成到美国的国防系统中,他们还必须确保处理这些系统的军事专业人员了解它们。他们必须知道如何寻找错误。
科顿表示,找到这些人比五角大楼面临的任何其他问题都困难。– 寻找能够将人工智能/机器学习融入当今战斗的人才需要独特的专业知识和资金。这比整合过去的技术进步要复杂得多,”他说。“我们无法与行业工资竞争来维持人员。但我们工作的性质,以及拥有只有美国政府才能执行的最先进的任务能力,本身就是一种留住人才的工具。”
关于作者
马修·高尔特 (Matthew Gault) 是一位撰写怪异科技、核战争和电子游戏领域的作家。他曾为路透社、Motherboard 和纽约时报工作。