作者:Sara Goudarzi
当前关于人工智能对战争影响的辩论忽视了关键的政治、操作和规范性考量,这些因素表明人工智能可能不会产生其支持者所声称的革命性影响。图片:TSViPhoto via Adobe Stock
自从生成式人工智能出现以来,学者们就一直在猜测这项技术将如何影响战争的性质,即便不是其本质。战场和作战室中AI的前景令学者们着迷。他们将AI形容为“变革性的,” “革命性的”,和“危险的”,尤其考虑到涉及美国和中国或俄罗斯的大国战争的潜在可能性。在大国战争的背景下,对手军事能力相当的情况下,学者们认为人工智能是不可或缺的要素绝对必要以确保胜利。这一评估基于对人工智能对于“传感器到射手”时间线的假设影响的考量,哪一段原文中提到了具体的“传感器到射手”时间线概念的重要性以及它与AI技术发展之间的关联。为了更准确地翻译整句,请提供完整的句子或上下文以便更好地理解其含义和结构。根据已有部分直接翻译如下: 绝对必要以确保胜利。这一评估基于对人工智能对于“传感器到射手”时间线的假设影响的考量,指的是在获取和打击目标的时间间隔内。通过采用人工智能,或者说根据这一论点,军队可以缩短从传感器到射手的时间线,并保持对同等对手的致命优势。
虽然可以理解,但这种推理可能会误导军事现代化、战备和作战。专家警告说,军队正面临一个“顿悟”或“奥本海默“此刻,回溯到二战期间开发原子弹的时代,这种描述歪曲了人工智能在战争中的优缺点。它鼓励人们认为政策制定者以及国防官员遵循所谓由人工智能赋能战争的“雏菊路径”,这一概念在美国军方的文件中有所规定。第三次偏移效应这种愿景是由过度的野心推动的,旨在实现由人工智能赋能的战争战略。预测事项以及通过某种形式的人工智能增强的新兴能力的过度决定化,而不是严格的实证方法分析及其在所有(战术、操作和战略)层次上的影响。
当前关于军事人工智能的辩论主要由“技术宅男生群体“以及其他从军事采用人工智能能力中获益颇丰的企业家。尽管他们在讨论中有很大的影响力,但这些科技行业人士几乎没有实战经验,这意味着他们无法通过亲身经历来进一步证明人工智能正在改变战争的本质这一观点(即便不是在性质上)。相反,他们利用自己令人印象深刻的商业成功,在一些高知名度的媒体平台上发表评论文章,以影响新能力开发模式的发展。期刊著名的安全会议上的公开讲话会议以及在顶级会议上的演讲和展示大学.
分析师在探索人工智能对战争的影响时,例如在冲突期间,加沙, 利比亚,和 乌克兰,他们强调有限的——和值得商榷的—它的用法示例,美化;装饰;润色其影响,混为一谈利用人工智能提供的组织改进技术和绘制概括化关于未来战争。可能人工智能赋能的技术,如致命自主武器系统或“杀手机器人”,有朝一日会极大地改变战争。然而当前的辩论人工智能对战争的影响折扣关键的政治、运营和规范性考量,这些因素暗示AI可能不具备革命性的其支持者所宣称的影响,至少目前还没有。正如建议的那样,以色列以及美国的在加沙和乌克兰使用人工智能支持的决策系统的情况下,有一个更为合理的替代方案。除了使能认知战很可能会出现人工智能使军事部门能够在作战功能之间优化工作流程的情况,特别是在以下方面:智能和操纵; maneuver(机动,战术 maneuvers)战术行动; maneuvers(演习)军事演习这将增强态势感知;提高效率,特别是在人力资源方面;并缩短行动方案开发的时间线。
全球各国的军队正处于时刻或者战略转折点就为未来的冲突做准备而言。但这并非出于学者们通常所假设的原因。我们的研究显示,三个相关的因素结合在一起塑造了这一局面。炒作围绕军事AI,告知了由人工智能驱动的战争的诱人之路。首先,这条诱人的道路是由一个新的以商业服务提供商依赖为基础的军事工业综合体的出现铺就的。其次,这一新的国防采购过程是因果关系的一部分,这是一个叙述暗示全球人工智能军备竞赛,这激励了学者们折扣人工智能战争的规范性影响。最后,尽管分析人士假设士兵将会信任在人类与机器协同作战中发挥核心作用的人工智能,并不能保证信任。
什么是人工智能以及它不是什么。自动化、自主性和人工智能常常是已使用过的互换但是错误地使用。自动化指的是由机器执行的任务的常规化,例如自动订购耗尽类别的军用物资,但总体上仍然有人类监督。自主性则调节了学位人类对机器执行的任务进行监督的情况,使得人类处于循环中、进入循环或脱离循环。当人类处于循环中时,他们锻炼最终控制机器的能力,就像当前一类“终极”所描述的那样。传统的例如MQ-9死神无人机。当人类处于决策回路中时,他们会预先将某些决定委托给机器,学者们辩论在核指挥和控制方面。当人类脱离循环时,他们将控制权外包给机器,导致了一种新的“类”杀手机器人“能够识别、追踪和打击目标。因此,自动化和自主性是基于协议的功能,在很大程度上保留了一定的人类监督,考虑到人类天生的特性,这种监督通常是非常高的。”怀疑主义机器。
尽管人工智能可能被应用于自动化和自主系统中,但这些系统的功能、目的和范围是不同的首先,AI代表数据、软件和计算能力的整合,这些无法简化为基于协议的功能。同样,人工智能是设计的执行更高层次的认知任务,如推理,这些任务通常只为人类保留。最后,观察者常常注意到特权一种狭窄(弱)而非生成式(强)的人工智能形式。后者包括生成式的预训练变换器,如在ChatGPT中使用的那些。这些算法堆叠起来创建人工神经网络,以提高基于代表性数据的概率推理能力,从而对物体进行分类和预测结果,这是人工智能赋能战争的真实“石油”。狭窄的AI如果不受到限制是可定制的。它被专门设计用于有限的任务,例如根据训练有素的代表性数据优化目标工作流程。在这两种情况下,人工智能所提供的只是对未来预期的人类行为的预测。人工智无法洞察未来或塑造未来。
由新的军民综合体铺就的人工智能战争之路充满了诱惑。各国通常获取军事技术,如无人机,出于与供应、需求和地位考虑相关的理由。
如果各国具有技术财力;能力,他们可以制造和出口军事能力以补充其国内生产总值(GDP),GDP是衡量整体经济活动的指标。在联盟行动的背景下,这体现了各国的首选的冷战后在国外使用武力的态度而言,外国军事销售也增强了互操作性跨越各国的启用分担负担。假设各国拥有财政资源和吸收能力,即将新型技术整合到其军队中的技术水平能力,它们也可能购买新技术来弥补感知到的能力差距。即使对于缺乏满足军队需求的技术水平的国家而言,它们仍然可能购买新型技术来信号与其它国家保持一致。虽然这些国防采购方法的意图可能不同,但它们在响应军事领导人提出的各项要求方面是统一的。
人工智能战争的政经状况是不同的。它颠覆了这些国防采购流程,使得行业驱动而非响应军队对新能力的需求。这种方法反映了美国的历史偏好基于“自下而上”的技术标准自由放任主義以企业为主导的战略,强调领先部门创新所预期的经济优势。
这些行业驱动力包括由风险资本家资助的企业,如Anduril、Black Cape公司、Clarifai、CrowdAI和ScaleAI;老牌国防承包商如AWS、ECS Federal、IBM、Maxar、Microsoft、Palantir、雷神公司和 Sierra Nevada 公司;以及像埃隆·马斯克、帕尔默·卢基和埃里克·施密特这样的商业巨头。例如,施密特争论“利润可以用来收购新公司,增强国防初创企业构建美国武器未来不同格局的激励结构。”问题在于,正如学者特雷尔·卡弗和劳拉·利顿指出,备注这样的财富积累可以推动国防采购过程“超越国家安全和爱国主义自豪感的正当化叙述”。在其中一个显眼的例子中示例Luckey,Anduril的创始人,承诺要“拯救西方文明……同时我们每年赚取数十亿甚至上百亿美元。”
同样,马斯克的星链使用低地球轨道卫星为军队在远征和有争议环境中提供可靠的通信。在其与俄罗斯战争的早期,马斯克决定如果乌克兰可以使用星链卫星网络,从而根据该网络塑造针对俄罗斯的军事行动的话他的危机升级的担忧。施密特的新创业公司,白鹳(之前称为Swift Beat),旨在开发完全自主的无人机。施密特利用他此前担任人工智能国家安全委员会主席和国防创新委员会主任的角色,也构建了新的军民综合体,在这个体系中,商业领袖正在塑造战争的未来方向,尽管他们缺乏军事经验。
乍一看,军工复合体似乎反映了军队更广泛的情况切换面向军民两用技术。自冷战以来,军事部门越来越多地获取商用货架产品能力,这些产品的成本较低,尽管相比军用级别的技术来说更为易耗。通过这种方式,军事部门寻求在弥补能力缺口的同时,在其他领域节约成本,包括培训和开发先进的战斗机等精密技术。然而,购买两用能力与军工复合体之间存在关键差异。
尽管军方对“开放架构”以部署能力感兴趣,但军事工业综合体却因采购专有系统而形成,这些系统可能阻碍这种即插即用的现代化方式。研究也显示建议有些这些专有系统是基于可疑的不接近真实运行环境的测试和实验,这意味着声称的技术成熟度可能被夸大。这对AI赋能技术尤其令人担忧。这些能力需要大量数据支持,这也是为什么白鹳在波兰设立了一个卫星校区以获取乌克兰冲突的数据。解决方案是合成的数据。然而,现有研究建议合成数据本身也存在偏见。
反对双重用途能力,AI赋能的战争之路也受到一个军事工业综合体的塑造,该综合体提供技术作战解决方案作为服务,这意味着它们往往不响应经过验证的军事需求。因此,公司采取了分散投资的风险策略,投入数十亿美元用于端到端的AI赋能技术,他们假设军队将需要购买这些技术以在未来的冲突中维持对对手的致命优势。这也意味着企业,尤其是他们的软件工程师被称作现场工程师,以史无前例的程度嵌入军事组织中,可能会混淆合法的使用武力,至少对于某些人而言批评家.
军事工业复合体的一个例子是美国陆军第18空降军的实验带有AI增强的战争。第18空降军进行了一系列名为的训练演习,叫红龙建立一个称为人工智能决策支持系统的体系Maven智能系统那增强了在乌克兰行动的智能支持。根据最近的一项说法报告,Maven智能系统由于其开发过程中所展现出的灵活性和速度而令人感兴趣,并且在开发安全运维循环中,众多软件和服务提供商的人工智能参与也值得一提。首先“关于商业服务提供商。”
由人工智能驱动的战争之路可能忽视了冲突的规范性影响。由人工智能驱动的战争之路也是人们感知到的人工智能武器的一种因果关系后果比赛在中国、俄罗斯和美国之间,这些国家为了相互获得军事优势而急剧扩大国防开支。大多数支持人工智能战争的人声称,这些大国正试图获取一种“先行者优势具有AI增强功能的优势。施密特与哈佛教授格雷厄姆·艾利森最近发表了一篇报告“对中国迅速的进步以及它有可能在十年内超越美国在人工智能应用方面的前景发出警告。”
这一叙述基于一个假设,即对这些技术的垄断将带来经济收益,从而增强军事力量并塑造全球权力平衡。俄罗斯总统弗拉基米尔·普京争论了谁掌握了人工智能的发展就将主宰世界;习近平主席意图中国到2030年超越美国成为世界人工智能发展的领导者;而美国则是超出预算支出其他国家的人工智能发展。例如,美国参议员罗杰·威克最近介绍了一项增加国防开支至GDP的5%,从而与2009年阿富汗和伊拉克战争高峰期的水平相当。此外,美国的调查研究显示,支持人工智能赋能战争的人群中包括了公共的和军事受到全球感知到的人工智能军备竞赛的强烈影响。
这一视角对法律、道德和伦理方面的考量具有影响。形状各国使用武力的情况,学者在描述未来战争时会不同程度地强调这一点。怀疑论者警惕人工智能战争将使人类失去技能并取代其自主性,导致包括危机升级、平民伤亡以及对这些结果的责任和问责缺口在内的意外后果。倡导者假设AI将减少确认偏误,即操作员会忽视其早期评估的反驳证据,因此增强完全自主能力(如杀手机器人)的感知准确性。仍有一些人,尽管属于少数派,索赔这样的规范性关切是分散注意力的行为,在军事优势方面做出牺牲,却只是为了推动全球负责任使用人工智能的规范建设,而这些规范各国本就不会遵守。
这些职位影响公众的看法合法的战争中的行为以不同的方式开展,这对海外行动的持久性有影响。如果被采纳,研究表明第一和第三种观点可能会削弱增强人工智能的新型战场能力的合法性认知。Carver 和 Lyddon 进一步指出观察这样的规范性考虑往往“遭受无情的边缘化,最多只是勉强容忍,并且成为批评者们刻意同化的目标。”另一方面,第二种观点则可能会做相反的事情。现有研究显示这种高度精确性,尤其是在致命能力被使用时,将有利于塑造公众对人工智能技术所进行的操作合法性的认知。
士兵不相信人工智能。军事工业综合体以及鼓吹人工智能军备竞赛的叙事,假设士兵会信任人机协同作战。在最近与施密特合作撰写的一篇评论文章中,曾任美国联合参谋部主席的马克·米利认为,高谈阔论“士兵们可以在办公室里喝咖啡,监视远离战场的屏幕,因为一个AI系统管理着各种机器人作战机器。”尽管有这种乐观的预测,但事实上不清楚什么塑造了士兵对人工智能的信任,从而鼓励他们克服对机器的固有怀疑。为了帮助士兵了解由人工智能支持的战争,我们的研究解决了两个关键问题。首先,士兵是否会信任用于不同目的(战术和战略)并具有不同程度的人机监督的人工智能?其次,哪些因素影响士兵对机器的信任?
这些问题可以通过在美国军队中进行调查实验来研究,从而积累对士兵对人工智能态度的极为罕见的见解。通过这些调查可以了解到:精英在美国的军事学院进行调查,我们对未来的将军和海军上将进行了问卷调查,他们将负责在战争中整合人工智能。我们从中获得了宝贵见解。同样地,我们也对分配给后备军官训练团的学员进行了调查,以评估代际差异是否以及在多大程度上影响了士兵对人工智能的信任。我们的研究结果表明,士兵对人工智能的信任并非理所当然。此外,我们发现信任是复杂且多维度的。重要的是,这些发现贯穿整个军衔等级。
首先,高级军官不要信任增强型人工智能能力。在他们确实表现出对机器更高的信任程度的情况下,这种信任会受到机器使用方式的影响,无论是战场上的应用还是指挥室内的操作,以及人类监督的程度如何。高级军官对于用于战略决策并有人类监督的AI最不怀疑,尽管在这种条件下他们的信任水平仍然很差。这种怀疑态度因各级人员之间的代际差异而加剧。学员们虽然常常提及称为“数字原住民”,也维护一种保守的关于适当使用和限制AI的理解。与高级军官相比,他们对用于战略层面讨论并有人类控制的AI技术表现出更多的信任。
其次,对机器的信任是由一组精确调整的考量因素塑造而成,包括技术规格、感知效果和监管监督。用于非致命目的的AI使用,并且具有更高的精确度和一定程度的人类控制,积极地塑造了士兵们的信任。士兵们道德信仰中的平衡对平民和士兵造成的伤害与任务成功的尝试也正面影响着信任。确实,这些相互冲突的道德逻辑在军事态度中对与AI合作的信任产生了最大的影响。国际监督也增加了对AI的信任,表明继续制定规范的重要性。负责的在军事中使用人工智能。尽管这些结果与学员的一致,但这些受训者也更容忍假阳性或目标误识,这表明他们更愿意接受平民伤亡。这可能反映了学员对操作失误后果的有限接触。对于高级军官和受训者而言,信任进一步受到自主性和致命性之间相互作用的影响,完全自主且具备致命能力的人工智能系统会减少信任。
展望战争的未来。仍然可以肯定的是,人工智能将以独特的方式塑造未来的战争。如上所述,为商业应用开发的人工智能正在重新排列国防采购流程。在以前的技术创新时期,诸如全球定位系统和互联网之类的防御系统被用于民用目的。短期内,或者在未来几年内大致上对齐根据美国国防部的“未来年度国防计划”,商业人工智能应用很可能会被采用以用于军事用途,而不是专门为军事用途开发。审视商业领域可以提供关于人工智能如何可能被轻易地用于军事目的的见解,特别是在认知战和情报与机动方面。
使用AI来创建新颖的文字、图像和视频可能会加剧以下挑战:认知战这种非致命战争的形式解释了对手信念的社会工程,其总体意图是影响他们的防御优先级、军事准备和作战行动。通过这种方式,各国将试图利用人工智能来制造 misinformation 和 disinformation(误导信息和虚假信息),旨在迷惑和欺骗对手,并且贯穿从和平到战争的竞争全过程。
在竞争中,各国可能会利用人工智能来激化对手的社会、政治和经济不满情绪,从而使对方的国防规划和军事准备陷入日益严重的党派之争、社会动荡甚至政治暴力之中。俄罗斯曾使用人工智能误导和欺骗美国人在此期间2020美国总统选举,据报道他试图再次这样做期间2024选举。这些操作旨在加剧民主党和共和党之间的党派分歧,并使民主制度丧失合法性,这可能会影响军事准备状态。不一致的或者停滞不前美国国会授权的国防资金损害了现代化的时间表和政治化军事方面的影响涉及招募和保留人才。确实,感知到的“觉醒意识美国军队的征兵人数出现了半个世纪以来最严重的下滑,这对全志愿军造成了威胁。
在武装冲突中,由人工智能生成的心理战所造成的混乱将威胁到及时决策所需的态势感知。在最坏的情况下,这可能导致误识别友军,导致兄弟杀弟的行为;手足相残它也可能破裂联盟由于怀疑陷害或抛弃的情形,播种在行动区域引发社会动荡——从而将注意力、人员和资源转移到较低优先级的任务上——或者煽动国内抗议,这可以削弱公众将要求在国外进行长期军事行动。各国还可以利用人工智能误导和欺骗服役人员的家属,最终影响士兵的情绪和战斗力。根据最近的一份报告学习乌克兰人正在使用 meme(这些简单、引人注目且讽刺性的卡通)来制造俄罗斯人的困惑,并加剧特别是被征召入伍的俄罗斯人的分歧。
另一方面,人工智能很可能将有助于军事规划,特别是情报和机动。通过在军事数据集上训练的人工智能增强的算法将极大地提高分析质量,并加速支持现代军事行动的基础工作生产。这些算法能够利用现有的地理和水文数据快速进行地形分析,以促进机动计划并预测已知、可能和疑似敌人的位置。通过对敌人理论、地形和当前操作的数据进行分析,这些算法能够创建态势模板、推导侦察目标和机动情报收集资产,并提供最佳打击解决方案。对军事决策的分析支持加速将呈指数级提高杀伤力速度,并且在讨论致命自主系统时无需伴随伦理反思即可采用。事实上,以色列已经已使用在加沙地带使用AI应用程序来预测涉嫌哈马斯恐怖分子的位置,判断某栋建筑内可能存在涉嫌哈马斯的恐怖分子的可能性,或者某个据点是否有涉嫌哈马斯的恐怖分子进入,从而大大加快了目标锁定的速度。
在更遥远的未来,随着人工智能的发展成熟,军事操作将进一步委托给自主系统。这通常被称为自主武器系统的使用。弥诺陶洛斯战争,使得在战斗和其他领域中机器控制人类成为可能,这可以从地面士兵巡逻到海洋上的战舰编队再到空中战斗机的阵型。为了实现这一由人工智能赋能的战争愿景,军队将经历彻底的组织重组。除了其他变化外,新的职业领域将会出现,不同的技能集将被重视,指挥与控制的角色需要重新构想,并且集中化可能会取代去中心化成为指导原则。正如施密特和其他企业家所强调的那样,应对这些战略性的组织挑战对于军队而言和战场上的技术集成一样重要。为了管理这一转型,专家们必须走出由人工智能赋能战争的康庄大道,更好地评估其优点。和新技术的局限性。