掌握人机作战团队——岩石上的战争

2024-11-08 08:32:09 英文原文

作者:James Ryseff

许多美国高级军事指挥官预测,掌握人类与能力日益增强的人工智能算法和自主机器之间的团队合作将为未来的作战人员提供重要的优势。指出“掌握人机协作的军队将在战争中拥有关键优势。”同样,陆军未来司令部司令相信人类和机器的融合将导致军事行动发生巨大的演变,甚至可能是一场革命。

关于人机团队的大多数讨论都集中在使用机器来代替人类参加战斗。未来陆军学说希望避免交易 —第一次接触时的血液– 使用自主机器执行危险的侦察任务或突破行动。探索协同作战飞机用途的兵棋游戏玩家经常将其用作诱饵、干扰器、主动发射器和其他任务冒着损失的风险在竞争激烈的环境中。同样,海军对无人舰艇和飞机的渴望往往涉及危险活动,例如运送物资在有争议的环境中或地雷对抗行动。这些概念旨在通过使用将人类从战场上最危险的部分转移出来。无所畏惧、不知疲倦的机器在他们的地方。

虽然降低美国军人在战斗中面临的风险始终是一个有价值的目标,但简单地用机器人代替人类执行相同的任务不会给未来战争带来革命性的变化。相反,如果军事领导人希望在战场上取得巨大进步,人机团队将需要学习如何有效地利用其成员的互补技能。

为了实现这一目标,军方的人机协作方法应从三个方面进行改变。首先,人机团队中人的训练应该集中在本能大脑而不是推理大脑上。尝试让人工智能算法解释它们的推理结果低效的人机团队。相反,利用人们与生俱来的能力,无意识地识别行为模式似乎产生了优越的结果。其次,军方应确保人工智能开发人员不会简单地选择最容易实现的目标来提高模型的准确性。相反,他们应该开发具有以下特点的产品:补充– 人机团队内的技能不重复。最后,我们应该避免被人工智能的炒作淹没。尽管人工智能研究人员取得了令人惊叹的进步,但战争从根本上来说是一种人类活动,只有人类拥有大量的隐性知识。人类仍然是人机团队中最重要的组成部分。

需要团队

由于机器智能工作背后的机制与生物智能的基础有很大不同,因此人类和机器为人机组合带来了不同的优势和劣势。当这些差异得到最佳组合时,人机团队的表现就不仅仅是各个部分的总和,在完成分配的任务时,人机团队的表现将超越人类和机器的表现。

不幸的是,人类的本能如何互动在联合团队中使用人工智能和自主机器常常使他们误入歧途。与没有人类参与的人工智能算法相比,这些不一致导致人机团队在任务上的表现更差——团队的力量小于各部分的总和。如果无效的协作技术导致人机团队在执行军事任务时同样表现不佳,这可能会让国防部陷入困境。该部门的领导层必须在允许人工智能之间做出选择在没有人类监督的情况下行动或者将战斗优势让给对手,而对技术没有同样的道德保留。中国近年拒绝签署联合声明在2024年军事领域负责任的人工智能峰会上,呼吁人类保持对军事人工智能应用的控制,生动地说明了这种困境给美国军方带来的风险。因此,克服这些挑战并教会人类如何利用人机团队中的互补技能对于确保人类操作员在使用人工智能增强工具时能够有效地选择和控制结果至关重要,从而确保人工智能的使用符合道德和负责任。在未来的军事冲突中。

了解人类和机器智能的不同优势为成功地将人类与智能机器集成奠定了基础。机器经常 超越人类适用于需要分析和记忆大量数据的任务、需要高精度的重复性任务或受益于分析和记忆大量数据的任务超人的反应率。例如,为玩计算机策略游戏而优化的人工智能通过以下方式压倒了人类对手: 协调活动数千个广泛分散的单位来实现单一的战略目标。在这些游戏中,人工智能可以在真正大规模的范围内“分头行进,团结作战”,超出任何单个人类大脑的理解或对抗能力。

相比之下,对于需要隐性知识和上下文的任务,或者人类的感知和推理仍然比传感器和算法保持优势的任务,人类通常比机器智能更具优势。例如,人工智能可能能够分析图像来定位敌方车辆的一个营,但它无法理解为什么这些车辆被放置在那个位置,或者他们的指挥官最有可能要求它们完成什么任务。对于机器来说,大战略将是一个更大的谜团——今天的人工智能算法可以计算出可以击败对手,但它们永远无法理解应该击败哪些潜在对手以及为什么。战争本质上是人类的活动,因此,战争的进行充满了人类的隐性知识和背景,任何数据集都无法完全捕捉到这些知识和背景。

目前的努力

许多研究如何组建有效的人机团队的国防研究计划都侧重于理解和增强人类对机器智能的信任通过开发可以解释其输出背后的推理的人工智能算法。作为国防高级研究计划局的 XAI 计划 解释,“机器学习的进步”有望产生能够自行感知、学习、决策和行动的人工智能系统。然而,他们将无法向人类用户解释他们的决定和行为。这种缺乏对国防部来说尤其重要,国防部面临的挑战需要开发更加智能、自主和共生的系统。如果用户想要理解、适当信任并有效管理这些人工智能合作伙伴,可解释的人工智能将至关重要。许多人工智能军事应用的生死攸关似乎会增强这一要求,即军人理解并信任人工智能合作伙伴。人工智能应用程序采取的任何行动背后的推理。

不幸的是,实验研究一再证明, 为AI添加解释增加人类服从人工智能的可能性 –判断Ø 没有提高团队的准确性。有两个因素似乎支撑了这一结果。首先,人们通常默认认为其他人说的是实话——如果他们没有发现欺骗的迹象,他们就会倾向于相信他们的队友提供了正确的信息。由于人工智能从未表现出典型的人类欺骗迹象,因此当过去被证明可靠的人工智能解释它如何得出答案时,大多数人无意识地认为接受该结果或建议是安全的。其次,人工智能的解释仅向人类提供有关人工智能如何做出决定的信息,而不提供任何有关如何得出正确答案的信息。如果人类不知道如何确定正确答案,那么阅读人工智能解释的主要效果将是增强他们的信念,即人工智能已经严格地应用自己来解决问题。另一方面,如果人类已经知道如何确定正确答案,那么人工智能的任何解释都是不必要的——人类已经知道答案是对还是错。

更好的方法

国防部不应依赖可解释的人工智能来提供有效的人机团队,而应考虑两种替代方法。一种有前景的方法专注于帮助人类发展 有效的心理模型指导他们与机器对应的交互。有效的心智模型通常在人类团队中发挥着类似的作用——当你与队友一起工作很长时间时,你会对他们的优势和劣势有深入的了解,并本能地了解如何与他们合作。在现实条件下与机器智能的反复交互同样可以培养有效的人机团队。将原型人工智能集成到 军事演习和训练(通过安全协议,例如徒步人员和机器人车辆之间的最小安全距离或人工智能控制设备允许的操作复杂性的限制)可以帮助人机团队的人为因素学习如何与机器队友合作推迟这种学习直到人工智能工具表现出更大的成熟度,这可能会导致落后于具有更丰富现实世界经验的潜在敌人(例如俄罗斯),并迫使美国士兵在敌人的火力下迎头赶上。

此外,当国防部打算使用人工智能模型来帮助人类而不是取代人类时,它需要确保这些人工智能具有 互补的技能与他们的人类队友。有时,教人工智能完成的最简单的任务是人类已经表现良好的任务。例如,如果人工智能模型旨在识别简易爆炸装置,那么最简单的任务就是训练它识别此类未经过良好伪装的装置的图像。然而,人机团队的最大价值可能是教会模型识别只能通过对多种传感器类型进行复杂分析才能检测到的简易爆炸装置。即使与为识别最简单情况而优化的 AI 模型相比,第二个 AI 模型可以检测到训练集中小得多的设备百分比,但如果它检测到的所有设备都未被检测到,那么第二个模型对团队来说会更有用。由人类。国防部应确保用于判断人工智能模型的指标衡量人机组合所需的技能,而不仅仅是孤立地判断人工智能模型的性能。

最后,国防部应确保人类仍然是任何人机团队中的主导伙伴。人机团队的优势在于他们能够利用成员的互补技能来实现优于人类或机器的性能。在这种伙伴关系中,人类将保持主导地位,因为他们为团队带来的知识和背景增加了最大的价值。战争是人类不可避免的活动。人工智能算法可以学习如何以最佳方式实现目标,但只有人类才能理解哪些目标最重要,以及为什么这些目标很重要。

只有人类知道我们为什么发动战争——因此,人类仍将是战争中任何人机团队中最重要的组成部分。

James Ryseff 是非营利性、无党派研究机构兰德公司的高级技术政策分析师。

图像:技术。中士。乔丹·汤普森

关于《掌握人机作战团队——岩石上的战争》的评论


暂无评论

发表评论

摘要

该文章强调了在军事背景下开发有效的人类人工智能团队的关键考虑因素。以下是主要要点和影响:1. **可解释的人工智能 (XAI) 局限性**:虽然 XAI 旨在通过解释人工智能的决策过程来增强信任,但研究表明,解释并不一定会提高准确性或可靠性。在没有进行批判性评估的情况下,人类往往过于相信人工智能的解释。2. **有效的心智模型**:为了建立有效的人类人工智能团队,重点是通过重复的交互和训练练习来帮助人类开发强大的心智模型。这种方法反映了经验丰富的人类团队成员如何了解彼此的优势和劣势。3. **互补技能**:确保人工智能模型补充而不是重复人类的能力。例如:- 训练人工智能检测人类可能遇到的伪装或复杂的简易爆炸装置 (IED)。- 避免部署仅仅复制人类已经擅长的领域的人工智能模型,因为这无法充分发挥人机协作的潜力。4. **人类主导**:在决策和战略思维中保持人类的明确角色。战争涉及细致入微的理解和背景,而不仅仅是数据处理:- 人类决定哪些目标是最关键的。- 只有人类才能理解为什么某些行动具有战略意义。5. **现实世界集成**:将人工智能原型集成到军事演习中,以在现实条件下建立有效的人机合作伙伴关系。这包括安全措施,例如机器人的最小安全距离和操纵复杂性的限制。### 实际意义:1. **训练和练习**:- 在培训周期的早期纳入人工智能工具。- 将受控环境用于现实场景(例如模拟、现场练习)。2. **评估指标**:- 根据人工智能模型在人机团队背景下的表现而不是独立指标来评估人工智能模型。3. **道德考虑**:- 确保道德使用和监督,以防止过度依赖人工智能。- 制定明确的指导方针,指导人们何时以及如何干预决策过程。4. **持续改进**:- 定期评估人类人工智能团队的有效性,并根据培训练习和实际部署的反馈完善策略。### 结论:为了充分发挥人工智能在军事环境中的潜力,重点是建立强大的心理模型以进行有效协作,确保技能互补,保持人类的主导地位,并通过现实训练整合新技术。这种方法不仅提高了运营效率,而且还确保在高风险环境中道德和可靠地使用先进技术。