中国军方可能已经找到了一种新武器:Meta 开源人工智能 Llama 的重新用途版本,经过重新设计用于战场情报。
上个月,路透社报道根据三篇学术论文,与中国人民解放军 (PLA) 相关的中国顶级研究机构已将 Meta 的 Llama AI 模型应用于军事应用。
路透社报道称,今年 6 月,来自三个机构(其中两个隶属于中国人民解放军军事科学院)的六名研究人员详细介绍了他们如何使用 Meta’s Llama 的早期版本来创建“ChatBIT”,这是一种人工智能针对军事情报和决策进行优化的工具。
报告指出,尽管 Meta 限制军事用途,但 Llama 的开源性质允许未经授权的改编。Meta 谴责这种使用,强调开放创新的必要性,同时承认执行使用政策的挑战。
路透社表示,美国国防部(DOD)在美国对人工智能安全风险更广泛的担忧之际监控这些事态发展。报告指出,这一事件突显了中国尽管受到国际限制和道德考虑,仍不断努力利用人工智能实现军事和国内安全。
报告称,该研究强调了防止未经授权使用开源人工智能模型的挑战,反映出人工智能技术领域更广泛的地缘政治竞争。
至于大型语言模型 (LLM) 如何彻底改变军事情报,美国中央情报局 (CIA) 首任首席技术官 Nand Mulchandani 在 2024 年 5 月的一份报告中表示面试美联社 (AP) 表示,生成式人工智能系统可以激发开箱即用的思维,但并不精确,而且可能存在偏见。
Mulchandani 提到,中央情报局使用名为 Osiris 的生成式人工智能应用程序来总结和提供对全球趋势的见解,帮助分析师管理大量信息。
然而,他指出,尽管人工智能具有强大的能力,但人类的判断在情报工作中仍然至关重要,人工智能可以作为副驾驶来提高生产力和洞察力。
他表示,由于信息划分和法律限制,中央情报局在整合人工智能方面面临挑战,但致力于扩展人工智能技术。
此外,在 2023 年 4 月的岩石战争中文章,Benjamin Jensen 和 Dan Tadross 提到法学硕士可以合成大量数据集来支持规划者可视化和描述复杂问题。
Jensen 和 Tadross 强调军事专业人员需要与人工智能开发人员合作,以确保模型反映现实世界的挑战并补充现有的工作流程。他们表示,法学硕士可以通过帮助规划者了解作战环境和完善行动方案来增强作战艺术。
然而,Jensen 和 Tadross 强调了批判性思维和人类监督对于减轻确认偏差和人工智能幻觉等风险的重要性。成功的整合需要重新审视军事认识论和训练,以促进人类直觉和机器生成的见解之间的对话。
此外,理查德·法内尔和基拉·科菲在贝尔弗中心提到文章上个月,代理人工智能(Agentic AI)是一种可以自行完成一系列任务以实现指定的复杂目标的人工智能,可以彻底改变军事决策过程,特别是在联合作战规划过程(JOPP)中。
Farnell 和 Coffey 指出,与目前依赖个人提示来完成特定任务的法学硕士不同,Agentic AI 可以自主处理复杂的目标,综合广泛的传统和非传统规划因素。
他们表示,Agentic AI 可以创建更彻底、更客观的行动方案 (COA) 并快速传播指令,从而显着减少工时。他们强调整合代理人工智能以保持信息优势并快速适应战场条件的重要性。
法内尔和科菲强调乌克兰战争是人工智能对战争影响的证据,敦促美国国防部加快人工智能的采用以保持竞争力,忽视人工智能的潜力比其危险更大,尤其是在中国不断进步的情况下。
与此一致,William Caballero 和 Phillip Jenkins 在 2024 年 7 月的一篇文章中提到纸俄罗斯和中国在军事行动中利用人工智能,采用不同的方法强调战略影响和战场模拟。
卡瓦列罗和詹金斯表示,中国采用了百度的 Ernie Bot 人工智能模型,通过预测人类行为来增强战斗模拟,从而协助军事决策过程。他们表示,据报道,该工具在战场应用的准确性方面优于同类模型,尽管某些领域的政治限制限制了它。
与此同时,卡瓦列罗和詹金斯提到,俄罗斯利用人工智能通过 CopyCat 等网络传播影响力,CopyCat 是一个国家联盟系统,利用人工智能驱动的内容生成来放大与俄罗斯政治目标一致的虚假信息。
他们指出,CopyCat 综合、翻译和操纵合法的新闻来源,以针对乌克兰冲突和美国政治等话题制作量身定制的叙述,这对信息战中的反制措施提出了巨大的挑战。
人工智能的运用还可以重新定义战略威慑的逻辑。在 2024 年 6 月报告战略与国际研究中心 (CSIS) 智库的本杰明·詹森 (Benjamin Jansen) 和其他作者强调了人工智能/机器学习 (AI/ML) 的整合如何重塑战略稳定性。
詹森和其他人进行了模拟,以探索人工智能增强的国家安全如何影响危机决策,特别是核武器国家之间的决策。他们的研究结果表明,虽然人工智能提高了决策速度和准确性,但它并没有从根本上改变危机应对策略,这些策略依赖于多方面的方法,包括外交和经济措施。
然而,他们指出,人工智能引入了升级管理的复杂性,因为针对竞争对手的战斗网络可能会因算法误解而导致意外的快速升级。在危机中,对手人工智能能力的不确定性会加剧升级风险,促使各国同时考虑人工智能和传统应对措施。
值得注意的是,詹森和其他人表示,了解对手的人工智能能力可以促进克制,而模糊性则可以推动采取激进的策略。
与 Jensen 等人的观点一致,Juan Pablo-Rivera 和其他作家在 2024 年 1 月的一篇文章中进行了讨论纸将 LLM AI 纳入军事和外交政策决策的潜在风险,凸显了升级风险。
Pablo-Rivera 等人提到,在涉及多个人工智能驱动代理的兵棋模拟中,研究人员观察到,这些模型经常采取可能加剧冲突的行动,即使是在中性情景下也是如此。
他们指出,测试的五种语言模型表现出不同程度的不可预测的升级行为,包括军备竞赛动态,以及在极少数情况下导致核行动的决定。
他们指出,这些模型倾向于基于威慑的行动和“首先打击”战术,而没有考虑战争的非物质成本,从而导致意想不到的升级结果。
巴勃罗-里维拉和其他人表示,这种行为凸显了在没有全面保障措施的情况下在高风险环境中部署此类人工智能的潜在危险,并引发了人们对这些模型是否适合实际应用的疑问。
他们建议谨慎行事,因为如果将这些升级动态纳入关键的军事和外交决策过程,可能会导致意想不到的、潜在的灾难性后果。