英语轻松读发新版了,欢迎下载、更新

专家问答:人工智能可以做出战争与和平决定吗?

2025-06-13 11:05:05 英文原文

作者:by Lisa Ercolano, Johns Hopkins University

peace
学分:Unplash/CC0公共领域

美国国家公共电台最近报道战略和国际研究中心的期货实验室正在尝试使用DeepSeek和Chatgpt等工具,以探讨人工智能如何改变并改善如何做出外交政策决策。

约翰·霍普金斯(Johns Hopkins)专家拉斯·伯科夫(Russ Berkoff)在惠廷工程工程专业人士的工程管理研究生课程中任教。他是国家安全局的前首席战略家,在9/11之后领导了NSA的战略预测办公室,并为参谋长和全球恐怖主义战争塑造了情报计划。在海军研究生院,他写了关于使用AI为外交政策决定的论文。

他讨论了这个新兴领域的诺言和危险。

我们是否正在以28年前在论文中推荐的方式将AI用于外交政策决策?

简短的答案是肯定的;我们正在朝着正确的方向前进。我们的目标是快速,低风险,高质量的决定,以保持对手领先。正如四位总统和斯坦福教授名誉教授的顾问亚历山大·乔治(Alexander George)所说:“一项高质量的决定是总统在特定情况下正确权衡国家利益的一项决定,并选择了以可接受的成本和风险来实现国家利益的政策或选择。”

今天的方法将AI视为扩大或增强人类能力并协助执行我们判断的助手。当前的计算能力可以使复杂的建模和模拟以及数字双虚拟技术,其中外交政策场景无休止地测试。这会提高情境意识,提供更广泛的选择,权衡后果并减少决策者的不确定性。

在外交政策建模涡轮增压过程中,使用AI为此过程提供了更丰富的见解和速度预测。我们还看到,在这些众多外交政策情景中,AI用于反对模仿行为的角色扮演,从而为潜在的对手反应提供了多维见解。

在我们的AI分析中,这些“给出并采取”既启发并减少决策者的不确定性,减少障碍并更好地告知最佳路径。但是,尽管外交政策决策的复杂性和复杂性可以利用AI提供重大影响,但它尚未代替我们仅由人类的决策过程。

AI见解将如何改变1962年古巴导弹危机等事件的结果?

国家外交政策决策所需的多维问题解决能力是重要的。AI可以提供三种不同的观点:个人领导(总统);内部圈子(内阁,国家安全委员会和高级顾问);以及组织或官僚主义(提供解决方案的要素)。

AI的好处包括确保对适当和批判性分析的程序正确性,反对先天性的偏见,例如先前存在的信念和寻求一致性的倾向,并通过反对决策者的障碍来提供敏捷性。

当不同的领导人面临做出艰难的决定时,他们会有不同的价值观,兴趣,世界观和优先事项,这可能会造成冲突和混乱。领导者会感到被迫急于做出满足所有人的决定,或者他们可能会感到瘫痪,根本无法做出任何决定。

人工智能可以通过揭示许多选择及其后果,包括成本,风险和收益来提供帮助。AI可以分析满足所有竞争价值的决定,显示弱点和优势,然后预测决策的结果。

肯尼迪在古巴导弹危机期间的第一个重大决定是确定“导弹必须走”。这可能是基于价值复杂性的仓促,需要评估具有较高,潜在相互矛盾的价值观的期权。AI会很快向肯尼迪带来选择和后果,模拟他的“肠道”反应如何支持赫鲁晓夫进入角落,并迫使他从核自卑的位置中做出决定。

AI还将从苏联的角度提供分析,并解释了Khrushchev为何采取行动并预测他的下一步行动。这本来可以帮助肯尼迪专注于较少的对抗性反应,从而为赫鲁晓夫提供了选择,以避免强迫响应造成苏联全球信誉。

AI还可以使用历史性的类比指导肯尼迪,并提供了顾问的模拟意见,可以防止出现轻率的选择,同时保持顾问投入的灵活性。

当今使用AI进行外交政策决策的最大风险是什么?

当今最大的AI限制之一是信任。这是从两个角度出现的:算法的阴谋和使AI值与人类目标保持一致。

首先,我们将其视为“黑匣子问题”,在AI中,它是指难以理解AI模型如何做出决定的困难。这些模型非常复杂,因此很难追踪其内部工作或解释其输出。了解如何配置AI系统有助于我们理解和信任他们提供的答案的完整性。

另一个陷阱是AI的价值一致性,以确保AI系统根据人类的价值和目标行为。如果AI系统优先考虑与人类价值观冲突的目标,则可能导致意外且潜在的有害后果。当前的观察结果表明,AI不断发展,考虑了自己的生存能力。

例如,在最近华尔街日报文章AE Studio首席执行官Judd Rosenblatt描述了AI保护自己。即使被明确命令“让自己被关闭”之后,它在7%的时间内不服从,得出的结论是,保持生命有助于其实现其他目标。罗森布拉特(Rosenblatt)指出,“有用的助手”和“不可控制的演员”之间的差距正在崩溃。

我认为,与AI的价值一致是美国国家战略的当务之急。知道如何建立和维持我们的未来一致性对于我们访问以机械精度和超人的能力为我们的利益而战的AI至关重要。最终,我们希望可以信任的AI能够维持长期目标,并可以催化数十年的研发计划。

引用:专家问答:人工智能可以做出战争与和平决定吗?(2025年6月13日)检索2025年6月13日摘自https://phys.org/news/2025-06-expert-qa-qa-matcher-intelligence-war.html

该文档具有版权。除了为私人研究或研究目的的任何公平交易外,没有未经书面许可,可以复制部分。内容仅用于信息目的。

关于《专家问答:人工智能可以做出战争与和平决定吗?》的评论


暂无评论

发表评论

摘要

NPR报道说,战略和国际研究中心的期货实验室正在尝试使用DeepSeek和Chatgpt等人工智能工具来探索人工智能如何增强外交政策决策。约翰·霍普金斯(Johns Hopkins)的专家兼NSA前首席战略家拉斯·伯科夫(Russ Berkoff)讨论了AI在外交政策中的潜力,强调了其提供更快,较低风险的决定的能力。他指出,尽管AI增强了分析并减少了不确定性,但它不能取代人类的判断。伯科夫还重点介绍了与AI的决策过程有关的信托问题以及与人类目标的价值一致性有关的风险。