作者:Maxwell Zeff
OpenAI 和 Anthropic 等领先的人工智能开发商正在向美国军方出售软件:提高五角大楼的效率,同时又不让他们的人工智能杀人。
五角大楼首席数字和人工智能官拉达 (Radha) 博士表示,如今,他们的工具不再被用作武器,但人工智能正在为国防部在识别、跟踪和评估威胁方面提供“显着优势”普拉姆在电话采访中告诉 TechCrunch。
“显然,我们正在增加加快杀伤链执行速度的方法,以便我们的指挥官能够在正确的时间做出反应,保护我们的部队,”普拉姆说。
“杀伤链”是指军队识别、跟踪和消除威胁的过程,涉及传感器、平台和武器的复杂系统。Plumb 表示,事实证明,生成式人工智能在杀伤链的规划和战略制定阶段非常有用。
五角大楼和人工智能开发人员之间的关系相对较新。OpenAI、Anthropic 和 Meta收回他们的使用政策2024 年让美国情报和国防机构使用他们的人工智能系统。然而,他们仍然不允许他们的人工智能伤害人类。
当被问及五角大楼如何与人工智能模型提供商合作时,普拉姆说:“我们非常清楚我们将使用他们的技术做什么,不会使用他们的技术做什么。”
尽管如此,这还是引发了人工智能公司和国防承包商的一轮快速约会。
元与洛克希德马丁公司和博思艾伦公司合作等公司将于 11 月将其 Llama AI 模型引入国防机构。同月,Anthropic 与 Palantir 合作。十二月,OpenAI 也达成了类似的协议与安杜里尔。更安静的是,连贯还一直在与 Palantir 一起部署其模型。
随着生成式人工智能在五角大楼证明其有用性,它可能会推动硅谷放松其人工智能使用政策并允许更多的军事应用。
“生成式人工智能可以帮助解决不同的场景,”普拉姆说。– 它使您能够利用我们的指挥官可用的全套工具,而且还可以在存在潜在威胁或一系列威胁的环境中创造性地思考不同的响应选项和潜在的权衡被起诉。”
目前尚不清楚五角大楼在这项工作中使用了谁的技术;在杀伤链中使用生成式人工智能(即使是在早期规划阶段)似乎确实违反了一些领先模型开发人员的使用政策。人择政策例如,禁止使用其模型来生产或修改“旨在对人类生命造成伤害或损失的系统”。
在回答我们的问题时,Anthropic 将 TechCrunch 引向了其首席执行官达里奥·阿莫迪 (Dario Amodei)最近接受英国《金融时报》采访,他为自己的军事工作辩护:
我们永远不应该在国防和情报环境中使用人工智能的立场对我来说没有意义。我们应该全力以赴,用它来制造我们想要的任何东西——甚至包括世界末日武器——这显然同样疯狂。我们正在努力寻求中间立场,负责任地做事。
OpenAI、Meta 和 Cohere 没有回应 TechCrunch 的置评请求。
近几个月来,围绕国防技术展开了一场争论是否真的应该让人工智能武器做出生死决定。一些人认为美国军方已经拥有可以做到这一点的武器。
Anduril 首席执行官 Palmer Luckey 最近在 X 上注明美国军方在购买和使用自主武器系统方面有着悠久的历史,例如近程打击系统炮塔。
– 国防部几十年来一直在购买和使用自主武器系统。它们的使用(和出口!)是众所周知的、严格定义的,并受到根本不是自愿的规则的明确监管,”Luckey 说。
但当 TechCrunch 询问五角大楼是否购买和操作完全自主的武器(无人参与的武器)时,普拉姆原则上拒绝了这个想法。
“不,这是简短的回答,”普拉姆说。“出于可靠性和道德考虑,我们将始终让人类参与使用武力的决策,这包括我们的武器系统。”
“自治”这个词是有点模棱两可并引发了整个科技行业关于自动化系统(例如人工智能编码代理、自动驾驶汽车或自动射击武器)何时真正独立的争论。
普拉姆说,自动化系统独立做出生死决定的想法“太二元化”,而现实则不那么“科幻小说”。相反,她建议五角大楼使用人工智能系统实际上是人与机器之间的协作,高级领导者在整个过程中做出积极的决策。
“人们往往会想到这个问题,就像某个地方有机器人一样,然后 Gonculator(一种虚构的自主机器)吐出一张纸,而人类只需勾选一个方框,”普拉姆说。“这不是人机协作的工作方式,也不是使用此类人工智能系统的有效方法。”
军事合作伙伴关系并不总是受到硅谷员工的欢迎。去年,数十名亚马逊和谷歌员工在抗议其公司与以色列的军事合同后被解雇和逮捕,代号为“Project Nimbus”的云交易。
相比之下,人工智能社区的反应相当冷淡。Anthropic 的 Evan Hubinger 等一些人工智能研究人员表示,人工智能在军队中的使用是不可避免的,直接与军方合作以确保他们正确使用至关重要。
“如果你认真对待人工智能带来的灾难性风险,美国政府是一个极其重要的参与方,试图阻止美国政府使用人工智能并不是一个可行的策略,”胡宾格在 11 月的一份报告中表示。发布到在线论坛 LessWrong。“仅仅关注灾难性风险是不够的,您还必须防止政府滥用您的模型。”