人工智能公司 Anthropic 如何最终成为五角大楼的瞄准目标
作者:Nick Robins-Early
直到最近,Anthropic 仍是人工智能热潮中较为安静的名字之一。尽管估值约为 3500 亿美元,但它很少引起与 Sam Altman 的 OpenAI 或 Elon Musk 的 xAI 相关的华而不实的头条新闻或公众的强烈反对。其首席执行官兼联合创始人达里奥·阿莫迪 (Dario Amodei) 是行业内的常客,但在硅谷以外却几乎不是什么家喻户晓的名字,其聊天机器人 Claude 的受欢迎程度落后于 ChatGPT。
这种看法已经发生了转变,因为 Anthropic 已成为与国防部的一场备受瞩目的斗争的核心参与者,原因是该公司拒绝允许 Claude 用于国内大规模监视和无需人工输入即可杀人的自主武器系统。在紧张的谈判中,这家人工智能公司上周拒绝了五角大楼达成交易的最后期限,此举导致国防部长皮特·赫格斯 (Pete Hegseth)指责对祖国“傲慢和背叛”的人性化,同时要求任何与美国政府合作的公司停止与这家人工智能公司的所有业务。
此后的一周带来了更多混乱。OpenAI 宣布已与国防部达成协议,导致员工抵制,Amodei 指责竞争对手首席执行官 Sam Altman 对唐纳德·特朗普给予“独裁者式的赞扬”,Amodei 后来为此道歉。与此同时,特朗普谴责了人类接受《政治》杂志采访,说他“像解雇狗一样解雇他们”。周四,国防部正式宣布人择供应链风险,并要求其他企业切断联系——这是美国公司第一次成为这一目标——如果全面实施,将给该公司带来严重的财务后果。
这场争执加剧了关于人工智能如何在战争中使用以及谁应对结果负责的悬而未决的争论,同时也代表了科技行业和特朗普政府之间迄今为止最引人注目的分歧之一。随着军方迅速在其行动中采用该技术,包括在与伊朗的战争中,它已经将之前假设的情况变成了对人工智能公司的现实世界道德测试。
Anthropic 与国防部的对峙也是研究人员认为这家人工智能公司一些固有矛盾的顶峰。这家公司的成立宗旨是为人工智能创造一个安全的未来,尽管如此,该公司还是与五角大楼和美国国防部在机密工作方面建立了重要的合作伙伴关系。监控科技巨头帕兰提尔。该公司领导层表示,他们对人工智能的生存风险深感担忧,尽管最近他们放弃了创始时的安全承诺,引用行业竞争的速度。它承诺了透明度,但与其他人工智能公司一样,它是通过对专有数据的贪婪需求来开发其模型的,法庭记录记录了它如何秘密扫描并销毁数以百万计的实体书籍来训练克劳德。
然而,最近几周的情况表明,人类似乎不会跨越一些红线,这在很大程度上已经陷入困境的科技行业中是罕见的。使自己屈服特朗普政府以及担心落后于行业竞争对手。迄今为止,Anthropic 抵制五角大楼要求的后果是公关方面的胜利,克劳德人气飙升交易破裂后,OpenAI 开始包扎声誉。
Anthropic 没有回应对与本文相关的一系列问题发表评论的请求。
对 Anthropic 的长期影响尚不明确,一些国防承包商以及美国国家和财政部已经走开阻止使用其人工智能模型,而特朗普政府则打算惩罚 Anthropic 的异议。Anthropic 表示将在法庭上对其供应链风险指定提出质疑,而 Amodei 也表示据报道重新开启谈判最近几天与国防部合作,试图达成解决方案。
“安全第一”的人工智能公司
在与 Sam Altman 和五角大楼争论之前,Dario Amodei 是 OpenAI 的主要研究人员之一。Amodei 在 Google 工作了一段时间后于 2016 年加入 Altman 的公司,在开发 OpenAI sGPT 模型方面发挥了重要作用,并最终成为研究副总裁。与此同时,他的妹妹 Daniela 担任安全和政策副总裁,帮助监督 OpenAI 模型的道德发展。
然而,随着 OpenAI 技术的快速发展,以及 Altman 的分裂巩固了他对公司的权力,Amodeis 家族于 2021 年(ChatGPT 发布之前)脱离,成立了 Anthropic,并带走了其他几名 OpenAI 员工。他们将 Anthropic 定位为“人工智能安全和研究公司”,新公司的核心是誓言构建更安全的人工智能系统,该系统将遵循详细的原则他们将其描述为宪法。

2024 年,阿莫迪发表了一篇题为《爱的机器》的长文,概述了他对人工智能未来的一些乌托邦愿景。他认为人工智能可以消除大多数癌症,预防几乎所有形式的传染病并减少经济不平等。他还就人工智能如何融入从司法系统的决策到政府如何提供健康福利等服务的各个方面提出了模糊的想法。然而,在民主方面,阿莫代持更为怀疑的态度。
“我认为没有充分的理由相信人工智能会优先或结构性地推进民主与和平,”他写道。
阿莫迪在普林斯顿大学获得了生物物理学博士学位,之后对人工智能的潜力着迷,多年来一直担心开发人工智能的生存风险,并将其与制造核武器相提并论。其中之一他最喜欢的书理查德·罗德斯 (Richard Rhodes) 撰写的《原子弹的制造》长达近 900 页,荣获普利策奖,讲述了核科学家如何通过他们创造的技术开创了一个新的危险世界。
虽然人工智能公司的首席执行官们对成为新的罗伯特·奥本海默感到不安和自豪,但阿莫迪斯对存在风险的关注在一定程度上与被称为“有效利他主义”的功利主义运动有关,该运动在整个 2010 年代在硅谷流行起来,倡导实现全球利益最大化的项目。该运动在经历了一系列丑闻(例如与名誉扫地的加密货币亿万富翁 Sam Bankman-Fried 的密切联系)后已经不再流行,它还以一部分关注人工智能安全的人为特色,他们认为全球最大的威胁之一是可能反人类的人工智能的发展。
虽然阿莫迪家族否认自己是信徒关于有效的利他主义,该公司的许多核心原则与其语言相呼应,例如誓言“从长远来看,最大限度地为人类带来积极成果”。Anthropic 的一些最早的投资者,例如 Facebook 联合创始人达斯汀·莫斯科维茨 (Dustin Moskovitz),也与有效利他主义运动有联系。与此同时,丹妮拉·阿莫迪 (Daniela Amodei) 的丈夫霍尔顿·卡诺夫斯基 (Holden Karnofsky) 与他人共同创立了最大的基于有效利他主义的慈善资助组织之一——开放慈善组织 (Open Philanthropy),并多年来担任其首席执行官。当 Hegseth 上周宣布 Anthropic 为供应链风险时,他还批评 Anthropic“披着“有效利他主义”的道貌岸然的言辞。
人工智能安全运动在五角大楼之外也有批评者,其中包括研究人员,他们认为对人工智能带来的生存威胁的担忧往往会分散人们对人工智能更明显、更常见的危害和偏见的注意力。
– 他们会谈论这些存在的风险以及人工智能对生物恐怖主义的挪用。我一直认为这些要么太遥远,要么太遥不可及,”康奈尔大学技术政策研究所所长莎拉·克雷普斯说。“它没有完全理解风险。”
资本 S“人工智能安全”运动的关注点与更广泛的人工智能安全和道德领域之间的差异是行业内长期存在的分歧。它还解释了为什么 Anthropic 如此担心开发人工智能造福人类,同时允许其模型被情报和国防机构用于致命目的的一些不一致。
“讨论中似乎存在一些误解,即因为 Anthropic 明确表明自己负有责任,所以他们反对在战争中使用他们的系统,”科技公司 Hugging Face 的人工智能伦理研究员兼首席伦理科学家玛格丽特·米切尔 (Margaret Mitchell) 说。——但事实并非如此。——
——并不是说他们不想杀人。“他们想确保杀死正确的人,”米切尔说。– 谁是合适的人选是由政府决定的。 –
从安全第一到有针对性的导弹袭击
尽管 Anthropic 发誓要打造更安全的人工智能,但它在人工智能市场上追求的领域与竞争对手不同。如果 OpenAI 的 ChatGPT 是一款面向消费者的聊天机器人,许多人将其视为搜索引擎或 AI 伴侣,那么 Anthropic 则让 Claude 更倾向于企业软件解决方案并集成到工作场所的组织基础设施中。这种区别虽然表面上很无聊,但已使 Claude 成为许多组织的首选,并使其成为第一个允许在军事系统中分类使用的模型。
Anthropic 融入军队始于 2024 年与 Palantir 达成的一项协议,允许 Claude 在其系统中使用,该系统已经在机密环境中运行。两家公司宣称该协议是大幅减少军事行动和情报收集所需资源和时间的一种方式。第二年,Anthropic 与其他几家主要人工智能公司一起与国防部达成了一项价值 2 亿美元的协议,将他们的人工智能工具用于军事行动。
从那时起,显而易见的是,这些交易并不包括关于政府如何使用 Anthropic 的人工智能或在其模型上安装哪些安全护栏的永久协议。由于军方通过 Palantir 系统进行间接访问,Anthropic 对其技术使用的直接控制比对 Claude 网站的控制要少。近几个月来,随着政府要求 Anthropic 放宽安全限制以允许更广泛的使用,这种差异达到了顶峰,引发了该公司与五角大楼之间当前的争端。
近年来,人性化公司聘用了前拜登工作人员、阿莫迪在政治上反对特朗普,以及赫格斯塞斯希望消除军队中的“觉醒”,这些都给这场僵局增添了政治层面。五角大楼首席技术官埃米尔·迈克尔 (Emil Michael) 似乎也持有个人厌恶对于阿莫迪,公开指责他是一个“骗子”并且有“上帝情结”。
美军利用克劳德进行广泛的行动,包括抓捕委内瑞拉领导人尼古拉斯·马杜罗以及与伊朗的战争,这给谈判带来了紧迫感。《华盛顿邮报》报道军方正在使用 Palantir 的 Maven 智能系统(该系统中嵌入了 Claude)来确定对伊朗的哪些地点进行轰炸,并对其袭击提供分析。
专家表示,虽然 Anthropic 与五角大楼之间的争端具有人工智能独有的元素,但它也象征着围绕军民两用技术的问题,即具有民用和军事用途的产品。一项为广大消费者群体开发并适用于机密军事系统的技术必然会遇到问题,因为该技术不是针对特定用例量身定制的,也不是采用专门针对军事用途的参数构建的。公司可能会发现他们的产品正在以他们可能在道德上反对的方式被重新利用,但几乎没有能力阻止。
“在图片中寻找一只鸟的技术同样适用于寻找逃离家园的平民,”米切尔举了一个例子。“这是同一类型的模型,只是微调略有不同。”
另一个问题是,科技公司没有一个完美的窗口来了解他们的技术将如何在机密系统中使用,而与此同时,军方并不了解像 Anthropic 的克劳德这样的专有技术实际上是如何工作的——法学教授阿什利·迪克斯(Ashley Deeks)将这个问题称为“双黑匣子”。即使是约定使用的合同也可能是模糊的,特别是考虑到特朗普政府厌恶法律监督。
“一般来说,人们期望合同双方都应该遵守合同。”弗吉尼亚大学法学院教授迪克斯说。“但是,当然,合同需要解释,军方可能会以一种方式解释某个短语,而公司却想让它有其他含义。”
悬而未决的另一个更广泛的问题是,谁应该决定人工智能的用途,以及国会对自主武器系统缺乏详细的监管。尽管 Anthropic 和五角大楼都不认为私营公司应该对人工智能的军事应用拥有决策权,但目前该公司正在充当对军方似乎将人工智能武器化的广泛愿望的唯一检查者之一。
“我们是否希望国防部将人工智能用于自主武器系统?如果是,在什么环境下、有什么限制、在什么程度的信心下、我们愿意承担什么程度的风险?”Deeks 说。“我们很难让公众了解国防部是如何考虑这一切的。”