Anthropic 是一家由 OpenAI 流放者创立的公司,他们担心人工智能的危险,为了应对竞争,它正在放松其核心安全原则。
Anthropic 没有自行设置限制其人工智能模型开发的护栏,而是采用了一种非约束性的安全框架,该框架表示可以而且将会改变。
在一个博客文章Anthropic 周二在概述其新政策时表示,其两年来的负责任扩展政策的缺陷可能会阻碍其在快速增长的人工智能市场中的竞争能力。
这一宣布令人惊讶,因为 Anthropic 将自己描述为一家具有“灵魂就在同一周,Anthropic 与五角大楼就人工智能红线展开了一场激烈的斗争。
据知情人士透露,这一政策变化是独立的,与 Anthropic 与五角大楼的讨论无关。国防部长皮特·赫格斯向 Anthropic 首席执行官 Dario Amodei 发出最后通牒星期二 取消公司的人工智能保障措施,否则就有失去五角大楼 2 亿美元合同的风险。五角大楼威胁要将 Anthropic 列入实际上的政府黑名单。
但该公司在博客文章中表示,其之前的安全政策旨在围绕减轻人工智能风险建立行业共识——行业突破的护栏。Anthropic 还指出,其安全政策与华盛顿当前的反监管政治氛围格格不入。
人类的之前的政策规定,如果更强大的模型的能力超出了公司控制它们并确保其安全的能力,则应暂停训练更强大的模型——这一措施已在新政策。Anthropic 认为,负责任的人工智能开发人员暂停增长,而不那么谨慎的参与者则继续努力,可能会“导致世界变得不太安全”。
作为新政策的一部分,Anthropic 表示将把自己的安全计划与对人工智能行业的建议分开。
Anthropic 写道,它原本希望其最初的安全原则能够鼓励其他人工智能公司引入类似的政策。这就是“争先恐后”的理念(与“竞逐底部”相反),其中不同的行业参与者被激励去改进而不是削弱他们的模型——保障措施和整体安全态势。
该公司现在表示,这种情况尚未发生。
在给 CNN 的一份声明中,Anthropic 的一位发言人将更新后的政策描述为“迄今为止在公共责任和透明度方面最强有力的政策”。
声明称,“我们承诺定期公开发布有关我们加强风险缓解计划以及所有模型的威胁模型和能力的详细报告,这比我们之前的政策又向前迈出了一大步。”“从一开始,我们就说过人工智能的发展速度和该领域的不确定性将要求我们快速迭代和改进政策。”
Anthropic 的新安全政策包括“前沿安全路线图”,概述了公司自我实施的指导方针和保障措施。但该公司承认新框架比过去的政策更加灵活。
该公司在其博客文章中表示,“这些不是硬性承诺,而是我们将公开评估我们的进展的公共目标。”
这一变化是在国防部长皮特·赫格塞斯 (Pete Hegseth) 一天后发生的给 Anthropic 首席执行官 Dario Amodei 一个周五的最后期限回滚公司的人工智能保障措施,否则就有可能失去五角大楼 2 亿美元的合同并被列入实际上的政府黑名单。
据一位熟悉该公司与 Hegseth 会面情况的消息人士透露,Anthropic 对两个问题表示担忧,并且不愿意放弃:人工智能控制的武器和对美国公民的大规模国内监控。一位消息人士称,Anthropic 认为人工智能不够可靠,无法操作武器,而且目前还没有法律或法规涵盖人工智能如何用于大规模监视。
周二,人工智能研究人员对 Anthropic 在社交媒体上的立场表示赞赏,并对人工智能用于政府监控的想法表示担忧。
该公司长期以来一直将自己定位为安全优先的人工智能企业。Anthropic 发表了一项研究,展示了其自己的人工智能模型如何可能有敲诈勒索的能力在某些条件下。该公司近期捐赠2000万美元公共优先行动(Public First Action),一个推动人工智能保障和教育的政治团体。
但该公司面临着来自政府及其竞争对手的越来越大的压力和竞争。例如,赫格斯计划援引《人性国防生产法案》,如果该公司不遵守五角大楼的要求,则将其指定为供应链风险。美国有线电视新闻网报道星期二。OpenAI 和 Anthropic 也陷入了一场推出新的企业人工智能工具的竞赛,以赢得工作场所的青睐。
Anthropic 首席科学官贾里德·卡普兰 (Jared Kaplan) 在接受《时代》杂志采访做出这一改变是为了安全,而不是为了增加竞争。
“我们认为停止训练人工智能模型实际上不会对任何人有帮助,”卡普兰告诉该杂志。“随着人工智能的快速发展,我们并没有真正感觉到,如果竞争对手正在快速发展,我们做出单方面承诺是有意义的。”
美国有线电视新闻网 (CNN) 的哈达斯·戈尔德 (Hadas Gold) 对这个故事做出了贡献。
这个故事已经更新了更多信息。