作者:Kyle Wiggers
星期四人择说它与数据分析公司 Palantir 和 Amazon Web Services (AWS) 合作,为美国情报和国防机构提供对 Anthropic 的访问权限克洛德AI 模型系列。
这一消息发布之际,越来越多的人工智能供应商出于战略和财务原因寻求与美国国防客户签署协议。最近的元数据透露它正在使其骆驼可供国防合作伙伴使用的模型,而 OpenAI 则寻求与美国国防部建立更密切的关系。
Anthropic 的销售主管 Kate Earle Jensen 表示,该公司与 Palantir 和 AWS 的合作将通过利用 AWS 托管,在 Palantir 平台内“实现 Claude 的使用”。Claude 于本月早些时候在 Palantir 平台上可用,现在可以在 Palantir 的国防认证环境 Palantir Impact Level 6 (IL6) 中使用。
国防部的 IL6 专用于包含被认为对国家安全至关重要且需要“最大程度保护”以防止未经授权的访问和篡改的数据的系统。IL6 系统中的信息最高可达“秘密”级别 - 低一级绝密。
“我们很自豪能够走在为美国机密环境提供负责任的人工智能解决方案的最前沿,从而提高政府重要业务的分析能力和运营效率,”Jensen 说。– 在 AWS 上访问 Palantir 中的 Claude 将为美国国防和情报组织配备强大的 AI 工具,这些工具可以快速处理和分析大量复杂数据。这将极大地改善情报分析,使官员能够参与决策过程,简化资源密集型任务并提高跨部门的运营效率。
今年夏天,Anthropic 将精选的 Claude 模型引入 AWS GovCloud,表明其扩大公共部门客户群的雄心。GovCloud 是专为美国政府云工作负载而设计的 AWS 服务。
Anthropic 将自己定位为比 OpenAI 更具安全意识的供应商。但该公司的服务条款允许其产品用于“合法授权的外国情报分析”、“识别秘密影响或破坏活动”以及“提供警告”等任务。潜在军事活动的进展。
“[我们将]根据政府实体的使命和法律权限制定使用限制,具体取决于“该机构参与持续对话的意愿程度”等因素,”Anthropic 表示就其条款而言。它指出,这些术语不适用于它认为“大大增加灾难性滥用风险”、显示“低级自主能力”或可用于虚假信息活动的人工智能系统、武器的设计或部署、审查、国内监视和恶意网络操作。
政府机构当然对人工智能感兴趣。布鲁金斯学会 2024 年 3 月的分析 成立与人工智能相关的政府合同增长了 1,200%。尽管如此,某些部门,比如美国军队,已经 采用该技术的速度缓慢,并对其投资回报率保持怀疑。
人择,其中最近扩展到欧洲,是说正在洽谈新一轮融资,估值高达 400 亿美元。迄今为止,该公司已筹集约 76 亿美元,其中包括远期承诺。亚马逊是迄今为止最大的投资者。