总是谈论道德的人工智能初创公司 Anthropic 刚刚与 Palantir 合作

2024-11-08 17:29:49 英文原文

安全第一就这么多了。

安全第三

Anthropic,一家自诩为安全优先的替代方案到 OpenAI 等其他人工智能公司 – 它来自于挖走多名高管— 与神秘的国防承包商 Palantir 合作。

这家人工智能公司还与亚马逊网络服务合作,将其人工智能聊天机器人 Claude 引入美国情报和国防机构,这一联盟与 Anthropic 声称的“边境安全”。

根据一个新闻稿,该伙伴关系通过“快速处理大量复杂数据,提升数据驱动的洞察力,更有效地识别模式和趋势,简化文件审查和准备,并帮助美国官员及时做出更明智的决策”来支持美国军工联合体-敏感情况。”

考虑到人工智能聊天机器人长期以来因其倾向于泄露敏感信息和“幻觉”事实而闻名,这种情况尤其特殊。

Palantir 首席技术官 Shyam Sankar 在一份声明中表示:“Palantir 很自豪能够成为第一个将 Claude 模型引入机密环境的行业合作伙伴。”

Anthropic 销售主管凯特·厄尔·詹森 (Kate Earle Jensen) 补充道:“这将极大地改善情报分析,帮助官员制定决策流程,简化资源密集型任务并提高各部门的运营效率。”

全部访问

Anthropic 表示,技术上确实允许其人工智能工具用于“识别秘密影响或破坏活动”或“在潜在军事活动之前提供警告”。最近扩大服务条款。

6月起,服务条款便捷划出合同例外用于军事和情报用途,如TechCrunch指出

最新的合作伙伴关系允许 Claude 访问属于“秘密”Palantir 影响级别 6 (IL6) 的信息,该级别比国防部的“绝密”级别低一级。TechCrunch。任何被视为 IL6 的东西都可能包含对国家安全至关重要的数据。

换句话说,Anthropic 和 Palantir 可能没有向人工智能聊天机器人提供核代码,但它现在可以获得一些有趣的情报。

它还使 Anthropic 陷入了道德黑暗的公司。举个例子,Palantir获得4.8亿美元合同今年早些时候,美国陆军开发了一个名为 Maven 智能系统的人工智能目标识别系统。Maven 项目此前已被证明极具争议性在科技领域。

然而,一个产生幻觉的人工智能聊天机器人如何适应这一切还有待观察。当 Anthropic 准备筹集足够的资金来确保传闻估值400亿美元

这是一种令人不安的合作关系,它建立了人工智能行业与美国军工联合体日益紧密的联系,鉴于该技术存在许多固有缺陷,这一令人担忧的趋势应该敲响各种警钟,尤其是在生命可能受到威胁的情况下。。

更多关于人择: Anthropic 现在让 Claude 控制您的整个计算机


关于《总是谈论道德的人工智能初创公司 Anthropic 刚刚与 Palantir 合作》的评论


暂无评论

发表评论