英语轻松读发新版了,欢迎下载、更新

总是谈论道德的人工智能初创公司 Anthropic 刚刚与 Palantir 合作

2024-11-08 17:29:49 英文原文

安全第一就这么多了。

安全第三

Anthropic,一家自诩为安全优先的替代方案到 OpenAI 等其他人工智能公司 – 它来自于挖走多名高管— 与神秘的国防承包商 Palantir 合作。

这家人工智能公司还与亚马逊网络服务合作,将其人工智能聊天机器人 Claude 引入美国情报和国防机构,这一联盟与 Anthropic 声称的“边境安全”。

根据一个新闻稿,该伙伴关系通过“快速处理大量复杂数据,提升数据驱动的洞察力,更有效地识别模式和趋势,简化文件审查和准备,并帮助美国官员及时做出更明智的决策”来支持美国军工联合体-敏感情况。”

考虑到人工智能聊天机器人长期以来因其倾向于泄露敏感信息和“幻觉”事实而闻名,这种情况尤其特殊。

Palantir 首席技术官 Shyam Sankar 在一份声明中表示:“Palantir 很自豪能够成为第一个将 Claude 模型引入机密环境的行业合作伙伴。”

Anthropic 销售主管凯特·厄尔·詹森 (Kate Earle Jensen) 补充道:“这将极大地改善情报分析,帮助官员制定决策流程,简化资源密集型任务并提高各部门的运营效率。”

全部访问

Anthropic 表示,技术上确实允许其人工智能工具用于“识别秘密影响或破坏活动”或“在潜在军事活动之前提供警告”。最近扩大服务条款。

6月起,服务条款便捷划出合同例外用于军事和情报用途,如TechCrunch指出

最新的合作伙伴关系允许 Claude 访问属于“秘密”Palantir 影响级别 6 (IL6) 的信息,该级别比国防部的“绝密”级别低一级。TechCrunch。任何被视为 IL6 的东西都可能包含对国家安全至关重要的数据。

换句话说,Anthropic 和 Palantir 可能没有向人工智能聊天机器人提供核代码,但它现在可以获得一些有趣的情报。

它还使 Anthropic 陷入了道德黑暗的公司。举个例子,Palantir获得4.8亿美元合同今年早些时候,美国陆军开发了一个名为 Maven 智能系统的人工智能目标识别系统。Maven 项目此前已被证明极具争议性在科技领域。

然而,一个产生幻觉的人工智能聊天机器人如何适应这一切还有待观察。当 Anthropic 准备筹集足够的资金来确保传闻估值400亿美元

这是一种令人不安的合作关系,它建立了人工智能行业与美国军工联合体日益紧密的联系,鉴于该技术存在许多固有缺陷,这一令人担忧的趋势应该敲响各种警钟,尤其是在生命可能受到威胁的情况下。。

更多关于人择: Anthropic 现在让 Claude 控制您的整个计算机


关于《总是谈论道德的人工智能初创公司 Anthropic 刚刚与 Palantir 合作》的评论


暂无评论

发表评论

摘要

Anthropic 是一家定位于安全的人工智能公司,已与国防承包商 Palantir 和 Amazon Web Services 合作,向美国情报和国防机构提供其人工智能聊天机器人 Claude。尽管声称安全优先,但这种伙伴关系通过处理敏感数据和增强机密环境中的决策流程来支持军工联合体。鉴于 Palantir 的争议性项目以及在国家安全背景下使用因泄露信息和生成虚假事实而闻名的人工智能所带来的潜在风险,此次合作引发了道德问题。