Claude AI 将通过新的 Palantir 交易处理秘密政府数据

2024-11-08 22:08:12 英文原文

道德雷区

自创始人于 2021 年创立 Anthropic 以来,该公司已推销自己作为一种采用以道德和安全为中心的方法来开发人工智能的方法。该公司通过采用所谓的负责任的开发实践和对其模型自我施加的道德约束来区别于 OpenAI 等竞争对手,例如“宪法人工智能“ 系统。

作为未来主义指出,这种新的防御伙伴关系似乎与 Anthropic 公开的“好人”形象相冲突,社交媒体上支持人工智能的专家也注意到了这一点。频繁的人工智能评论员 Nabeel S. Qureshi写道在 X 上,“想象一下,在 2021 年告诉 Anthropic 注重安全、高效的利他主义创始人,在公司成立仅三年后,他们将签署合作伙伴关系,将他们的 ~AGI 模型直接部署到军事前线。”Anthropic 的“宪法人工智能”标志。

Anthropic's "Constitutional AI" logo.

信用:

人择/本杰·爱德华兹

Anthropic 的“宪法人工智能”标志。信用:人择/本杰·爱德华兹

除了与国防和情报机构合作的影响之外,该交易还将 Anthropic 与 Palantir 联系起来,Palantir 是一家有争议的公司哪个最近赢了一份价值 4.8 亿美元的合同,为美国陆军开发一种名为 Maven 智能系统的人工智能目标识别系统。Maven 项目有引发批评科技领域内人工智能技术的军事应用。

值得注意的是,Anthropic 的服务条款做大纲政府使用的具体规则和限制。这些术语允许进行外国情报分析和识别秘密影响活动等活动,同时禁止虚假信息、武器开发、审查和国内监视等用途。与 Anthropic 就 Claude 的使用保持定期沟通的政府机构可能会获得更广泛的使用人工智能模型的许可。

即使克劳德从未被用来瞄准人类或作为武器系统的一部分,其他问题仍然存在。虽然其 Claude 模型在 AI 社区中受到高度重视,但它们(像所有法学硕士一样)倾向于摆龙门阵,可能会以难以检测的方式生成不正确的信息。

这是一个巨大的潜在问题,可能会影响克劳德处理政府秘密数据的效率,这一事实以及其他协会都让未来主义的维克多·唐格曼感到担忧。正如他所说,“这是一种令人不安的合作关系,它建立了人工智能行业与美国军工联合体日益密切的联系,鉴于该技术存在许多固有缺陷,这一令人担忧的趋势应该敲响各种警钟——尤其是当生命可能受到威胁。”

关于《Claude AI 将通过新的 Palantir 交易处理秘密政府数据》的评论


暂无评论

发表评论