安全报告卡对人工智能公司保护人类的努力进行了排名

2025-12-05 11:00:00 英文原文

作者:By Wendy LeeStaff Writer Follow Dec. 5, 2025 3 AM PT

人工智能公司是否能够保护人类免受人工智能潜在危害?一份新的成绩单显示,不要押注于此。

随着人工智能在人类与技术互动的方式中发挥着越来越大的作用,潜在的危害也变得越来越明显——人们使用人工智能驱动的聊天机器人进行咨询,然后自杀身亡,或使用人工智能网络攻击。未来也存在风险——人工智能被用来制造武器或推翻政府。

然而,人工智能公司没有足够的动力优先考虑保护人类安全,这反映在人工智能安全指数总部位于硅谷的非营利性未来生命研究所于周三发布,旨在引导人工智能走向更安全的方向,并限制人类面临的生存风险。

该研究所所长兼麻省理工学院教授马克斯·泰格马克在接受采访时表示,“它们是美国唯一一个生产强大技术且完全不受监管的行业,因此它们之间陷入了一场逐底竞争,但它们却没有动力优先考虑安全”。

旧金山的两家人工智能公司给出的最高总体评分仅为 C+:生产 ChatGPT 的 OpenAI 和以其人工智能聊天机器人模型 Claude 闻名的 Anthropic。谷歌的人工智能部门 Google DeepMind 获得了 C 级评级。

排名更低的是 Facebook 位于门洛帕克的母公司 Meta 和埃隆·马斯克位于帕洛阿尔托的公司 xAI,它们的得分为 D。中国公司 Z.ai 和 DeepSeek 也获得了 D。排名最低的是阿里云,得分为 D-。

公司的总体评级基于六大类35项指标,包括生存安全、风险评估和信息共享。该指数根据公开材料和公司通过调查的回应收集了证据。评分由八位人工智能专家完成,其中包括学者和人工智能相关组织的负责人。

该指数中的所有公司在存在安全类别中的排名均低于平均水平,这考虑了内部监控干预措施以及存在安全策略。

“虽然各公司加速实现通用人工智能和超级智能的野心,但没有一家公司展示出可靠的计划来防止灾难性的误用或失控,”该研究所的人工智能安全指数报告(使用通用人工智能的缩写)表示。

谷歌 DeepMind 和 OpenAI 均表示,他们正在投资于安全工作。

“安全是我们构建和部署人工智能的核心,”OpenAI 在一份声明中表示。– 我们大力投资前沿安全研究,为我们的系统建立强有力的保障措施,并在内部和独立专家的帮助下严格测试我们的模型。我们分享我们的安全框架、评估和研究,以帮助提高行业标准,并不断加强我们的保护措施,为未来的能力做好准备。Ø谷歌 DeepMind 在一份声明中表示,它采取“严格的、以科学为主导的人工智能安全方法”。

– 我们的

边境安全框架概述了在强大的前沿人工智能模型出现之前识别和减轻严重风险的具体协议。”谷歌 DeepMind 表示。– 随着我们的模型变得更加先进,我们将根据能力不断在安全和治理方面进行创新。”

生命未来研究所的报告称,xAI 和 Meta 尽管拥有风险管理框架,但缺乏任何监控和控制的承诺,并且没有提供证据表明它们在安全研究方面的投资超过最低限度。该研究所表示,DeepSeek、Z.ai 和阿里云等其他公司缺乏有关存在安全策略的公开文件。

Meta、Z.ai、DeepSeek、阿里巴巴和 Anthropic 均未回复置评请求。

“传统媒体在撒谎,”xAI 在回应中说道。马斯克的代表律师没有立即回复进一步置评的请求。

泰格马克表示,马斯克还是未来生命研究所的顾问,过去曾向该非营利组织提供资金,但没有参与人工智能安全指数。

泰格马克表示,他担心如果对人工智能行业没有足够的监管,可能会导致帮助恐怖分子制造生物武器,比现在更有效地操纵人们,甚至在某些情况下危及政府的稳定。

“是的,我们遇到了很大的问题,事情正朝着糟糕的方向发展,但我想强调的是,解决这个问题是多么容易,”泰格马克说。“我们只需要为人工智能公司制定具有约束力的安全标准。”

政府一直在努力加强对人工智能公司的监管,但一些法案遭到了科技游说团体的抵制,这些团体认为加强监管可能会减慢创新速度,并导致公司转移到其他地方。

但已经有一些立法旨在更好地监控人工智能公司的安全标准,包括SB 53,由州长加文·纽瑟姆 (Gavin Newsom) 于 9 月签署。它要求企业分享其安全协议,并向国家报告网络攻击等事件。泰格马克称新法律是朝着正确方向迈出的一步,但还需要做更多的工作。

咨询服务公司 Enderle Group 首席分析师 Rob Enderle 表示,他认为人工智能安全指数是解决美国人工智能监管不力这一根本问题的一种有趣方法,但也存在挑战。

“我不清楚美国和现任政府目前是否有能力制定经过深思熟虑的法规,这意味着这些法规最终可能弊大于利,”恩德勒说。“也不清楚是否有人已经想出如何加强法规以确保合规性。”

关于《安全报告卡对人工智能公司保护人类的努力进行了排名》的评论


暂无评论

发表评论

摘要

生命未来研究所的一份新成绩单对人工智能公司的安全措施进行了评估,发现最缺乏的方面,只有 OpenAI 和 Anthropic 得分为 C+。该指数基于包括生存安全在内的六个类别的 35 项指标,显示所有公司的生存安全均低于平均水平。Meta、xAI、Z.ai、DeepSeek 和阿里云等公司由于对人工智能安全研究的公开承诺和投资证据不足而获得较低评级。尽管呼吁制定具有约束力的安全标准以防止滥用,但在不抑制创新的情况下实施有效的法规仍然面临挑战。