OC

Knowledge OS
鹦鹉螺口语
OpenAI 支持限制人工智能大规模死亡或金融灾难责任的法案
2026-04-10 00:19:00 · 英文原文

OpenAI 支持限制人工智能大规模死亡或金融灾难责任的法案

作者:Maxwell Zeff

OpenAI 正在抛出它支持伊利诺伊州一项法案,该法案将保护人工智能实验室在以下情况下免于承担责任:人工智能模型用于造成严重的社会危害,例如 100 人或以上死亡或重伤,或至少 10 亿美元的财产损失。

这一努力似乎标志着一种转变OpenAI 的立法的战略。到目前为止,OpenAI 基本上一直在防守,反对那些本来可以使AI实验室负有责任因为他们的技术造成了危害。几位人工智能政策专家告诉《连线》杂志,SB 3444(可能为行业树立新标准)是比 OpenAI 过去支持的法案更为极端的措施。

该法案将保护前沿人工智能开发人员免受其前沿模型造成的“严重损害”的责任,只要他们不是故意或鲁莽地造成此类事件,并在其网站上发布了安全、安保和透明度报告。它将前沿模型定义为任何使用超过 1 亿美元计算成本训练的 AI 模型,这可能适用于美国最大的 AI 实验室,如 OpenAI、Google、xAI、Anthropic 和 Meta。

“我们支持这样的方法,因为它们专注于最重要的事情:降低最先进的人工智能系统造成严重损害的风险,同时仍然允许这项技术进入伊利诺伊州大小的人民和企业手中,”OpenAI 发言人 Jamie Radice 在一份电子邮件声明中表示。“它们还有助于避免各州规则的拼凑,并朝着更清晰、更一致的国家标准迈进。”

根据其对严重危害的定义,该法案列出了人工智能行业的一些常见问题,例如不良行为者利用人工智能创造一种化学物质, 生物,放射性或核武器。如果人工智能模型自行做出的行为如果是由人类实施的话,将构成刑事犯罪并导致这些极端结果,这也将是一种严重的伤害。如果 AI 模型根据 SB 3444 实施任何此类行为,则该模型背后的 AI 实验室可能不承担责任,只要该行为不是故意的并且他们发布了报告。

美国联邦和州立法机构尚未通过任何法律,专门确定 OpenAI 等人工智能模型开发商是否应对其技术造成的此类损害承担责任。但随着人工智能实验室不断发布更强大的人工智能模型,这些模型提出了新的安全和网络安全挑战,例如人类的克劳德神话,这些问题感觉越来越有先见之明。

OpenAI 全球事务团队成员 Caitlin Niedemeyer 在支持 SB 3444 的证词中也支持人工智能监管的联邦框架。尼德迈耶传达了与特朗普政府一致的信息打击国家人工智能安全法,声称重要的是要避免“不一致的国家要求的拼凑,这可能会在没有有意义地提高安全性的情况下产生摩擦。”这也与近年来硅谷的更广泛的观点一致,硅谷普遍认为,这对于安全至关重要。人工智能立法不会妨碍美国在全球人工智能竞赛中的地位。虽然 SB 3444 本身是一项州级安全法,但 Niedemeyer 认为,如果它们“强化与联邦系统协调的道路”,它们就会有效。

“在 OpenAI,我们认为边境监管的北极星应该是安全部署最先进的模型,同时保持美国在创新方面的领导地位,”Niedemeyer 说。

Secure AI 项目的政策总监 Scott Wisor 告诉《连线》杂志,鉴于伊利诺伊州以积极监管技术而闻名,他认为这项法案通过的机会很小。– 我们对伊利诺伊州的人们进行了民意调查,询问他们是否认为人工智能公司应该免除责任,90% 的人反对。现有的人工智能公司没有理由面临减少的责任。”Wisor 说。

关于《OpenAI 支持限制人工智能大规模死亡或金融灾难责任的法案》的评论

暂无评论

发表评论