加利福尼亚的眼睛调节AI模型|pymnts.com

2025-09-25 22:21:12 英文原文

作者:PYMNTS

经过 2025年9月25日

加利福尼亚可能很快就会领导全国规范强大的AI模型。立法机关通过了SB 53,边境人工智能法中的透明度,这将要求FrontierâAi开发人员发布安全协议,向州报告关键事件并维护举报人的保护。该法案现在坐在州长加文·纽瑟姆(Gavin Newsom)的桌子上,他是否签署了是否可以确定加利福尼亚是否成为第一个施加具有法律约束力的AI护栏的人。一个 

Newsom公开建议支持AI监督立法。根据Politico的说法他说,在克林顿全球倡议中,我们的办公桌上有一项法案,我们认为达到了适当的平衡 - 我们与行业合作,但我们没有屈服于行业。我们不对他们做事,但我们不一定要为他们做事。他没有指定他的意思。观察者广泛认为他提到了SB 53。Politico报道他的言论是在数月的AI政策进行操作之后,州参议员告诉记者,他们希望他指的是SB 53。彭博法律报道Newsom认可了对AI部门的更强有力的监督,并强调了加利福尼亚在设置早期护栏方面的作用。” 一个 SB 53需要什么一个 

在SB 53下,大型边境AI开发人员必须发布安全协议,以解释他们如何测试灾难性风险并进行缓解。

开发人员还必须发布有关新模型或修改模型的透明度报告,总结风险评估,危险能力阈值,预期用途和保障措施。一个 关键安全事件必须在15天内或在迫在眉睫的威胁存在的24小时内向加利福尼亚的紧急服务办公室报告。

灾难性事件定义为造成至少50人死亡或10亿美元损害的事件。一个 

该法律还保护举报人,需要匿名报告渠道并禁止报复。从2030年开始,年度独立审计将是强制性的,摘要发送给了总检察长。对于反复的灾难性风险违规行为,罚款将升级高达1000万美元。一个 

广告:滚动继续

植根于州长的专家委员会一个 

SB 53与加利福尼亚关于边境AI政策的报告,由Newsom召集的专家工作组于6月17日发布。该报告优先考虑基于证据的监督,标准化的披露,事件跟踪和对内部人员的保护,而不是严格的微观管理。它还主张为自适应阈值和基础设施支持,在SB 53中回应的核心思想。SB53的最终版本将确保加利福尼亚不仅继续领导AI创新,而且还以负责任的方式确保创新是安全和安全的,”维纳参议员说,SB53的赞助商 一个 人工智能公司人类

有公开 认可SB 53,指出它提供了更清晰的期望,并建立了护栏严格的任务。他们的支持增强了人们对法案在监管和创新之间取得细微差别平衡的看法。一个 

加利福尼亚和AI政策的赌注一个 

在联邦一级的不确定性越来越大的情况下,加利福尼亚的推动力越来越大。Pymnts最近 报告科罗拉多州已将其AI法律的实施推迟到2026年6月,为企业提供了 更多时间进行调整。PYMNTS也已追踪AI监管沙箱的建议,该框架允许公司在有限的监督下测试新系统。一个 

加利福尼亚州AB 2013于2026年1月1日生效。法律要求生成的AI开发人员发布其培训数据的摘要,包括来源和收集时间表,从而与SB 53的Frontier模型规则一起创建透明度的基线。如果Newsom符合SB 53的迹象,加利福尼亚将成为对AI开发人员施加具有约束力风险规则的美国第一个管辖权。” 

关于《加利福尼亚的眼睛调节AI模型|pymnts.com》的评论


暂无评论

发表评论

摘要

加利福尼亚很快可能会以SB 53的通过,即《边境人工智能法案》中的透明度。该法案要求大型边境AI开发人员发布安全协议和透明度报告,在严格的时间表中报告关键事件,并确保举报人的保护。它需要从2030年开始的年度独立审计,并对反复违规行为不断升级。预计州长加文·纽瑟姆(Gavin Newsom)有望签署该法案,这有可能使加利福尼亚州首个施加法律具有约束力的AI护栏的司法管辖区。该法案与Newsom召集的专家工作组的建议紧密相吻合,并获得了AI Company Anthropic的支持。

相关讨论