在周日晚上宣布否决的声明中,纽瑟姆表示该法案对模型尺寸的特殊兴趣是错误的。纽瑟姆写道:“通过只关注最昂贵和大型的模型,SB-1047 建立了一个监管框架,可能会让公众对控制这种快速发展的技术产生错误的安全感。”“更小的、专门的模型可能会与 SB-1047 所针对的模型同等甚至更危险,其潜在代价是限制推动有利于公共利益的进步的创新。”
Newsom 提到了具体的内容来自人工智能模型的“快速演变的风险”可以以更有针对性的方式进行监管,例如“对我们民主进程的威胁、错误信息和深度造假的传播、在线隐私的风险、对关键基础设施的威胁以及劳动力的中断。”加利福尼亚州已经制定了许多针对其中一些潜在危害的人工智能法律,许多其他州也签署了类似的法律。
“虽然本意良好,但 SB-1047 并未考虑是否人工智能系统部署在高风险环境中,涉及关键决策或敏感数据的使用,”纽瑟姆继续解释否决权。“相反,该法案甚至对最基本的功能都采用了严格的标准,只要大型系统部署了它。我不认为这是保护公众免受该技术构成的真正威胁的最佳方法。”
该法案的共同起草者、州参议员斯科特·维纳(Scott Wiener)在社交媒体帖子中称纽瑟姆的否决“对所有相信对大型企业进行监督的人来说是一次挫折,这些企业正在做出影响公众安全和福祉以及未来的关键决策”这个星球的”。维纳认为,人工智能公司对安全的自愿承诺是不够的,他补充说,缺乏有效的政府监管意味着“我们都因否决权而变得不那么安全”。
该法案通过后不久,一个团体加州商界领袖向纽瑟姆州长发出公开信,敦促他否决一项他们所谓的“存在根本缺陷”的法案,该法案“规范模型开发而不是滥用”,并表示该法案将“带来沉重的合规成本”。包括 Google 和 Meta 在内的大型科技公司的游说者也公开反对该法案,尽管来自这些公司和其他大型科技公司的一群员工站出来支持该法案的通过。
OpenAI 首席战略官 Jason Kwon 公开敦促SB-1047 否决权,在一封公开信中表示,联邦监管比“拼凑而成的州法律”更合适、更有效。由于一些镇痛剂政策路线图和工作组报告的发布,制定此类联邦立法的早期尝试在国会陷入停滞。
xAI 领导人埃隆·马斯克主张通过该法案,称这是“一个艰难的决定”但最终,人工智能需要受到监管,“就像我们监管任何对公众构成潜在风险的产品/技术一样”。加利福尼亚州实力雄厚的演员工会 SAG-AFTRA 也站出来支持该法案,称其为防止其成员遭受深度假货、未经同意的声音和肖像使用等已知危险的“第一步”。
At在本月早些时候的 2024 年 Dreamforce 会议上,Newsom 公开谈到“立法 [如 SB-1047] 可能产生的巨大影响,以及寒蝉效应,特别是在开源社区......我无法解决所有问题。什么可以解决?”我们解决了什么?”