8月29日,加州立法机关通过了参议院第1047号法案《前沿人工智能模型安全可靠创新法案》,并将其送交州长加文·纽瑟姆签署。Newsom 的选择将于 9 月 30 日到期,是二元的:杀死它或使其成为法律。
认识到先进人工智能可能带来的危害,SB 1047 要求技术开发人员在开发和部署时集成防护措施该法案所称的涵盖模型。加州总检察长可以通过对未采取合理谨慎措施的当事人提起民事诉讼来执行这些要求,以确保 1) 他们的模型不会造成灾难性伤害,或者 2) 他们的模型可以在紧急情况下关闭。
州参议员斯科特·维纳 (Scott Wiener) 的立法将引入产品安全测试和责任标准。
许多著名的人工智能公司单独或通过行业协会反对该法案。他们的反对意见包括担心所涵盖模型的定义过于僵化,无法解释技术进步,让他们对其他人开发的有害应用程序负责是不合理的,以及该法案总体上将扼杀创新并限制小型初创公司,因为它们没有资源致力于合规性。
这些反对意见并非无意义;它们值得考虑,并且很可能对该法案进行进一步的修改。但无论如何,州长都应该签署或批准它,因为否决权将表明现在对人工智能的监管是不可接受的,并且可能直到或除非发生灾难性损害。对于政府来说,这种立场并不适合采用此类技术。
SB 1047 要求人工智能公司应要求与司法部长分享其安全计划,如果发生灾难性事件,将面临处罚。
该法案的作者,参议员斯科特·维纳 (Scott Wiener)(旧金山民主党人)在最终立法通过之前与人工智能行业就该法案进行了多次迭代。至少一家大型人工智能公司 Anthropic 要求对文本进行具体且重大的修改,其中许多修改已纳入最终法案中。自立法机关通过该法案以来,Anthropic 的首席执行官表示,该法案的好处可能超过其成本,[尽管]该法案的某些方面[仍然]似乎令人担忧或含糊不清。迄今为止的公开证据表明,大多数其他人工智能公司只是选择原则上反对该法案,而不是做出具体努力来修改该法案。
我们应该如何看待这种反对,特别是因为一些国家的领导人这些公司中有多少家公开表达了对先进人工智能潜在危险的担忧?例如,2023 年,OpenAI 和谷歌 DeepMind 的首席执行官签署了一封公开信,将人工智能与流行病和核战争的风险进行了比较。
当科技公司将其产品展示为时尚的自主计算机时,他们忽略了劳动力一个合理的结论是,与 Anthropic 不同,他们根本反对任何形式的强制性监管。他们希望为自己保留决定一项活动或研究工作或任何其他部署模型的风险何时超过其收益的权利。更重要的是,他们希望那些基于其涵盖的模型开发应用程序的人对风险缓解承担全部责任。最近的法庭案件表明,将枪支交给孩子的父母应对结果承担一定的法律责任。为什么人工智能公司应该受到不同的对待?
人工智能公司希望公众给予他们放手的机会,尽管存在明显的利益冲突,但不应相信盈利公司会做出可能妨碍其发展的决策。盈利前景。
我们以前来过这里。2023 年 11 月,OpenAI 董事会解雇了首席执行官,因为董事会认定,在他的领导下,公司正在走上一条危险的技术道路。几天之内,OpenAI 的各个利益相关者就推翻了这一决定,恢复了他的职位,并驱逐了主张解雇他的董事会成员。具有讽刺意味的是,OpenAI 的结构经过了专门的设计,允许董事会按照既定的方式行事,尽管公司具有盈利潜力,但董事会应该确保公共利益放在第一位。
Gov.加文·纽瑟姆 (Gavin Newsom) 周二签署了法案,为行为者提供更多人工智能保护,并解决政治广告中人工智能生成的虚假内容。
如果 SB 1047 被否决,反监管力量将宣布胜利,展示他们的智慧。他们将没有动力致力于替代性立法。没有重大监管对他们有利,他们将利用否决权来维持现状。
或者,州长可以制定 SB 1047 法,公开邀请其反对者帮助纠正其现状。具体缺陷。由于他们认为法律不完善,该法案的反对者将有很大的动力去努力并真诚地努力修复它。但基本方法是由行业而不是政府提出自己的观点,即对其先进模型的安全特性进行适当合理的关注。政府的作用是确保行业按照行业本身的要求行事。
废除 SB 1047 并维持现状的后果是巨大的:公司可以不受限制地推进其技术。接受不完美的法案的后果将是朝着为所有相关方创造更好的监管环境迈出的有意义的一步。这将是人工智能监管游戏的开始而不是结束。这第一步为未来奠定了基调,并确立了人工智能监管的合法性。州长应该签署 SB 1047。
赫伯特·林 (Herbert Lin) 是斯坦福大学国际安全与合作中心的高级研究学者,也是胡佛研究所的研究员。他是《网络威胁和核武器》一书的作者。
治愈普遍观点的方法
通过我们的每周通讯获取发人深省的观点.
您有时可能会收到来自《洛杉矶时报》的促销内容。