人工智能正在迅速发展。现在,它能够令人信服地模仿人类,从而助长大规模电话诈骗,或在未经同意的情况下制作名人的深度伪造图像,用于骚扰活动。监管这项技术的紧迫性从未如此迫切,因此,作为许多人工智能最大参与者的所在地,加利福尼亚州正试图通过一项名为 SB 1047 的法案来解决这一问题。
SB 1047 于 8 月下旬在加州议会和参议院获得通过,目前已提交加州州长加文·纽瑟姆 (Gavin Newsom) 的办公桌上,他将决定该法案的命运。尽管欧盟和其他一些国家政府多年来一直在制定人工智能法规,但 SB 1047 将是美国迄今为止最严格的框架。批评者对其影响描绘了一幅近乎世界末日的景象,称其对初创公司、开源开发人员和学者构成威胁。支持者称其为潜在危险技术的必要护栏,并纠正多年来监管不足的情况。不管怎样,加州的战斗可能会颠覆我们所知的人工智能,而且双方都将倾巢而出。
SB 1047 的原始版本非常大胆且雄心勃勃。由州参议员斯科特·维纳 (Scott Wiener) 提出的《加州前沿人工智能模型安全与可靠创新法案》,旨在严格监管具有足够计算能力的先进人工智能模型,其规模约为当今最大的人工智能系统(10^26 次浮点运算)。该法案要求这些前沿模型的开发者进行彻底的安全测试,包括第三方评估,并证明他们的模型不会对人类构成重大风险。开发人员还必须实施终止开关来关闭流氓模型并向新成立的监管机构报告安全事件。他们可能会因灾难性的安全失败而面临司法部长的潜在诉讼。如果他们在安全问题上撒谎,开发商甚至可能面临伪证指控,其中包括监禁的威胁(然而,这在实践中极为罕见)。
加州立法者在监管人工智能方面拥有独特的强大地位。这个国家人口最多的州是许多领先人工智能公司的所在地,其中包括公开反对该法案的 OpenAI 和在修正案之前对是否支持犹豫不决的 Anthropic。SB 1047 还寻求监管希望在加州市场运营的车型,使其产生远远超出州界的深远影响。
不出所料,科技行业的大部分人都发起了反抗。在我 7 月下旬参加的有关人工智能监管的 Y Combinator 活动中,我与 Coursera 联合创始人兼 Google Brain 创始人 Andrew Ng 进行了交谈,他谈到了他计划在旧金山街头抗议 SB 1047 的计划。随后,吴恩达出人意料地出现在台上,批评该法案对学术界和开源开发人员的潜在危害,而维纳和他的团队则在一旁观看。
当有人训练大型语言模型时……这就是一项技术。吴恩达在台上说,当有人将它们放入医疗设备、社交媒体或聊天机器人中,或使用它们来生成政治深度伪造或未经同意的深度伪造色情内容时,这些都是应用程序。而且人工智能的风险不是一个函数。它不依赖于技术,而依赖于应用程序。
像吴恩达这样的批评者担心 SB 1047 可能会减缓进展,常常让人担心它可能会阻碍美国对中国和俄罗斯等敌对国家的领先地位。众议员佐伊·洛夫格伦 (Zoe Lofgren) 和南希·佩洛西 (Nancy Pelosi) 以及加州商会担心该法案过于关注灾难性人工智能的虚构版本,人工智能先驱李飞飞在《财富》专栏中警告称,SB 1047 将损害我们新兴的人工智能生态系统。这也是联邦贸易委员会主席 Lina Khan 面临的压力点,她担心联邦监管会扼杀开源人工智能社区的创新。
在 YC 活动的舞台上,Khan 强调开源是经过验证的创新驱动力,吸引了数千亿美元的风险投资来推动初创企业的发展。Khan 说,我们正在思考开源在人工智能的背景下应该意味着什么,无论是对于你们作为创新者,还是对于我们作为执法者。软件背景下开源的定义并不能完全转化为人工智能背景。她说,创新者和监管者仍在探讨如何在监管背景下定义和保护开源人工智能。
批评的结果是 SB 1047 的第二稿明显温和,并于 8 月 15 日通过了委员会。在新的SB 1047中,拟议的监管机构被取消,总检察长不能再因重大安全事件起诉开发商。开发商现在只需提供有关其安全实践的公开声明,而无需承担刑事责任,而不必在作伪证的威胁下提交安全认证。此外,在模型微调上花费低于 1000 万美元的实体不被视为该法案下的开发人员,为小型初创公司和开源开发人员提供保护。
支持者表示,这并不意味着该法案不值得通过。心理学和心理学荣誉教授加里·马库斯 (Gary Marcus) 写道,即使在其弱化形式下,如果 SB 1047 促使哪怕一家人工智能公司认真思考其行为,或者更认真地考虑人工智能模型与人类价值观的一致性,那也将是一件好事。纽约大学神经科学。它仍将提供关键的安全保护和举报人保护,有些人可能认为这总比没有好。
Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 表示,该法案得到了大幅改进,我们相信修改后其收益可能会超过成本。在 Axios 报道的支持 SB 1047 的声明中,OpenAI、Anthropic、Google DeepMind 和 Meta 的 120 名现任和前任员工表示,他们认为最强大的人工智能模型可能很快就会带来严重风险,例如扩大生物武器和针对关键基础设施的网络攻击。
前沿人工智能企业测试最强大的人工智能模型是否会造成严重危害,并针对此类风险采取合理的防范措施是可行和适当的。
与此同时,许多批评者并没有改变他们的立场。Andreessen Horowitz 普通合伙人 Martin Casado 表示,这些修改只是装饰门面。他们没有解决该法案的真正问题或批评。
OpenAI 首席战略官 Jason Kwon 在给 Newsom 和 Wiener 的一封信中表示,SB 1047 将威胁这种增长,减缓创新步伐,并导致加州的世界级工程师和企业家离开该州。在其他地方寻找更大的机会。考虑到这些风险,我们必须通过一系列联邦政策而不是州政策来保护美国的人工智能优势,这些政策可以为人工智能实验室和开发人员提供清晰度和确定性,同时维护公共安全,Kwon 写道。
虽然经过高度修改的 SB 1047 版本已经提交到 Newsom 的办公桌上,但他对此却明显保持沉默。技术监管始终涉及一定程度的政治操纵,这并不是什么新闻,纽瑟姆对此类有争议的监管的守口如瓶就表明了这一点。纽瑟姆可能不想在总统选举前与技术专家搅局。
许多有影响力的科技高管也是政治运动的主要捐助者,在加利福尼亚州,一些世界上最大的科技公司的所在地,这些高管与州政治有着密切的联系。风险投资公司安德森·霍洛维茨(Andreessen Horowitz)甚至聘请了纽瑟姆州长的密友、民主党人贾森·金尼(Jason Kinney)来游说反对该法案。对于政治家来说,推动科技监管可能意味着损失数百万美元的竞选捐款。对于像纽瑟姆这样有明确总统野心的人来说,这是他不能破坏的支持水平。
更重要的是,硅谷和民主党之间的裂痕越来越大,尤其是在安德森·霍洛维茨 (Andreessen Horowitz) 联合创始人表示支持唐纳德·特朗普 (Donald Trump) 之后。该公司强烈反对 SB 1047,这意味着如果纽瑟姆将其签署为法律,分歧可能会扩大,从而使民主党更难重新获得硅谷的支持。
因此,这取决于纽瑟姆,他面临着来自世界上最强大的科技公司和佩洛西等政客的巨大压力。尽管立法者几十年来一直致力于在监管和创新之间取得微妙的平衡,但人工智能是模糊且前所未有的,许多旧规则似乎并不适用。目前,纽森必须在 9 月份之前做出可能颠覆我们所知的人工智能行业的决定。