加州批准两项重要的人工智能法案 - WilmerHale

2024-09-16 13:41:14 英文原文

过去一年来,人工智能(AI)一直是全国各州立法机构的热门话题。与技术相关问题一样,加州在人工智能领域的监管方面处于领先地位。加州立法机关最近分别于2024年8月26日和2024年8月28日通过了人工智能法案AB 2013和SB 1047。SB 1047 要求最大人工智能模型的开发人员采取重大安全措施,以减轻其系统未来开发可能给公众带来的安全风险。与此同时,AB 2013 要求生成人工智能 (AI) 系统的开发保持透明。这两项法案目前正在等待州长加文·纽瑟姆 (Gavin Newsom) 的最终批准。

加州一直处于行业和技术监管的最前沿,人工智能领域似乎也没有什么不同。然而,目前尚不清楚这两项法案是否会签署成为法律。由于业界甚至加州民主党人的反对,SB 1047 的命运尤其不确定。然而,即使这些法案没有通过,考虑开发人工智能模型或对其进行微调的公司也应该了解其中的规定,因为人工智能提案显然有一个趋势,即提出安全协议、测试程序和第三方等实质性要求。对模型开发人员进行审计,试图避免伤害并提高这些模型开发(包括其数据源)的透明度。

加利福尼亚州并不是唯一一个积极关注人工智能问题的州。许多州已于 2024 年提出旨在监管人工智能的法律。加州这些法律的通过可能会进一步引发其他州的行动(正如我们在其他技术相关问题上看到的那样)。州一级有关人工智能问题的更多进展也可能促使国会认真考虑联邦立法,特别是在其他司法管辖区(例如欧盟)继续规范这一领域的情况下。

下面,我们提供了我们的关键对这些法案的要点,以及这两项新的潜在加州人工智能法的总体摘要。我们将继续通过 WilmerHale 隐私和网络安全博客向您通报该主题的重大进展。

要点:

  • 合理护理标准:考虑到对由于大型人工智能模型存在潜在的安全风险,人们仍然关注对这些模型的开发者施加合理谨慎的义务,以避免重大损害。这与科罗拉多州采取的方法类似,该州的人工智能法要求开发者采取合理的谨慎措施,保护消费者免受因高风险人工智能系统的预期和合同使用而产生的任何已知或合理可预见的算法歧视风险。
  • 政策和程序:SB 1047 特别为人工智能开发人员规定了特定的文档义务,包括开发单独的安全和安保协议的要求。关注人工智能开发人员通过适当的政策和程序记录其实践也是其他人工智能提案的重点领域。
  • 员工保护:SB 1047 值得注意,因为它为员工提供了举报人保护,这是与其他 AI 提案相比,这是一个有点独特的规定。
  • 训练数据:AB 2013 特别要求生成式 AI 开发人员用于训练模型的数据具有透明度。这是其他监管机构和立法机构关注的一个领域,也是原告律师仔细审查的一个领域。

SB 1047:前沿人工智能模型安全可靠创新法案

SB 1047,也称为前沿人工智能模型安全和可靠创新法案,由州参议员 Scott Wiener 提出,将对先进人工智能模型施加各种安全限制和要求,其既定目标是允许加州认识到该技术的好处,同时避免最严重的风险。

适用性

该法案适用于在加利福尼亚州提供服务的人工智能开发人员。开发人员被定义为通过使用足够的计算能力和成本来训练模型,或者使用一定的计算能力微调现有的覆盖模型或覆盖模型导数来执行覆盖模型的初始训练的人并且成本大于涵盖模型的账单定义中指定的金额。

涵盖模型也是一个定义术语,旨在适用于大型功率模型,并且会随着时间的推移而变化关于人工智能系统的计算能力阈值和成本。在 2027 年 1 月 1 日之前,涵盖的模型被定义为经过 (1) 使用大于 10^26 整数或浮点运算 (FLOP) 的计算能力进行训练且开发成本超过 1 亿美元的 AI 模型,或 (2)使用三倍 10^25 整数或 FLOP 的计算能力进行微调,成本超过 1000 万美元。2027 年 1 月 1 日之后,成本阈值将保持不变,尽管会根据通货膨胀进行调整,但计算能力阈值将每年由该法案创建的政府运营机构设定。

关键要求

该法案要求开发人员在训练涵盖模型之前和之后实施某些安全措施,并规定开发人员有合理谨慎的义务,以防止涵盖模型和涵盖模型衍生品构成导致或实质上导致关键问题的不合理风险。伤害。该法案认为,在确定开发商是否采取合理谨慎措施时需要考虑几个因素,包括开发商安全和安保协议的质量、开发商实施和遵循其安全和安保协议的程度,以及开发商安全和安保协议的质量和实施情况。与同行相比,开发人员的安全和安全协议。

开发人员不得将涵盖的模型或其衍生物用于培训、评估或法律合规性或商业用途以外的任何目的或公共使用,如果存在造成或造成严重伤害的不合理风险。在训练涵盖模型之前,开发人员需要实施多项安全措施,包括合理的网络安全保护,以防止对涵盖模型以及开发人员控制的所有涵盖模型衍生品进行未经授权的访问、滥用或不安全的训练后修改。该法案还要求实现立即完全关闭模型的能力。

此外,该法案要求开发人员实施书面且单独的安全协议,该协议符合开发人员的义务:采取合理的谨慎措施,避免生产具有造成或实质上造成严重伤害的不合理风险的模型或涵盖模型衍生品,例如以导致大规模伤亡的方式制造或使用化学、生物、放射性或核武器,或对公共安全造成其他严重危害,造成大规模人员伤亡或重大金钱损失。该协议必须确定一个测试程序,以评估该模型或其衍生品是否构成造成或严重造成严重损害的不合理风险,并且必须详细描述开发人员将如何履行法案中规定的义务。开发人员必须采取指定步骤,确保协议按书面实施,包括指定高级人员监督实施,并在所涵盖的模型可用于商业、公共或可预见的范围内保留安全协议的未编辑副本公共使用加五年,包括任何更新或修订的记录和日期。他们还将对该协议进行年度审查,并显着地发布安全和安保协议的副本(允许对某些类型的信息进行编辑),并根据要求将副本发送给司法部长,尽管该法案将使该协议成为可能不受《加州公共记录法》的约束。

该法案还对开发商提出了持续的要求,并要求进行第三方审计。具体来说,所涵盖模型的开发人员将被要求每年重新评估其根据该法案采用的实施程序、政策、保护、能力和保障措施。从 2026 年 1 月 1 日开始,他们还将每年聘请一名第三方审计师,按照审计最佳实践独立核实法案要求的遵守情况。审计员应准备一份审计报告,包括对开发商为遵守法案所采取的步骤的详细评估、不遵守法案要求的情况和改进建议,以及对开发商内部控制的详细评估。开发商应在显着位置公布审计报告的经过编辑的副本,并向加州总检察长提供一份副本。未经编辑的报告副本也将根据要求提供给司法部长。

最后,所涵盖模型的开发商每年应向司法部长提交一份遵守该法案的声明。他们还应在 72 小时内向司法部长报告影响涵盖模型或由其控制的任何涵盖模型衍生品的每个人工智能安全事件(即通过法案中概述的多种方式明显增加严重伤害风险的事件)。开发商。此外,如果他们将该模型或其衍生物用于培训、评估或法律合规之外的目的,或者如果他们首次将其用于商业或公共用途,则必须在 30 天内通知司法部长。

员工保护

该法案为开发商或其分包商的员工提供举报人保护。开发人员不得阻止其员工或对他们向当局披露有关违反 SB 1047 的信息而进行报复。开发人员还应提供一个内部流程,如果员工善意相信,则可以通过该流程匿名向开发人员披露信息该开发商违反了 SB 1047。

执法和监督

加州总检察长拥有专属执法权,可以针对特定的违反该法案的行为提起民事诉讼,例如导致造成他人死亡或身体伤害、财产损失、财产被盗或挪用,或者对公共安全构成迫在眉睫的风险或威胁。在提起民事诉讼时,加州总检察长可以寻求民事处罚、金钱或惩罚性赔偿、禁令救济、律师费和费用或法院认为适当的任何其他救济。

该法案还设立了一个名为政府运营局的财团将独立于技术部运作。该机构将被要求每年发布法规来更新所涵盖模型的定义,第一版将于 2027 年 1 月 1 日之前发布。到 2026 年 1 月 1 日,该机构还将开发一个用于创建公共云计算的框架集群被称为 CalCompute,促进安全、道德、公平和可持续等人工智能的开发和部署;促进造福公众的研究和创新;并向立法机关提交有关该框架的报告。

AB 2013:人工智能训练数据透明度

AB 2013,题为人工智能训练数据透明度,将要求开发者公开发布指定的数据有关用于训练其生成人工智能系统或服务的数据的文档。

适用性

该法案适用于生成人工智能开发人员,并且这两个术语在该法案中都有具体定义。生成式人工智能被定义为人工智能,可以生成派生的合成内容,例如文本、图像、视频和音频,模拟人工智能训练数据的结构和特征。该法案进一步将人工智能定义为一种工程或基于机器的系统,其自主程度各不相同,并且可以针对明确或隐含的目标,从收到的输入中推断出如何生成可以影响物理或虚拟环境的输出。/p>

该法案将开发者定义为设计、编码、生产或大幅修改供公众使用的人工智能系统或服务的个人、合伙企业、州或地方政府机构或公司,不包括某些人,例如医院医务人员。

关键要求

从 2026 年 1 月 1 日开始,对于 2022 年 1 月 1 日之后发布的任何新的或重大更新的生成式人工智能系统,开发人员必须发布其公共网站上有关用于训练这些系统的数据的文档。该文档应包含以下信息:

  • 训练数据集的来源或所有者;
  • 数据集如何进一步实现预期目的的描述人工智能系统或服务;
  • 数据集中数据点的数量和描述;
  • 数据集是否包含受版权、商标或专利保护的任何数据,或者是否数据集完全属于公共领域;
  • 生成人工智能系统或服务在其开发过程中是否使用或持续使用合成数据生成等。

执法和监督

如果该法案获得通过,将纳入《加州消费者隐私法》,加州隐私保护局和加州总检察长将拥有执行权。

关于《加州批准两项重要的人工智能法案 - WilmerHale》的评论


暂无评论

发表评论

摘要

过去一年,人工智能(AI)一直是全国各州立法机构的热门话题。然而,即使这些法案没有通过,考虑开发人工智能模型或对其进行微调的公司也应该了解其中的规定,因为人工智能提案显然有一个趋势,即提出安全协议、测试程序和第三方等实质性要求。对模型开发人员进行审计,以避免伤害并提高这些模型开发(包括其数据源)的透明度。从 2026 年 1 月 1 日开始,他们还将每年聘请一名第三方审计师,按照审计最佳实践独立核实法案要求的遵守情况。他们还应在 72 小时内向司法部长报告影响涵盖模型或由其控制的任何涵盖模型衍生品的每个人工智能安全事件(即通过法案中概述的多种方式明显增加严重伤害风险的事件)。开发商。该法案进一步将人工智能定义为一种工程或基于机器的系统,其自主程度各不相同,并且可以针对明确或隐含的目标,从收到的输入中推断出如何生成可以影响物理或虚拟环境的输出。