编者注:
以下为第三十五届会议纪要:国会外交关系和国家安全研究小组是一项针对国会工作人员的计划,重点关注界定国会在美国外交关系和国家安全政策各个方面所扮演的角色的法律和政策因素。
2024 年 7 月 12 日,国会外交关系和国家安全研究小组虚拟会议讨论了人工智能(AI)监管可能存在的宪法限制和障碍。对人工智能技术快速发展的担忧促使各级政策制定者考虑一系列可能的监管方法。当国会就可能的联邦办法进行辩论时,一些州已经开始通过自己的立法来弥补这一空白。典型的例子是加利福尼亚州的 S.B.1047 号法案除其他措施外,还要求所有特定规模的人工智能开发商“提供合理保证”,宣誓他们的模型不会对州内的关键基础设施造成 5 亿美元的损失,也不会导致大规模的大规模破坏。- 伤亡事件。但观察家质疑这些要求是否符合第一修正案和其他可能的宪法限制。
本次会议由两名外部专家加入研究小组:
在讨论之前,研究小组分发了以下背景材料:
- 迪恩·鲍尔 (Dean Ball) 和艾伦·罗森施泰因 (Alan Rozenshtein)国会应优先于各州人工智能安全立法, –劳法尔(2024 年 6 月 17 日);
- 艾伦·罗森施泰因 (Alan Rozenshtein) 等人,☀人工智能安全法(不一定)不是第一修正案的问题, –劳法尔(2024 年 6 月 7 日);和
- 杰西·迈尔斯,——加州的 SB 1047 可能会在人工智能初创公司启动之前阻止它们,—中等的(2024 年 5 月 9 日)。
迈尔斯拉开了讨论的序幕,他解释说,围绕人工智能监管的对话应该更加深入地讨论:(1) 所针对的技术类型;(2)潜在的规则是否应该规范人工智能工具本身的设计,或者是否限制人工智能工具的使用者。
罗森施泰因随后概述了美国目前的监管现状,并指出迄今为止,州监管远比联邦举措更具实质性。在联邦层面,有一个人工智能政策路线图该文件由多位参议员发布,与其说是关于监管人工智能,不如说是为了鼓励人工智能在美国的发展并确保联邦政府继续参与。拜登政府还发布了关于安全、可靠和值得信赖的人工智能开发和使用的行政命令促进透明度和报告要求。尽管如此,联邦国会监管尚未提出可行的提案。
与此同时,在州一级,与人工智能相关的法规通常属于三个类别:
- 现有法规可用于解决人工智能之外的问题,但也适用于生成式人工智能的某些用途所造成的危害。例如,人工智能工具可能会生成诽谤性内容,而先前存在的诽谤法仍然适用。
- 关于最终用户如何使用人工智能的人工智能特定法规。例如,明尼苏达州已监管深度伪造品的使用并通过强制披露某些内容是人工智能生成来要求透明度。这一桶不会引发新的宪法问题,因为它涉及已经受到监管的行为。
- 针对生成式人工智能模型本身的人工智能特定法规。这加州人工智能安全立法就是一个值得注意的例子,因为如果人工智能公司的工具与任何形式的伤害或伤亡有关,它将授权总检察长追查人工智能公司本身。在这一范围内可能会提出许多宪法问题。
然后讨论转向第一修正案如何在人工智能领域应用。迈尔斯表示,这仍然是一个灰色地带,罗森施泰因补充说,值得注意的是,这个问题仍然悬而未决。法院的回应可能会被延迟,而且他们提供的答案可能也不清楚。迈尔斯解释说,从一开始,第一修正案就适用于人类,而不是技术本身。第一修正案可能通过两种途径受到影响:
- 生成式人工智能服务的创建涉及多个方面:开发人员、数据集创建者、就如何训练技术做出决策的人员。例如,生成式人工智能堆栈的每一层都可能具有可直接追溯到人类的编辑质量,然后可以根据第一修正案予以考虑。
- 用户也有权利和私人考虑,因为生成式人工智能工具可以用作增强演讲的表达形式。一个恰当的类比是使用当前技术来保护表达形式,例如数码相机、报纸、收音机。
迈尔斯解释说,最终必须进行“编辑计算”来决定有多少人类表达专门用于给定人工智能的后端。罗森施泰因阐述说,在网络选择最高法院的意见表明,法官们并不认为算法没有任何第一修正案的价值。时间追溯到 1996 年,第九巡回赛伯恩斯坦认为源代码是受保护的言论。罗森施泰因认为,这种推理是成立的:音乐家通过音乐进行交流,而数学家和计算机科学家通过代码进行交流。然而,要点并不在于源代码总是语音。相反,最好的解释是该代码有时是语音。迈尔斯强调了这一主题的挑战性——对于新兴技术来说,总会有一个点,在这个点上,人们可以将给定的输出追溯到某种形式的人类决策。因此,很难划清界限:算法开发到什么时候不再与人类表达或决策相关?
随着讨论转向版权,迈尔斯表示,通常人工智能输出不符合版权资格。有人可能会争辩说,这些输出构成了人类的表达,或者指向一位将人工智能工具与人类作品结合起来的艺术家。但归根结底,如果作品是由人工智能工具制作的,它就不会受到版权保护。即将到来的案件将回答为获得新成果而对受版权保护的作品进行培训是否公平。迈尔斯解释说,如果培训用于产生与受版权保护的培训材料类似的输出,法官就不太可能适用合理使用。但是,如果存在一个模型,其目的不是复制或模仿受版权保护的输入,那么这种情况更有可能被允许。
在谈到国会如何看待版权问题时,迈尔斯阐述了两种可能的方法。极端的方法是国会修改美国版权法以适用于生成人工智能。但考虑到生成式人工智能刚刚兴起且不断变化,这可能会让版权法变得“脆弱”。与此同时,更微妙的方法是在州一级对公开权采取行动。Rozenshtein 解释说,州法规往往会产生很大的影响,并指出加利福尼亚州采用的排放法规导致公司在全球范围内调整其产品,以遵守加利福尼亚州的法规。然而,国会还使用休眠商业条款来限制各州通过特定于州的法规,这些法规可能会加重州商业的负担。因此,即使各州通过了针对人工智能的法规,它们也可能会根据休眠商业条款被推翻。
关于潜在的先发制人问题,Rozenshtein 提出,国会应该能够先于州立法制定有关人工智能模型开发的法规,但有关使用这些模型的法规应仍处于州的控制之下。罗森施泰因表示,模型的开发并没有针对特定国家的情况,但应该允许国家禁止某些用途,例如自动驾驶汽车。另一方面,迈尔斯解释说,人工智能应该像互联网一样受到监管,从而受到明确的先发制人的约束。随着各国争先恐后地通过人工智能监管,将会出现更多的冲突,这将导致混乱和昂贵的纠纷。迈尔斯提出,我们应该向互联网监管领域学习,采取更统一的方法。
最后,关于是否第230条Rozenshtein 解释说,它不太可能适用于生成式 AI 输出,而且平台更有可能受到一般侵权法的约束,这将引发一系列围绕开发者行为是否合理的有趣问题。与此同时,迈尔斯质疑让生成式人工智能平台对用户试图规避其护栏的行为负责是否公平,这引起了小型开发商的担忧。尽管像谷歌这样的大型平台有能力应对每一起诉讼,但个人开发者的广泛生态系统却无法应对每一项潜在的侵权行为。Miers 得出的结论是,如果第 230 条不适用于人工智能,小公司成功的可能性就会降低。
研究小组随后举行了公开讨论会,与会者可以自由地对提出的各种问题发表评论并提出问题。
访问 国会外交关系和国家安全研究小组用于访问其他会议的笔记和信息的登陆页面。
布鲁金斯学会致力于质量、独立性和影响力。
我们得到了支持多元化的资助者。符合我们的价值观和政策,布鲁金斯学会的每份出版物均代表其作者的唯一观点。