英语轻松读发新版了,欢迎下载、更新

沉默的掠食者:在生成人工智能时代保护儿童

2024-11-20 15:40:33 英文原文

作者:Joshua Villanueva | UC Law San Francisco, US

一切都是从一阵嗡嗡声开始的——这种声音如此平常,以至于 14 岁的高中一年级新生阿德里安娜几乎没有再多想一下。但当她抓着手机走过走廊时,她注意到同学们的窃窃私语和窃笑声。有些事情不对劲。

当阿德里安娜打开 Instagram 通知时,她的世界崩溃了。一段视频显示她与素未谋面的人发生露骨的性行为。该视频不是真实的。它是由生成人工智能 (AI) 创建的——超现实、完全令人信服,但又极其虚假。只需轻按一下手机,阿德里安娜的世界就崩溃了,让她充满了痛苦、尴尬和羞耻。迫切需要安慰,她打电话回家。她妈妈接了电话,声音里充满了担忧,“怎么了,亲爱的?”阿德里安娜犹豫了,话哽在喉咙里,直到最后,一个挥之不去的问题脱口而出:“这么假的东西怎么看起来像假的?”这么真实吗?

数字世界中的儿童权利

今年,在世界儿童日,联合国呼叫鼓励成年人通过倾听儿童的声音并优先考虑他们的需求来“倾听未来”。生成式人工智能已成为一种强大的工具为了创造力和创新。然而,它给落入坏人手中的儿童带来了严重风险。人工智能生成的超现实、“深度伪造”儿童性虐待材料 (CSAM) 正变得越来越普遍。虽然阿德里安娜的故事是虚构的,但它强调了一个可怕的现实许多孩子面临着今天。

儿童权利公约 (UNCRC)供奉每个儿童都有受到保护免遭剥削和虐待的权利。儿童有尊严和自我表达的权利,但生成式人工智能威胁通过允许不良行为者制作有害内容,使执法部门充斥着虚假的 CSAM 案件,阻碍受害者身份识别,并助长骚扰、勒索和诈骗,从而削弱两者。

第 230 条和美国法律的全球影响

美国虽然尚未批准《联合国儿童权利公约》,但其法律和政策严重影响全球技术监管和儿童保护标准。第230条《通信规范法》就是一个例子。尽管第 230 条是美国法律,但 Meta、X 和 Google 等美国公司托管着全球大部分社交媒体内容。这些公司为遵守新的美国内容审核法规而开发的政策、系统和软件开创了先例,并影响了远远超出美国边界的做法。

丹妮尔·西特伦在她的书中,隐私之战,讲述了意大利律师和韩国执法官员如何告诉 Citron,他们不能强迫网站删除其客户或公民的图像,因为他们国家的法院对美国公司没有管辖权。外国当局表示,“当非美国网站删除未经同意的亲密图像时,肇事者会采取退而求其次的做法——他们将这些图像发布到美国网站上。”尽管受害者提出投诉,图像仍可能保留在网上,并且“犯罪者总是可以在美国托管的网站上折磨受害者,而受害者的祖国对此无能为力。”

生成型人工智能公司可能会援引第 230 条作为逃避刑事责任的盾牌。第 230(c)(1) 条规定,“交互式计算机服务的任何提供者或用户均不得被视为其他信息内容提供者提供的任何信息的发布者或发言者。”它阻止提供者和“交互式计算机服务”的用户免于作为他人提供的信息的“发布者或发言者”而承担责任。“交互式计算机服务”是指“提供或允许多个用户对计算机服务器进行计算机访问”的任何服务。

第 230 条通常保护平台免于对用户生成的内容承担责任,避免它们被视为发布者或发言者。然而,这豁免权不适用如果平台本身充当“信息内容提供商”,为内容的创建或开发做出贡献。法院评估这是通过检查平台是否全部或部分负责内容的创建来实现的。关键问题是平台的作用是否超出了托管范围,还包括开发内容。

法院尚未解决第 230 条如何适用于涉及生成人工智能的索赔,但最近的案件已经突破了其界限。在冈萨雷斯诉谷歌有限责任公司,原告辩称,YouTube 的算法通过放大其内容来帮助 ISIS,从而促成了导致他儿子死亡的恐怖袭击。第九巡回法院根据第 230 条驳回了该案,但最高法院随后撤回并发回重审Twitter, Inc. 诉 Taamneh。然而,期间口头辩论冈萨雷斯戈萨奇法官质疑第 230 条是否可以屏蔽人工智能生成的内容,这表明该法律在“后算法世界”中存在局限性。

第三巡回上诉法院最近强调了算法生成内容的潜在危害以及不断演变的问责问题安德森诉 TikTok 公司。。这起令人不安的案件集中在 TikTok 是否可以在一名儿童遗产提起的诉讼中主张第 230 条豁免权,该儿童在尝试“停电挑战”时死亡,“停电挑战”是一种通过 TikTok 的算法驱动推动的令人窒息的游戏趋势。“为您推荐”页面(FYP)。原告辩称,TikTok 的算法应对向未成年人推荐此类有害内容负责。

法院站在原告一边,裁定 TikTok 的算法建议不受第 230 条的保护。法院认为,策划和定制 FYP 内容构成了 TikTok 自己的表达活动,使其成为独特的第一方内容的创造者而不仅仅是第三方言论的渠道。 

人工智能生成的 CSAM 的法律挑战

Facebook 或 TikTok 等平台处理数据的方式与生成式人工智能模型有很大不同。生成式人工智能系统执行多种功能,从创建原创内容到严重依赖用户提示。他们是否有资格成为“信息内容提供商”并失去第 230 条豁免权取决于关于他们在塑造具体内容中的作用。如果生成式人工智能“全部或部分”创造了有害内容,法院可能会裁定第 230 条豁免权不适用。例如,如果模型响应合法提示而生成完全原始的输出(例如非法材料),则其作用可能会被视为对非法内容的材料贡献,从而消除了第 230 条的保护。

问题依然存在:当受害者不存在时,如何证明犯罪?美国法律,例如 18 U.S.C.§§§22561466A将制作或传播描绘未成年人性行为、涉及真正受害者的材料定为刑事犯罪。在纽约诉费伯案最高法院裁定,儿童色情制品不受第一修正案保护,理由是国家对保护未成年人的强烈兴趣、传播此类材料造成的永久性伤害、其缺乏价值以及限制有害言论的历史先例。此后,法院一直握住根据第 230 条的规定,“儿童色情制品不合法”,“其他信息内容提供商提供的信息”。。。相反,它是非法违禁品,源于对儿童的性虐待,超出了第一修正案的保护范围。”最高法院认为“任何复制、传播或拥有受害者虐待图像的人”。。。造成了这场悲剧的持续和加剧。”

就生成式人工智能而言,不涉及真正的孩子。可以做一个密切的类比阿什克罗夫特诉言论自由联盟,法院认为,在没有真实儿童的情况下创作的未成年人性行为的虚拟描述受到第一修正案保护言论自由的保护。虽然法院承认“这些图像可能导致实际的虐待儿童事件”,例如恋童癖者使用视频鼓励儿童进行性活动,但它仍然称因果关系为“偶然和间接的”并拒绝仅仅因为其潜在的不道德使用而禁止产品和活动。然而,如果色情内容以任何方式利用儿童,法院保护受害者。第二巡回法院将其与言论自由联盟区分开来美国诉Hotaling,其中使用技术将真实儿童的面孔叠加到从事性行为的成年人的身体上不符合第一修正案规定的受保护言论。

同样,利用人工智能和真实的儿童制作儿童色情内容也是非法的。一名儿童精神科医生曾被判有罪对未成年人进行性剥削,并利用人工智能以数字方式改变未成年人的着装图像以制作儿童色情内容。– 使用真人面孔制作裸体图像是一种问题这已经造成了困境在学校。

第一项联邦指控2024 年 5 月,联邦检察官对一名威斯康星州男子提起了创建 CSAM 应用于完全通过人工智能生成的图像的诉讼,该男子涉嫌使用流行的人工智能图像生成器创建了数千张露骨的儿童图像。该案在很大程度上凸显了未经检验的法律方法联邦官员计划进一步探索,并声称人工智能生成的图像应与现实世界的儿童性虐待记录类似地对待。“人工智能生成的 CSAM 仍然是 CSAM,我们将追究那些利用人工智能创建淫秽、虐待性且越来越逼真的儿童图像的人的责任,”副总检察长丽莎·摩纳哥。

淫秽法和米勒测试

尽管一些州为了应对技术进步,正在制定法律将人工智能生成的 CSAM 定为犯罪,许多仍然没有解决这个法律漏洞。挑战在于不可避免的第一修正案之战这些法律将面临。虽然儿童色情制品不受第一修正案的保护,但涉及人工智能生成的内容且受害者身份不明的案件要求检察官跳出框框思考,并求助于淫秽法(这是一种更加主观的解释)来立案。

鉴于人工智能生成内容的新颖性及其与言论自由联盟,检察官应使用米勒三部分测试:(1)按照当代社会标准,普通人是否会发现该作品作为一个整体是否会引起淫欲;(2) 作品是否以明显冒犯的方式描绘或描述适用的州法律明确规定的性行为;(3) 作品整体是否缺乏严肃的文学、艺术、政治或科学价值。人工智能生成的 CSAM 未能通过所有三个方面的测试: – 明确涉及未成年人从事性行为的儿童色情制品被广泛认为以当代社区标准而言是令人反感和不可接受的,对社会缺乏任何价值,正如法院在费伯,“我们认为,对儿童进行性行为或猥亵地展示生殖器的视觉描绘通常不太可能构成文学表演或科学或教育作品的重要且必要的部分。”因此,生成式人工智能创作的儿童色情作品应被视为非法18 美国法典§1466A,就像任何其他形式的儿童色情制品一样。

堵住漏洞:全球行动和问责的必要性

世界儿童日提醒我们反思保护儿童免受生成人工智能等先进技术造成的伤害的迫切需要。虽然人工智能为创造力和进步提供了无限的机会,但它也带来了新的风险。阿德里安娜的虚构故事可能看起来很极端,但它反映了许多孩子今天面临的令人毛骨悚然的现实。法院和政策制定者必须仔细平衡第 230 条的初衷和在算法和人工智能系统产生有害内容时追究平台责任的需要。 

行动呼吁很明确:面对快速发展的技术,政府、科技公司和个人必须共同努力,堵住法律漏洞,执行更严格的法规,并优先考虑儿童的福祉。每个孩子都应该有一个他们的声音被听到、他们的权利受到保护、他们的安全不受损害的世界。

关于《沉默的掠食者:在生成人工智能时代保护儿童》的评论


暂无评论

发表评论

摘要

本文讨论了生成式人工智能系统生成儿童性虐待材料 (CSAM) 的复杂问题及其带来的法律挑战。以下是要点总结:1. **虚构场景介绍:**- 8 岁女孩阿德里安娜 (Adrianna) 的故事实际上因人工智能生成的图像而受到虐待,这说明了生成人工智能系统在现实世界中带来的危险。2. **当前的法律框架和挑战:**- 现有法律,例如 18 U.S.C.§§ 2256 和 1466A 将制作或传播 CSAM 定为刑事犯罪,但基于实际受害者。- 最高法院在纽约诉费伯案中的裁决将儿童色情制品排除在第一修正案保护之外,因为其危害严重且缺乏价值。3. **生成式人工智能作为一种新威胁:**- 生成式人工智能系统生成不涉及真实儿童的内容,这使得根据现行法律很难进行法律起诉。- 没有真正的儿童参与人工智能生成的 CSAM 的创建,这引发了关于如何合法起诉涉及不存在受害者的犯罪的问题。4. **所需的法律类比和解释:**- 与言论自由联盟的类比,其中虚拟描述(没有真正的犯罪参与)被认为是有害言论。5. **第230条人工智能系统的豁免漏洞:**- 法院裁定,当平台的算法创建有害内容时,第 230 条平台不受保护。- 根据 Ferber 的裁决,平台策划 FYP 内容纯粹是第三方行为,在安德森诉 Tiktok 案中,算法内容被裁定为非法。6. **提议利用人工智能操纵真实儿童图像并添加虚假色情内容:**- 这说明,根据 230 和言论自由挑战,即使使用没有真实未成年人的合法图像也是非法的。7. **人工智能生成的 CSAM 的法律挑战:**- 对平台开发商进行起诉和辩论,最终被定罪。8. **结论和号召性用语:**- 政府、科技公司和个人必须合作解决这一问题上的法律漏洞。- 随着技术的快速发展,优先考虑儿童福利需要更严格的法规和问责制。### 要点:1. **虚构的虐待故事反映了生成式人工智能系统带来的现实世界危险:**2. 现有法律对非真实受害者生成的内容缺乏适用性。3. 法院必须平衡 230 的意图与让平台对合法生成的有害内容负责,满足更严格监管和加强执法的需要。4. 在技术快速进步的挑战中优先考虑儿童福利。这个问题凸显了随着技术的发展而调整法律框架的迫切需要,以确保根据费伯裁决的第一修正案遏制此类滥用行为。### 建议:- **全球合作:**- 立法措施和更严格执法方面的国际合作。- **技术责任:**- 科技公司必须让人工智能系统对有害内容和严格监管负责。- **法律框架调整:**- 测试证明淫秽案件,法院会认定该作品诉诸淫欲;(2) 根据州法律描述明显具有攻击性的性行为;(3)缺乏严肃的价值。通过解决这些差距和调整法律框架,我们可以更好地保护儿童免受生成人工智能带来的新威胁,同时维护言论自由原则。