人工智能生成的儿童性虐待图像正在传播。执法部门正在加紧阻止他们

2024-10-27 07:16:15 英文原文

华盛顿(美联社)——一名儿童精神科医生修改了他在 Facebook 上看到的一张开学第一天的照片,让一群女孩裸体。一名美国陆军士兵被指控制作描绘他所知道的遭受性虐待的儿童的图像。一名软件工程师,负责生成超现实的儿童色情图像。

美国各地执法机构正在严厉打击 儿童性虐待图像的传播令人不安通过人工智能技术创建——从真实儿童的经过处理的照片到计算机生成的儿童的图形描述。司法部官员表示,他们正在积极追捕利用人工智能工具的罪犯,同时 各州正在竞赛确保制作“深度造假”和其他有害儿童图像的人可以根据法律受到起诉。

“我们必须及早且经常地发出信号,表明这是一种犯罪行为,当证据支持时,我们将对其进行调查和起诉,”司法部儿童剥削和淫秽问题负责人史蒂文·格罗基 (Steven Grocki)科在接受美联社采访时说道。——如果你坐在那里不这么想,那你从根本上就错了。有人追究你的责任只是时间问题。”

司法部表示,现有的联邦法律明确适用于此类内容,并且最近提起了据信是第一起涉及纯粹人工智能生成图像的联邦案件,这意味着所描绘的儿童不是真实的,而是虚拟的。在另一起案件中,联邦当局于 8 月逮捕了一名驻阿拉斯加的美国士兵,指控他通过人工智能聊天机器人播放他所认识的真实儿童的无辜照片,使这些图像变得露骨。

努力追赶技术

此次起诉发生之际,儿童权益倡导者正在紧急努力遏制技术的滥用,以防止大量令人不安的图像出现,官员们担心这些图像可能会让救援真正的受害者变得更加困难。执法官员担心调查人员会浪费时间和资源来试图识别和追查实际上并不存在的受剥削儿童。

与此同时,立法者正在通过一系列立法,以确保当地检察官能够根据州法律对人工智能生成的“深度造假”和其他儿童露骨色情图像提出指控。根据国家失踪和受虐儿童中心的审查,今年已有十多个州的州长签署了法律,打击以数字方式创建或更改的儿童性虐待图像。

“作为执法部门,我们正在追赶一项技术,坦率地说,这项技术的发展速度比我们快得多,”加利福尼亚州文图拉县地方检察官埃里克·纳萨伦科 (Erik Nasarenko) 说。

纳萨连科推动立法 上个月签署州长加文·纽森 (Gavin Newsom) 明确表示,根据加州法律,人工智能生成的儿童性虐待材料是非法的。纳萨伦科表示,他的办公室无法起诉去年 12 月至 9 月中旬期间涉及人工智能生成内容的八起案件,因为加州法律要求检察官证明这些图像描绘的是真实的儿童。

执法官员表示,人工智能生成的儿童性虐待图像可用于诱骗儿童。即使孩子们没有受到身体虐待,当他们的形象变得露骨时,他们也会受到深刻的影响。

——我感觉自己的一部分被夺走了。尽管我没有受到身体侵犯,”17 岁的凯琳·海曼 (Kaylin Hayman) 说道,她曾出演迪士尼频道节目《Just Roll with It》,并在成为“Just Roll with It”的受害者后帮助推动了加州法案“深度伪造”图像。

Kaylin Hayman, 17, poses outside Ventura City Hall in Ventura, Calif., Oct. 17, 2024.

2024 年 10 月 17 日,17 岁的凯琳·海曼 (Kaylin Hayman) 在加利福尼亚州文图拉市政厅外摆姿势。(尤金·加西亚 | 美联社照片/尤金·加西亚)

海曼去年在联邦审判中作证,该男子将她的脸和其他儿童演员的脸以数字方式叠加到进行性行为的身体上。他于 5 月被判处 14 年以上监禁。

专家表示,用户可以在计算机上下载的开源人工智能模型深受犯罪者的青睐,他们可以进一步训练或修改这些工具,以制作出对儿童的明确描述。官员们表示,滥用者在暗网社区中交流如何操纵人工智能工具来创建此类内容的技巧。

去年的一份报告斯坦福互联网观测站发现,Stable Diffusion 等领先 AI 图像制作者的研究数据集包含指向儿童露骨色情图像的链接,导致某些工具能够轻松生成有害图像。该数据集已被删除,研究人员后来说 他们删除了超过 2,000 个指向疑似儿童性虐待图像的网络链接。

包括谷歌、OpenAI 和 Stability AI 在内的顶级科技公司已同意与反儿童性虐待组织 Thorn 合作 以对抗传播儿童性虐待图像。

但专家表示,在这项技术广泛应用之前,一开始就应该采取更多措施来防止滥用。司法部检察官表示,公司目前正在采取的措施,旨在加大滥用未来版本人工智能工具的难度,但对于防止犯罪者在其计算机上运行旧版本模型却无济于事,且不会被发现。最近的法庭文件中指出。

“我们没有花时间来确保产品的安全,而不是提高产品的效率,而且事后很难做到这一点 - 正如我们所看到的,”斯坦福互联网公司的 David Thiel 说天文台首席技术专家。

AI图像变得更加真实

国家失踪和受虐儿童中心的 Cyber​​Tipline 去年收到了大约 4,700 份涉及人工智能技术内容的报告,而这只是超过 3600 万份涉嫌儿童性剥削报告的一小部分。该组织首席法​​律官 Yiota Souras 表示,截至今年 10 月,该组织每月提交约 450 份涉及人工智能内容的报告。

然而,专家表示,这些数字可能被低估了,因为这些图像非常逼真,通常很难判断它们是否是人工智能生成的。

“调查人员花了几个小时来确定一张图像是否确实描绘了一个真正的未成年人,或者它是否是人工智能生成的,”帮助起草加州法案的文图拉县副检察官里科尔·凯利 (Rikole Kelly) 说。“过去,有一些非常明确的指标……随着人工智能技术的进步,情况已经不再是这样了。”

司法部官员表示,他们已经拥有联邦法律规定的工具来追查此类图像的犯罪者。

美国最高法院在 2002年废除联邦禁令关于虚拟儿童性虐待材料。但次年签署的一项联邦法律禁止制作被视为“淫秽”的儿童参与露骨性行为的视觉描绘,包括图画。司法部称该法律过去曾被使用过要指控儿童性虐待的卡通形象,特别指出,并不要求所描绘的未成年人确实存在。

奥兰多的一位母亲在她 14 岁的儿子自杀后起诉谷歌和一家独立的科技公司。(来源:WKMG、CHARACTER.AI、FAMILY PHOTO、CNN)

司法部于 5 月对威斯康星州一名软件工程师提出指控,该工程师被指控使用 AI 工具 Stable Diffusion 制作儿童露骨性行为的逼真图像,并在他通过直接将一些图像发送给一名 15 岁男孩后被捕。当局称,Instagram 上发布了这条消息。该男子的律师正在以第一修正案为由推动驳回这些指控,但在给美联社的电子邮件中拒绝就这些指控发表进一步评论。

Stability AI 的发言人表示,该男子被指控使用另一家公司 Runway ML 发布的该工具的早期版本。Stability AI 表示,自从接管模型的独家开发以来,它已经“投资于主动功能,以防止滥用人工智能来生产有害内容”。Runway ML 的发言人没有立即回应美联社的置评请求。

在涉及“深度伪造”的案件中,当真实儿童的照片被数字化修改以使其具有露骨性特征时,司法部将根据联邦“儿童色情”法提出指控。在一个案例中,北卡罗来纳州的一名儿童精神病学家去年因使用人工智能应用程序以数字方式为脸书上分享的一张几十年前的照片中开学第一天摆出的女孩“脱衣服”而被定罪。

– 这些法律是存在的。他们将被使用。我们有意愿。我们有资源,”Grocki 说。“这不会是我们忽视的一个低优先级,因为没有真正的孩子参与其中。”

__

美联社获得奥米迪亚网络的财政援助,以支持人工智能及其对社会影响的报道。美联社对所有内容全权负责。查找美联社与慈善机构合作的标准、支持者名单和受资助的覆盖范围: 美联社

版权所有 2024 美联社。版权所有。

关于《人工智能生成的儿童性虐待图像正在传播。执法部门正在加紧阻止他们》的评论


暂无评论

发表评论

摘要

美国执法机构正在加大力度打击利用人工智能 (AI) 技术创建的儿童性虐待图像的传播。这包括真实儿童的经过处理的照片和计算机生成的图像。联邦法律正在适用于起诉违法者,最近的案件涉及纯粹人工智能生成的内容。各州还在颁布立法,以确保制造有害“深度赝品”的人能够受到起诉。执法部门在识别图像是真实的还是人工智能生成方面面临挑战,这使得营救实际受害者和调查犯罪的工作变得更加复杂。科技公司正在与反儿童剥削组织合作,但专家认为,在该技术广泛应用之前,需要采取更多的预防措施。