人工智能生成的儿童性虐待图像正在传播。执法部门正在加紧阻止他们

2024-10-27 12:12:00 英文原文

作者:By ALANNA DURKIN RICHER, Associated Press

一名儿童精神科医生修改了他在 Facebook 上看到的开学第一天的照片,让一群女孩裸体。一名美国陆军士兵被指控制作描绘他所知道的遭受性虐待的儿童的图像。一名软件工程师负责生成超现实的儿童色情图像。美国各地的执法机构正在打击通过人工智能技术创建的令人不安的儿童性虐待图像的传播——从真实儿童的经过处理的照片到图形描述计算机生成的孩子。司法部官员表示,他们正在积极追捕利用人工智能工具的罪犯,而各州正在竞相确保制作“深度伪造”和其他儿童有害图像的人可以根据法律受到起诉。“我们必须尽早并经常发出信号司法部儿童剥削和淫秽科负责人史蒂文·格罗基(Steven Grocki)在接受美联社采访时表示:“这是一种犯罪行为,如果有证据支持,我们将对此进行调查和起诉。”“如果你坐在那里不这么认为,那么你从根本上就错了。有人追究你的责任只是时间问题。”司法部表示,现有的联邦法律明确适用于此类内容,并且最近提出了据信的内容这是第一个涉及纯粹人工智能生成图像的联邦案件,这意味着所描绘的孩子不是真实的,而是虚拟的。在另一起案件中,联邦当局于 8 月逮捕了一名驻扎在阿拉斯加的美国士兵,他被指控通过人工智能聊天机器人播放他所认识的真实儿童的无辜照片,使这些图像变得露骨。遏制技术滥用,防止出现大量令人不安的图像,官员们担心这可能会让救援真正的受害者变得更加困难。执法官员担心调查人员会浪费时间和资源来试图识别和追查实际上并不存在的受剥削儿童。与此同时,立法者正在通过一系列立法,以确保当地检察官可以根据州法律对人工智能生成的“Deepfakes”和其他露骨的儿童色情图像。根据国家失踪和受虐儿童中心的审查,今年十多个州的州长签署了法律,打击以数字方式创建或更改的儿童性虐待图像。加州文图拉县地方检察官埃里克·纳萨伦科 (Erik Nasarenko) 表示:“坦率地说,这项技术的发展速度远远快于我们。”加州法律。纳萨伦科表示,他的办公室无法起诉去年 12 月至 9 月中旬期间涉及人工智能生成内容的八起案件,因为加州法律要求检察官证明这些图像描绘的是真实的儿童。人工智能生成的儿童性虐待图像可用于诱骗儿童,执法人员说。即使他们没有受到身体虐待,当孩子们的形象变得露骨时,他们也会受到深深的影响。“我感觉我的一部分被夺走了。即使我没有受到身体侵犯,”17-说7 岁的凯琳·海曼 (Kaylin Hayman) 曾出演迪士尼频道节目《Just Roll with It》,并在成为“深度假货”图像的受害者后帮助推动了加州法案。海曼去年在对数字叠加男子的联邦审判中作证她的脸和其他儿童演员的脸在表演性行为的身体上。他于 5 月份被判处 14 年以上监禁。众所周知,用户可以在计算机上下载的开源人工智能模型受到罪犯的青睐,他们可以进一步训练或修改工具来制作对儿童的明确描述,专家表示。官员们表示,滥用者在暗网社区中交流如何操纵人工智能工具来创建此类内容的技巧。 斯坦福互联网观测站去年的一份报告发现,作为领先人工智能图像制作者(例如稳定扩散)的来源的研究数据集包含指向儿童露骨色情图像的链接,导致某些工具能够轻松地生成有害图像。该数据集已被删除,研究人员后来表示,他们从中删除了 2000 多个涉嫌儿童性虐待图像的网络链接。 包括谷歌、OpenAI 和 Stability AI 在内的顶级科技公司已同意与反儿童性虐待组织 Thorn 合作,以解决儿童性虐待问题。打击儿童性虐待图像的传播。但专家表示,在这项技术广泛应用之前,一开始就应该采取更多措施来防止滥用。司法部检察官在最近的法庭文件中指出,公司目前正在采取的措施,以加大滥用未来版本人工智能工具的难度,“对于阻止”犯罪者“在不被发现的情况下”在计算机上运行旧版本模型的作用微乎其微。斯坦福互联网观测站首席技术专家 David Thiel 表示:“我们没有花时间来确保产品安全,而是提高产品效率,而且事后很难做到这一点,正如我们所见。”国家失踪和受虐儿童中心的 Cyber​​Tipline 去年收到了大约 4,700 份涉及人工智能技术内容的报告,而这只是超过 3600 万份涉嫌儿童性剥削的报告总数中的一小部分。该组织的首席法律官 Yiota Souras 表示,截至今年 10 月,该组织每月收到约 450 份涉及人工智能内容的报告。然而,这些数字可能被低估了,因为图像非常逼真,通常很难识别。专家表示,“调查人员花了几个小时试图确定一张图像是否确实描绘了一个真正的未成年人,或者是否是人工智能生成的”,帮助撰写该报告的文图拉县副检察官里科尔·凯利 (Rikole Kelly) 说。加州法案。“过去,有一些非常明确的指标......随着人工智能技术的进步,情况不再是这样了。” 司法部官员表示,他们已经拥有联邦法律规定的工具来追查此类图像的罪犯。2002 年,美国最高法院推翻了一项针对虚拟儿童性虐待内容的联邦禁令。但次年签署的一项联邦法律禁止制作被视为“淫秽”的儿童露骨性行为的视觉描绘,包括绘画。司法部称该法律过去曾被用来指控儿童性虐待的卡通图像,该法律特别指出,没有要求“所描绘的未成年人确实存在”。司法部于 5 月对威斯康星州的一名软件工程师提出了这项指控。当局称,他被指控使用人工智能工具 Stable Diffusion 制作儿童露骨性行为的逼真图像,并通过 Instagram 上的私信向一名 15 岁男孩发送了一些图像后被捕。该男子的律师正在以第一修正案为由推动驳回指控,但在发给美联社的电子邮件中拒绝对这些指控做出进一步评论。Stability AI 发言人表示,该男子被指控使用该工具的早期版本。由另一家公司 Runway ML 开发。Stability AI 表示,自从接管模型的独家开发以来,它“投资于主动功能,以防止滥用人工智能来生产有害内容”。Runway ML 的发言人没有立即回应美联社的置评请求。在涉及“深度假货”的案件中,当真实儿童的照片被数字修改以使其具有露骨性特征时,司法部将根据联邦法律提出指控《儿童色情制品》法。在一个案例中,北卡罗来纳州的一名儿童精神病学家去年被联邦指控罪名成立,他使用人工智能应用程序对 Facebook 上分享的一张几十年前的照片中开学第一天摆出的女孩进行数字化“脱衣”。我们有意愿,我们有资源,”格罗基说。“这不会是我们忽视的一个低优先级,因为没有真正的孩子参与其中。”

华盛顿 —

一名儿童精神科医生修改了他在 Facebook 上看到的开学第一天的照片,让一群女孩裸体。一名美国陆军士兵被指控制作描绘他所知道的遭受性虐待的儿童的图像。一名软件工程师,负责生成超现实的儿童色情图像。

美国各地执法机构正在严厉打击儿童性虐待图像的传播令人不安通过人工智能技术创建——从真实儿童的经过处理的照片到计算机生成的儿童的图形描述。司法部官员表示,他们正在积极追捕利用人工智能工具的犯罪者,而各州正在努力确保制作“深度伪造”和其他儿童有害图像的人可以根据法律受到起诉。

司法部儿童剥削和淫秽科负责人史蒂文·格罗基(Steven Grocki)在接受《The》采访时表示:“我们必须尽早且经常地发出信号,表明这是一种犯罪行为,当有证据支持时,我们将对其进行调查和起诉。”美联社。“如果你坐在那里不这么想,那么你从根本上就错了。有人追究你的责任只是时间问题。”

司法部表示,现有的联邦法律明确适用于此类内容,并且最近提起了据信是第一起涉及纯粹人工智能生成图像的联邦案件,这意味着所描绘的儿童不是真实的,而是虚拟的。在另一起案件中,联邦当局于 8 月逮捕了一名驻阿拉斯加的美国士兵,指控他通过人工智能聊天机器人播放他所认识的真实儿童的无辜照片,使这些图像变得露骨。

努力追赶技术

此次起诉发生之际,儿童权益倡导者正在紧急努力遏制技术的滥用,以防止大量令人不安的图像出现,官员们担心这些图像可能会让救援真正的受害者变得更加困难。执法官员担心调查人员会浪费时间和资源来试图识别和追查实际上并不存在的受剥削儿童。

与此同时,立法者正在通过一系列立法,以确保当地检察官可以根据州法律对人工智能生成的“深度伪造”和其他儿童色情图像提出指控。根据国家失踪和受虐儿童中心的审查,今年已有十多个州的州长签署了法律,打击以数字方式创建或更改的儿童性虐待图像。

加州文图拉县地方检察官埃里克·纳萨伦科 (Erik Nasarenko) 表示:“作为执法部门,我们正在追赶一项技术,坦率地说,这项技术的发展速度比我们快得多。”

纳萨伦科推动了州长加文·纽瑟姆上个月签署的立法,该立法明确规定,根据加州法律,人工智能生成的儿童性虐待材料是非法的。纳萨伦科表示,他的办公室无法起诉去年 12 月至 9 月中旬期间涉及人工智能生成内容的八起案件,因为加州法律要求检察官证明这些图像描绘的是真实的儿童。

执法官员表示,人工智能生成的儿童性虐待图像可用于诱骗儿童。即使他们没有受到身体虐待,当孩子们的形象变得露骨时,他们也会受到深刻的影响。

“我感觉自己的一部分被夺走了。尽管我没有受到身体上的侵犯,”17 岁的凯琳·海曼 (Kaylin Hayman) 说道,她是迪士尼频道节目“Just Roll with It”的主演,并帮助推动了加州法案在她成为“深度伪造”图像的受害者之后。

海曼去年在联邦审判中作证,该男子将她的脸和其他儿童演员的脸以数字方式叠加到进行性行为的身体上。他于 5 月被判处 14 年以上监禁。

专家表示,用户可以在计算机上下载的开源人工智能模型深受犯罪者的青睐,他们可以进一步训练或修改这些工具,以制作出对儿童的明确描述。官员们表示,滥用者在暗网社区中交流如何操纵人工智能工具来创建此类内容的技巧。

斯坦福互联网观测站去年的一份报告发现,Stable Diffusion 等领先人工智能图像制作者的研究数据集包含了儿童露骨色情图像的链接,这使得一些工具能够轻松地制作出露骨的色情图像。有害的意象。该数据集已被删除,研究人员后来表示,他们从中删除了 2000 多个涉嫌儿童性虐待图像的网络链接。

包括谷歌、OpenAI 和 Stability AI 在内的顶级科技公司已同意与反儿童性虐待组织 Thorn 合作,打击儿童性虐待图像的传播。

但专家表示,在这项技术广泛应用之前,一开始就应该采取更多措施来防止滥用。司法部检察官在最近的法庭文件中指出,公司目前正在采取的措施,以加大滥用未来版本人工智能工具的难度,“对于阻止”犯罪者“在不被发现的情况下”在计算机上运行旧版本模型的作用微乎其微。

斯坦福互联网观测站首席技术专家戴维·泰尔表示:“我们没有花时间来确保产品安全,而是提高产品效率,而且事后很难做到这一点——正如我们所见。”

AI图像变得更加真实

国家失踪与受虐儿童中心的 Cyber​​Tipline 去年收到了约 4,700 份涉及人工智能技术内容的报告,而这只是超过 3600 万份涉嫌儿童性剥削报告的一小部分。该组织首席法​​律官 Yiota Souras 表示,截至今年 10 月,该组织每月提交约 450 份涉及人工智能内容的报告。

然而,专家表示,这些数字可能被低估了,因为这些图像非常逼真,通常很难判断它们是否是人工智能生成的。

帮助起草加州法案的文图拉县副检察官里科尔·凯利 (Rikole Kelly) 表示:“调查人员花了数小时试图确定一张图像是否确实描绘了真正的未成年人,或者是否是人工智能生成的。”“过去,有一些非常明确的指标……随着人工智能技术的进步,情况已经不再是这样了。”

司法部官员表示,他们已经拥有联邦法律规定的工具来追查此类图像的犯罪者。

2002 年,美国最高法院推翻了一项针对虚拟儿童性虐待内容的联邦禁令。但次年签署的一项联邦法律禁止制作被视为“淫秽”的儿童露骨性行为的视觉描绘,包括绘画。司法部称该法律过去曾被用来指控儿童性虐待的卡通图像,该法律特别指出,没有要求“所描绘的未成年人确实存在”。

司法部于 5 月对威斯康星州一名软件工程师提出指控,该工程师被指控使用 AI 工具 Stable Diffusion 制作儿童露骨性行为的逼真图像,并在他通过直接将一些图像发送给一名 15 岁男孩后被捕。当局称,Instagram 上发布了这条消息。该男子的律师正在以第一修正案为由推动驳回这些指控,但在给美联社的电子邮件中拒绝就这些指控发表进一步评论。

Stability AI 的发言人表示,该男子被指控使用另一家公司 Runway ML 发布的该工具的早期版本。Stability AI 表示,自从接管模型的独家开发以来,它“投资于主动功能,以防止滥用人工智能来生产有害内容”。Runway ML 的发言人没有立即回应美联社的置评请求。

在涉及“深度假货”的案件中,当真实儿童的照片被数字修改以使其具有露骨性特征时,司法部将根据联邦“儿童色情”法提出指控。在一个案例中,北卡罗来纳州的一名儿童精神病学家去年因使用人工智能应用程序,对 Facebook 上分享的一张几十年前的照片中开学第一天摆出的女孩的衣服进行数字化“脱衣”而被定罪。

“这些法律是存在的。它们将会被使用。我们有意愿。我们有资源,”格罗基说。“这不会是我们忽视的一个低优先级,因为没有真正的孩子参与其中。”

关于《人工智能生成的儿童性虐待图像正在传播。执法部门正在加紧阻止他们》的评论


暂无评论

发表评论

摘要

人工智能生成的涉及儿童的露骨色情图像(通常被称为“深度伪造”或合成儿童性虐待材料(CSAM))的问题已成为执法部门和立法者的重大担忧。以下是从所提供的文本中总结的要点:1. **立法和影响**:加利福尼亚州的一项新法案旨在加大对人工智能生成的涉及儿童的色情图像的处罚力度,解决这些图像即使没有身体侵犯也可能造成的心理伤害。2. **案例研究**:前迪士尼频道明星 Kaylin Hayman 作证讲述了她作为“深度造假”图像受害者的经历,这导致肇事者被定罪并被判处 14 年以上监禁。3. **技术挑战**:- 犯罪者使用开源人工智能模型,他们可以修改或训练这些模型来产生有害内容。- 滥用者在暗网社区分享有关如何操纵这些工具的技巧。- 领先的人工智能图像生成器使用的研究数据集包含指向儿童露骨色情图像的链接,有助于轻松生成此类图像。4. **行业反应**:顶级科技公司正在与 Thorn 等组织合作,打击儿童性虐待材料的传播,但专家认为,在这些技术广泛应用之前,应该采取更多的预防措施。5. **检测和执行**:- 国家失踪和受虐儿童中心的 Cyber​​Tipline 去年收到了约 4,700 份涉及人工智能技术的报告,到 10 月份,这一数字增加到每月约 450 份报告。- 调查人员很难确定图像是否描绘了真实的儿童,或者由于其真实性而由人工智能生成。6. **法律框架**:- 联邦法律,例如 1998 年的《儿童色情制品预防法》,即使图像的创作中没有涉及实际儿童,也允许起诉。- 在最近的案件中,针对使用人工智能生成或更改涉及儿童的露骨色情图像的个人,根据联邦淫秽和儿童色情法规提出指控。7. **持续关注**:- 有人担心旧版本的人工智能工具仍然可以在不被发现的情况下使用,这使得防止滥用变得更加困难。- 挑战在于平衡人工智能进步的好处与保护弱势群体免遭滥用的措施。这些要点凸显了技术进步和执法之间复杂的相互作用,强调需要积极主动的监管和强有力的调查技术来应对日益严重的合成儿童性虐待材料问题。