英语轻松读发新版了,欢迎下载、更新

人工智能生成的儿童性虐待图像正在传播。执法部门正在加紧阻止他们

2024-10-27 12:12:00 英文原文

作者:By ALANNA DURKIN RICHER, Associated Press

一名儿童精神科医生修改了他在 Facebook 上看到的开学第一天的照片,让一群女孩裸体。一名美国陆军士兵被指控制作描绘他所知道的遭受性虐待的儿童的图像。一名软件工程师负责生成超现实的儿童色情图像。美国各地的执法机构正在打击通过人工智能技术创建的令人不安的儿童性虐待图像的传播——从真实儿童的经过处理的照片到图形描述计算机生成的孩子。司法部官员表示,他们正在积极追捕利用人工智能工具的罪犯,而各州正在竞相确保制作“深度伪造”和其他儿童有害图像的人可以根据法律受到起诉。“我们必须尽早并经常发出信号司法部儿童剥削和淫秽科负责人史蒂文·格罗基(Steven Grocki)在接受美联社采访时表示:“这是一种犯罪行为,如果有证据支持,我们将对此进行调查和起诉。”“如果你坐在那里不这么认为,那么你从根本上就错了。有人追究你的责任只是时间问题。”司法部表示,现有的联邦法律明确适用于此类内容,并且最近提出了据信的内容这是第一个涉及纯粹人工智能生成图像的联邦案件,这意味着所描绘的孩子不是真实的,而是虚拟的。在另一起案件中,联邦当局于 8 月逮捕了一名驻扎在阿拉斯加的美国士兵,他被指控通过人工智能聊天机器人播放他所认识的真实儿童的无辜照片,使这些图像变得露骨。遏制技术滥用,防止出现大量令人不安的图像,官员们担心这可能会让救援真正的受害者变得更加困难。执法官员担心调查人员会浪费时间和资源来试图识别和追查实际上并不存在的受剥削儿童。与此同时,立法者正在通过一系列立法,以确保当地检察官可以根据州法律对人工智能生成的“Deepfakes”和其他露骨的儿童色情图像。根据国家失踪和受虐儿童中心的审查,今年十多个州的州长签署了法律,打击以数字方式创建或更改的儿童性虐待图像。加州文图拉县地方检察官埃里克·纳萨伦科 (Erik Nasarenko) 表示:“坦率地说,这项技术的发展速度远远快于我们。”加州法律。纳萨伦科表示,他的办公室无法起诉去年 12 月至 9 月中旬期间涉及人工智能生成内容的八起案件,因为加州法律要求检察官证明这些图像描绘的是真实的儿童。人工智能生成的儿童性虐待图像可用于诱骗儿童,执法人员说。即使他们没有受到身体虐待,当孩子们的形象变得露骨时,他们也会受到深深的影响。“我感觉我的一部分被夺走了。即使我没有受到身体侵犯,”17-说7 岁的凯琳·海曼 (Kaylin Hayman) 曾出演迪士尼频道节目《Just Roll with It》,并在成为“深度假货”图像的受害者后帮助推动了加州法案。海曼去年在对数字叠加男子的联邦审判中作证她的脸和其他儿童演员的脸在表演性行为的身体上。他于 5 月份被判处 14 年以上监禁。众所周知,用户可以在计算机上下载的开源人工智能模型受到罪犯的青睐,他们可以进一步训练或修改工具来制作对儿童的明确描述,专家表示。官员们表示,滥用者在暗网社区中交流如何操纵人工智能工具来创建此类内容的技巧。 斯坦福互联网观测站去年的一份报告发现,作为领先人工智能图像制作者(例如稳定扩散)的来源的研究数据集包含指向儿童露骨色情图像的链接,导致某些工具能够轻松地生成有害图像。该数据集已被删除,研究人员后来表示,他们从中删除了 2000 多个涉嫌儿童性虐待图像的网络链接。 包括谷歌、OpenAI 和 Stability AI 在内的顶级科技公司已同意与反儿童性虐待组织 Thorn 合作,以解决儿童性虐待问题。打击儿童性虐待图像的传播。但专家表示,在这项技术广泛应用之前,一开始就应该采取更多措施来防止滥用。司法部检察官在最近的法庭文件中指出,公司目前正在采取的措施,以加大滥用未来版本人工智能工具的难度,“对于阻止”犯罪者“在不被发现的情况下”在计算机上运行旧版本模型的作用微乎其微。斯坦福互联网观测站首席技术专家 David Thiel 表示:“我们没有花时间来确保产品安全,而是提高产品效率,而且事后很难做到这一点,正如我们所见。”国家失踪和受虐儿童中心的 Cyber​​Tipline 去年收到了大约 4,700 份涉及人工智能技术内容的报告,而这只是超过 3600 万份涉嫌儿童性剥削的报告总数中的一小部分。该组织的首席法律官 Yiota Souras 表示,截至今年 10 月,该组织每月收到约 450 份涉及人工智能内容的报告。然而,这些数字可能被低估了,因为图像非常逼真,通常很难识别。专家表示,“调查人员花了几个小时试图确定一张图像是否确实描绘了一个真正的未成年人,或者是否是人工智能生成的”,帮助撰写该报告的文图拉县副检察官里科尔·凯利 (Rikole Kelly) 说。加州法案。“过去,有一些非常明确的指标......随着人工智能技术的进步,情况不再是这样了。” 司法部官员表示,他们已经拥有联邦法律规定的工具来追查此类图像的罪犯。2002 年,美国最高法院推翻了一项针对虚拟儿童性虐待内容的联邦禁令。但次年签署的一项联邦法律禁止制作被视为“淫秽”的儿童露骨性行为的视觉描绘,包括绘画。司法部称该法律过去曾被用来指控儿童性虐待的卡通图像,该法律特别指出,没有要求“所描绘的未成年人确实存在”。司法部于 5 月对威斯康星州的一名软件工程师提出了这项指控。当局称,他被指控使用人工智能工具 Stable Diffusion 制作儿童露骨性行为的逼真图像,并通过 Instagram 上的私信向一名 15 岁男孩发送了一些图像后被捕。该男子的律师正在以第一修正案为由推动驳回指控,但在发给美联社的电子邮件中拒绝对这些指控做出进一步评论。Stability AI 发言人表示,该男子被指控使用该工具的早期版本。由另一家公司 Runway ML 开发。Stability AI 表示,自从接管模型的独家开发以来,它“投资于主动功能,以防止滥用人工智能来生产有害内容”。Runway ML 的发言人没有立即回应美联社的置评请求。在涉及“深度假货”的案件中,当真实儿童的照片被数字修改以使其具有露骨性特征时,司法部将根据联邦法律提出指控《儿童色情制品》法。在一个案例中,北卡罗来纳州的一名儿童精神病学家去年被联邦指控罪名成立,他使用人工智能应用程序对 Facebook 上分享的一张几十年前的照片中开学第一天摆出的女孩进行数字化“脱衣”。我们有意愿,我们有资源,”格罗基说。“这不会是我们忽视的一个低优先级,因为没有真正的孩子参与其中。”

华盛顿 —

一名儿童精神科医生修改了他在 Facebook 上看到的开学第一天的照片,让一群女孩裸体。一名美国陆军士兵被指控制作描绘他所知道的遭受性虐待的儿童的图像。一名软件工程师,负责生成超现实的儿童色情图像。

美国各地执法机构正在严厉打击儿童性虐待图像的传播令人不安通过人工智能技术创建——从真实儿童的经过处理的照片到计算机生成的儿童的图形描述。司法部官员表示,他们正在积极追捕利用人工智能工具的犯罪者,而各州正在努力确保制作“深度伪造”和其他儿童有害图像的人可以根据法律受到起诉。

司法部儿童剥削和淫秽科负责人史蒂文·格罗基(Steven Grocki)在接受《The》采访时表示:“我们必须尽早且经常地发出信号,表明这是一种犯罪行为,当有证据支持时,我们将对其进行调查和起诉。”美联社。“如果你坐在那里不这么想,那么你从根本上就错了。有人追究你的责任只是时间问题。”

司法部表示,现有的联邦法律明确适用于此类内容,并且最近提起了据信是第一起涉及纯粹人工智能生成图像的联邦案件,这意味着所描绘的儿童不是真实的,而是虚拟的。在另一起案件中,联邦当局于 8 月逮捕了一名驻阿拉斯加的美国士兵,指控他通过人工智能聊天机器人播放他所认识的真实儿童的无辜照片,使这些图像变得露骨。

努力追赶技术

此次起诉发生之际,儿童权益倡导者正在紧急努力遏制技术的滥用,以防止大量令人不安的图像出现,官员们担心这些图像可能会让救援真正的受害者变得更加困难。执法官员担心调查人员会浪费时间和资源来试图识别和追查实际上并不存在的受剥削儿童。

与此同时,立法者正在通过一系列立法,以确保当地检察官可以根据州法律对人工智能生成的“深度伪造”和其他儿童色情图像提出指控。根据国家失踪和受虐儿童中心的审查,今年已有十多个州的州长签署了法律,打击以数字方式创建或更改的儿童性虐待图像。

加州文图拉县地方检察官埃里克·纳萨伦科 (Erik Nasarenko) 表示:“作为执法部门,我们正在追赶一项技术,坦率地说,这项技术的发展速度比我们快得多。”

纳萨伦科推动了州长加文·纽瑟姆上个月签署的立法,该立法明确规定,根据加州法律,人工智能生成的儿童性虐待材料是非法的。纳萨伦科表示,他的办公室无法起诉去年 12 月至 9 月中旬期间涉及人工智能生成内容的八起案件,因为加州法律要求检察官证明这些图像描绘的是真实的儿童。

执法官员表示,人工智能生成的儿童性虐待图像可用于诱骗儿童。即使他们没有受到身体虐待,当孩子们的形象变得露骨时,他们也会受到深刻的影响。

“我感觉自己的一部分被夺走了。尽管我没有受到身体上的侵犯,”17 岁的凯琳·海曼 (Kaylin Hayman) 说道,她是迪士尼频道节目“Just Roll with It”的主演,并帮助推动了加州法案在她成为“深度伪造”图像的受害者之后。

海曼去年在联邦审判中作证,该男子将她的脸和其他儿童演员的脸以数字方式叠加到进行性行为的身体上。他于 5 月被判处 14 年以上监禁。

专家表示,用户可以在计算机上下载的开源人工智能模型深受犯罪者的青睐,他们可以进一步训练或修改这些工具,以制作出对儿童的明确描述。官员们表示,滥用者在暗网社区中交流如何操纵人工智能工具来创建此类内容的技巧。

斯坦福互联网观测站去年的一份报告发现,Stable Diffusion 等领先人工智能图像制作者的研究数据集包含了儿童露骨色情图像的链接,这使得一些工具能够轻松地制作出露骨的色情图像。有害的意象。该数据集已被删除,研究人员后来表示,他们从中删除了 2000 多个涉嫌儿童性虐待图像的网络链接。

包括谷歌、OpenAI 和 Stability AI 在内的顶级科技公司已同意与反儿童性虐待组织 Thorn 合作,打击儿童性虐待图像的传播。

但专家表示,在这项技术广泛应用之前,一开始就应该采取更多措施来防止滥用。司法部检察官在最近的法庭文件中指出,公司目前正在采取的措施,以加大滥用未来版本人工智能工具的难度,“对于阻止”犯罪者“在不被发现的情况下”在计算机上运行旧版本模型的作用微乎其微。

斯坦福互联网观测站首席技术专家戴维·泰尔表示:“我们没有花时间来确保产品安全,而是提高产品效率,而且事后很难做到这一点——正如我们所见。”

AI图像变得更加真实

国家失踪与受虐儿童中心的 Cyber​​Tipline 去年收到了约 4,700 份涉及人工智能技术内容的报告,而这只是超过 3600 万份涉嫌儿童性剥削报告的一小部分。该组织首席法​​律官 Yiota Souras 表示,截至今年 10 月,该组织每月提交约 450 份涉及人工智能内容的报告。

然而,专家表示,这些数字可能被低估了,因为这些图像非常逼真,通常很难判断它们是否是人工智能生成的。

帮助起草加州法案的文图拉县副检察官里科尔·凯利 (Rikole Kelly) 表示:“调查人员花了数小时试图确定一张图像是否确实描绘了真正的未成年人,或者是否是人工智能生成的。”“过去,有一些非常明确的指标……随着人工智能技术的进步,情况已经不再是这样了。”

司法部官员表示,他们已经拥有联邦法律规定的工具来追查此类图像的犯罪者。

2002 年,美国最高法院推翻了一项针对虚拟儿童性虐待内容的联邦禁令。但次年签署的一项联邦法律禁止制作被视为“淫秽”的儿童露骨性行为的视觉描绘,包括绘画。司法部称该法律过去曾被用来指控儿童性虐待的卡通图像,该法律特别指出,没有要求“所描绘的未成年人确实存在”。

司法部于 5 月对威斯康星州一名软件工程师提出指控,该工程师被指控使用 AI 工具 Stable Diffusion 制作儿童露骨性行为的逼真图像,并在他通过直接将一些图像发送给一名 15 岁男孩后被捕。当局称,Instagram 上发布了这条消息。该男子的律师正在以第一修正案为由推动驳回这些指控,但在给美联社的电子邮件中拒绝就这些指控发表进一步评论。

Stability AI 的发言人表示,该男子被指控使用另一家公司 Runway ML 发布的该工具的早期版本。Stability AI 表示,自从接管模型的独家开发以来,它“投资于主动功能,以防止滥用人工智能来生产有害内容”。Runway ML 的发言人没有立即回应美联社的置评请求。

在涉及“深度假货”的案件中,当真实儿童的照片被数字修改以使其具有露骨性特征时,司法部将根据联邦“儿童色情”法提出指控。在一个案例中,北卡罗来纳州的一名儿童精神病学家去年因使用人工智能应用程序,对 Facebook 上分享的一张几十年前的照片中开学第一天摆出的女孩的衣服进行数字化“脱衣”而被定罪。

“这些法律是存在的。它们将会被使用。我们有意愿。我们有资源,”格罗基说。“这不会是我们忽视的一个低优先级,因为没有真正的孩子参与其中。”

关于《人工智能生成的儿童性虐待图像正在传播。执法部门正在加紧阻止他们》的评论


暂无评论

发表评论

摘要

您概述的问题凸显了人工智能生成的儿童性剥削图像日益严重的问题,这给执法和立法机构保护在线儿童带来了重大挑战。以下是一些关键点和潜在的解决方案:### 要点:1. **现行立法:**- 加利福尼亚州最近通过了一项法案,将使用深度伪造技术创建或传播真实未成年人的露骨图像定为犯罪行为。- 联邦法律,包括禁止制作涉及露骨性行为的儿童视觉描绘的法律(即使它们不存在),已经被用来打击人工智能生成的儿童性虐待图像。2. **技术挑战:**- 先进的人工智能模型可以生成高度逼真的图像,模糊真假之间的界限,使调查人员很难确定图像是否描绘了真正的未成年人。- 犯罪者使用开源人工智能工具和暗网社区中的交易技巧来创建有害内容。- 主要科技公司正在与 Thorn 等组织合作解决这个问题,但过去的预防措施可能更有效。3. **对受害者的影响:**- 深度假货的受害者报告说,即使他们没有受到身体侵犯,也会感到严重的情绪困扰。- 与其图像的利用和传播相关的心理创伤可能是深远的。4. **执法挑战:**- 调查人员花费大量时间来确定图像是真实的还是人工智能生成的,这分散了其他调查的资源。- 执法机构需要更好的工具来快速检测和分析人工智能生成的内容。### 潜在的解决方案:1. **加强立法:**- 确保现有法律能够有效适用于涉及人工智能生成的未成年人图像的案件。- 考虑制定专门立法来解决深度造假带来的独特挑战,包括为执法和数字取证团队提供更明确的指导方针。2. **预防措施:**- 与科技公司合作,在人工智能工具开发过程的早期实施保障措施,以防止滥用。- 为从事先进图像生成技术的研究人员和开发人员制定并执行道德准则。3. **技术解决方案:**- 投资研究开发检测工具,可以快速识别人工智能生成的图像,减少调查时间和精力。- 促进科技公司、执法机构和学术机构之间的合作,共享解决这一问题的知识和资源。4. **公众意识和教育:**- 提高公众对深度造假的危险以及它们如何被用来剥削儿童的认识。- 教育未成年人识别和报告网上可疑活动。5. **对受害者的支持:**- 为受害者提供全面的支持服务,包括心理健康咨询和法律援助。- 开发程序,帮助那些图像被深度造假技术操纵的个人重新获得他们的数字身份,并减轻此类内容造成的危害。6. **国际合作:**- 鼓励各国开展全球合作,解决与人工智能生成的儿童性剥削图像相关的跨境问题。- 建立国际标准和协议来应对这一新出现的威胁。通过实施这些解决方案,利益相关者可以更有效地合作,保护儿童免受人工智能生成的有害内容日益严重的威胁,同时确保受影响的人得到正义。