英语轻松读发新版了,欢迎下载、更新

阿拉斯加男子因 AI CSAM 举报某人,然后因同样的事情被捕

2024-12-27 13:50:46 英文原文

作者:Thomas Maxwell

如果您打算联系警方并举报某人向您表达对儿童性虐待材料 (CSAM) 的兴趣,那么在您自己的设备上拥有相同的材料也许不是最好的主意。或者进一步同意搜查,以便执法部门收集更多信息。但据称,一名阿拉斯加男子就是这么做的。这导致他被警方拘留。

404媒体报道本周早些时候,这名名叫安东尼·奥康纳 (Anthaney O’Connor) 的男子在警方搜查他的设备后发现了人工智能生成的儿童性虐待材料 (CSAM),最终被捕。

来自 404:

根据新提交的收费文件安东尼·奥康纳 (Anthaney O'Connor) 于 8 月联系执法部门,提醒他们一名身份不明的飞行员与奥康纳分享了儿童性虐待 (CSAM) 材料。在调查犯罪行为时,经奥康纳同意,联邦当局搜查了他的手机以获取更多信息。根据刑事起诉书,对电子设备的审查显示,奥康纳据称提出为飞行员制作虚拟现实 CSAM。

据警方称,这名身份不明的飞行员与奥康纳分享了一张他在杂货店拍摄的儿童照片,两人讨论了如何将未成年人叠加到一个明确的虚拟现实世界中。

执法部门声称在奥康纳的设备上发现了至少六张由人工智能生成的 CSAM 图像,他说这些图像是故意下载的,此外还有几张“真实”图像被无意地混合在其中。通过搜查奥康纳的家,执法部门发现了一台计算机以及隐藏在家里通风口中的多个硬盘;据称,对计算机的审查显示了一段 41 秒的强奸儿童视频。

在接受当局采访时,奥康纳表示,他经常向互联网服务提供商举报 CSAM,但仍然对这些图像和视频感到性满足。目前还不清楚他为何决定向互联网服务提供商举报该飞行员。执法。也许他心存愧疚,也许他真的相信他的 AI CSAM 没有违法。

AI 图像生成器通常使用真实照片进行训练;这意味着人工智能“生成”的儿童照片基本上基于真实图像。没有办法将两者分开。从这个意义上说,基于人工智能的 CSAM 并不是无受害人犯罪。

第一次因拥有人工智能生成的 CSAM 而被捕的人刚刚发生五月回来“当联邦调查局逮捕一名男子时,他因使用稳定扩散技术创造了“数千张青春期前未成年人的真实图像。”

人工智能的支持者会说,使用 Photoshop 创建未成年人的露骨图像一直是可能的,但人工智能工具使任何人都可以更轻松地做到这一点。最近的一份报告发现六分之一的国会女议员已成为人工智能生成的深度伪造色情内容的目标。许多产品都有防护栏来防止最坏的用途,类似于打印机不允许复印货币的方式。实施障碍至少可以防止某些这种行为。

关于《阿拉斯加男子因 AI CSAM 举报某人,然后因同样的事情被捕》的评论


暂无评论

发表评论

摘要

阿拉斯加男子阿尔萨尼·奥康纳 (Althaney O’Connor) 向执法部门报告了另一人分享儿童性虐待材料 (CSAM) 的情况,他在搜查他的设备后被捕,据称发现了人工智能生成的 CSAM 图像和其他真实的 CSAM 内容。当局在家庭搜查过程中发现多个硬盘包含其他非法材料。奥康纳承认经常报道 CSAM,但仍然认为这些图像具有性满足性,尽管尚不清楚他为何举报这名飞行员。此案例凸显了区分真实 CSAM 和人工智能生成的 CSAM 的挑战,因为此类工具通常使用真实照片进行训练,导致它们难以区分。