联邦政府测试现有法律是否能应对假AI儿童色情图像激增的问题

2024-10-17 16:18:49 英文原文

路透社指出,这些儿童剥削案件是对现有法律应对新兴人工智能危害的早期考验,可能会很快揭示联邦检察官在适用现行法律来打击此类行为时所面临的困难。但由于预计会遇到法律挑战,即使司法部(DOJ)可能存在这种情况,检察官可能仍会犹豫是否对未被识别出受害儿童的人工智能案件提起诉讼。声明"AI生成的儿童性虐待材料仍然是儿童性虐待材料。"

The 最早被起诉的案件针对使用最易获取工具和最先进工具的不良行为者。

一个涉及一名美国陆军士兵,据称他使用机器人生成儿童色情内容。另一个案件导致一名42岁的“技术极其娴熟”的威斯康星州男子被指控涉嫌使用Stable Diffusion创建“数千张未成年儿童的真实图像”,这些图片随后据称与未成年人分享,并在Instagram和Telegram上分发。(Stability AI,即Stable Diffusion的制造商,一再否认参与开发用于生成有害材料的模型,并承诺防止其他模型产生此类内容。)

这两人都已表示不认罪,似乎在等待法庭如何处理生成式人工智能在儿童剥削领域引发的复杂法律问题。

一些儿童安全专家呼吁像加州那样追究应用程序开发者的责任,倡导制定阻止有害人工智能图像生成的标准。但即使所有流行的应用程序开发者都达成一致,威胁仍然可能存在于暗网和监管较少的互联网角落里。

公共公民民主倡导者伊兰娜·贝尔尔在九月份敦促各地立法者明确法律,以确保任何受害者都不会怀疑是否有办法应对迅速在网上扩散的有害AI生成的图片。只有像立法者对待实际儿童色情材料一样将AI生成的非法内容定为犯罪,才能确保这些内容被及时检测和删除,贝尔尔希望所有非自愿生成的亲密影像受害者的权益也能得到同样的保护。

“非自愿制作的亲密深度伪造内容对从一线明星到初中生在内的每个人都是威胁,”Beller说。“必须将制作和传播深度伪造色情视作极具破坏性的犯罪。尽管许多州的立法者正在取得进展,但我们需要在所有50个州和华盛顿特区通过相关立法,以确保所有人都能免受深度伪造色情带来的严重伤害。”

关于《联邦政府测试现有法律是否能应对假AI儿童色情图像激增的问题》
暂无评论

摘要

路透社指出,这些儿童剥削案件是对现有法律应用于新兴AI危害的难度进行早期测试的一个例子。但即使所有流行的APP开发商都同意这一点,威胁仍可能在暗网和监管较少的互联网角落里存在。公民联盟民主倡导者伊兰娜·贝尔在九月份敦促各地立法者澄清相关法律,以便受害者永远不会质疑是否有任何防御措施可以保护自己免受网络上迅速传播的有害AI图像的攻击。只有像对待实际儿童色情材料一样将AI生成的CSAM(非法制作和传播涉及未成年人的色情材料)定为刑事犯罪,才能确保相关内容能够被及时检测并移除,这是贝尔的想法,并且她希望所有受到AI生成的非自愿亲密影像威胁的人都能获得同样的保护。创建和分享深度伪造色情必须被视为一种极具破坏性的犯罪行为。