路透社指出,这些儿童剥削案件是对现有法律应对新兴人工智能危害的早期考验,可能会很快揭示联邦检察官在适用现行法律来打击此类行为时所面临的困难。但由于预计会遇到法律挑战,即使司法部(DOJ)可能存在这种情况,检察官可能仍会犹豫是否对未被识别出受害儿童的人工智能案件提起诉讼。声明"AI生成的儿童性虐待材料仍然是儿童性虐待材料。"
The 最早被起诉的案件针对使用最易获取工具和最先进工具的不良行为者。
一个涉及一名美国陆军士兵,据称他使用机器人生成儿童色情内容。另一个案件导致一名42岁的“技术极其娴熟”的威斯康星州男子被指控涉嫌使用Stable Diffusion创建“数千张未成年儿童的真实图像”,这些图片随后据称与未成年人分享,并在Instagram和Telegram上分发。(Stability AI,即Stable Diffusion的制造商,一再否认参与开发用于生成有害材料的模型,并承诺防止其他模型产生此类内容。)
这两人都已表示不认罪,似乎在等待法庭如何处理生成式人工智能在儿童剥削领域引发的复杂法律问题。
一些儿童安全专家呼吁像加州那样追究应用程序开发者的责任,倡导制定阻止有害人工智能图像生成的标准。但即使所有流行的应用程序开发者都达成一致,威胁仍然可能存在于暗网和监管较少的互联网角落里。
公共公民民主倡导者伊兰娜·贝尔尔在九月份敦促各地立法者明确法律,以确保任何受害者都不会怀疑是否有办法应对迅速在网上扩散的有害AI生成的图片。只有像立法者对待实际儿童色情材料一样将AI生成的非法内容定为犯罪,才能确保这些内容被及时检测和删除,贝尔尔希望所有非自愿生成的亲密影像受害者的权益也能得到同样的保护。
“非自愿制作的亲密深度伪造内容对从一线明星到初中生在内的每个人都是威胁,”Beller说。“必须将制作和传播深度伪造色情视作极具破坏性的犯罪。尽管许多州的立法者正在取得进展,但我们需要在所有50个州和华盛顿特区通过相关立法,以确保所有人都能免受深度伪造色情带来的严重伤害。”