美国虐待儿童调查人员称,Meta 的人工智能向司法部发送“垃圾”提示
作者:Katie McQue
— 使用人工智能美国针对儿童互联网犯罪 (ICAC) 工作组的官员表示,用于监管其社交媒体平台的软件正在生成大量有关儿童性虐待案件的无用报告,这些报告正在耗尽资源并阻碍调查。“我们从 Meta 那里得到的很多提示都是垃圾,”新墨西哥州廉政公署特别工作组的特工本杰明·兹维贝尔 (Benjamin Zwiebel) 上周在法庭作证时表示。
州政府对 Meta 的审判。州总检察长声称该公司的平台将利润置于儿童安全之上。Meta 对这些指控提出异议,并援引其在平台上引入的变化,例如具有默认保护的青少年帐户。ICAC工作组是一个全国性的执法机构网络,与美国司法部协调,调查和起诉网上剥削和虐待儿童案件。
另一位因讨论内部事务而不愿透露姓名的廉署官员表示:“Meta 每月提供数千条举报。这是相当令人难以承受的,因为我们收到了如此多的报告,但就我们采取严肃行动的能力而言,这些报告的质量确实缺乏。”廉署官员补充说,从 2024 年到 2025 年,他们的部门收到的网络举报总数增加了一倍。
Zweibel 和两名廉政公署官员表示,Instagram、Facebook 和 WhatsApp 上的不可行提示在某些情况下包含非犯罪信息。匿名警官补充说,提示有时包含表明可能发生犯罪的信息,但重要的图像、视频或文本丢失或被编辑。
“来自 Instagram 的不可行提示最近确实激增,尤其是在过去几个月,这是我们看到未提供此类信息的最大地方之一,”廉署官员补充道。– 在这些情况下,我们没有信息来进一步调查。知道发生了这起犯罪事件,您感到很沉重,但我们无法识别肇事者。”
当被问及 Zweibel 的证词和廉政公署官员的言论时,Meta 发言人表示:“我们多年来一直支持执法部门起诉罪犯:司法部多次赞扬我们的快速合作,这有助于逮捕犯罪分子,NCMEC 也赞扬我们简化和“改进”的举报流程。2024 年,我们收到了来自美国当局的 9,000 多个紧急请求,平均在 67 分钟内得到解决,对于涉及儿童安全和自杀的案件甚至更快。根据适用法律,我们还向 NCMEC 报告明显的儿童性剥削图像,并支持他们确定报告的优先顺序,从帮助构建案件管理工具到标记网络提示,以便他们知道哪些是紧急的。
该公司指出,代理人 Zweibel 在作证期间建议使用 Meta 的青少年帐户功能,他说他这样做了“因为这是唯一可用的选择,假设青少年不会放弃使用社交媒体”。
劳尔·托雷兹新墨西哥州负责 Meta 案件的总检察长承认该公司在审判中提供了虐待儿童线索方面的合作:“我确实要归功于一些社交媒体应用程序和平台,包括 Meta,在某种程度上,他们确实向国家失踪和受虐儿童中心报告了图像。”
周五公布的该案文件显示,Meta 高管对该公司在 2019 年初监管儿童性虐待并向执法部门发出警报的能力发出了内部警报。当时,该公司正准备在 Facebook Messenger 中启用端到端加密,通过加密技术隐藏除预期收件人之外的任何人的用户消息。
文件提出新问题
– 作为一家公司,我们即将做一件坏事。这是非常不负责任的,”Meta 内容政策主管莫妮卡·比克特 (Monika Bickert) 写道。比克尔特
写道,如果 Messenger 的内容被加密,将“无法发现恐怖袭击计划或儿童剥削”,这可能会妨碍执法部门的工作。 根据内部文件,比克特还表示,Meta“对我们进行安全操作的能力做出了严重错误的陈述”。
在另一份文件中,Meta 员工估计,对 Messenger 进行加密会使该公司“无法主动向执法部门提供 600 起儿童剥削案件、1,454 起性勒索案件、152 起恐怖案件和 9 起校园枪击威胁案件的数据”。
Meta 发言人安迪·斯通 (Andy Stone) 告诉路透社:“2019 年提出的担忧正是我们开发一系列新安全功能来帮助检测和防止滥用的原因,所有这些功能都设计用于加密聊天。”
儿童安全组织批评 Messenger 的加密技术,该软件最终于 2023 年推出。
集体举报虐待儿童行为
根据法律规定,总部位于美国的社交媒体公司需要报告将其平台上发现的任何儿童性虐待材料 (CSAM) 报告给国家失踪和受虐儿童中心 (NCMEC)。NCMEC 是国家报告交换所,将报告转发给美国和国际上的相应执法机构。NCMEC 无权在将任何可能不可行的举报发送给相关执法机构之前过滤掉这些举报。
Meta 是迄今为止 NCMEC 最大的报告者。NCMEC 在其 2024 年数据报告中表示,Meta 在 Facebook、Instagram 和 Whatsapp 上发布了 1,380 万条举报,而该公司总共收到了 2,050 万条举报。
NCMEC 表示,到 2024 年,将有超过 100 万份 CyberTipline 报告与美国某个州相关,这些报告将提供给全国各地的 ICAC 工作组以及其他联邦、州和地方执法机构进行调查。
Meta 和其他社交媒体公司使用人工智能来检测和报告其网站上的可疑材料,并聘请人工审核员审查一些标记的内容,然后将其发送给执法部门。《卫报》此前曾报道称,人工智能生成的提示由于第四修正案的保护,未经社交媒体公司员工审查的信息通常无法由执法人员在没有搜查令的情况下打开。参与此类案件的律师表示,这一额外步骤也会减缓对潜在犯罪的调查。
Meta 发言人表示:“不幸的是,法院的裁决要求搜查令才能打开我们已经审查和报告的内容的相同副本,从而增加了执法部门的负担。”我们的图像匹配系统以手动方式无法完成的规模查找已知儿童剥削的副本,并且我们致力于通过技术、社区报告以及我们专业儿童安全团队的调查来检测新的儿童剥削内容。
立法变革引发大量小费
根据 2024 年 11 月生效的《报告法》(修订通过技术报告的现有程序),在线服务提供商必须扩大和加强其报告义务,不仅通知 NCMEC 的 CyberTipline 有关儿童性虐待材料的信息,还通知计划或即将发生的虐待、儿童性贩运和相关剥削的信息;他们还必须更长时间地保存证据,如果故意不遵守,将面临更严厉的处罚。
两名廉政公署官员表示,自该法案通过以来,Meta 提供的不可行举报数量急剧增加,这可能是因为该公司正在采取行动确保不触犯法律。其中许多技巧不能被视为犯罪,例如青春期女孩谈论她们认为哪个名人最有吸引力。
“根据我的训练和经验,它们似乎是通过人工智能提交的,因为这些是人工智能会犯而人类观察者不会犯的常见错误,”兹维贝尔在法庭上说。
相比之下,Zwiebel 部门从 Meta 收到的关于合法分发儿童性虐待材料 (CSAM) 案件的举报比往年少得多,他说。
两名官员表示,收到廉政公署部门的每一条举报都必须经过审查,大量不可行的举报正在占用调查合法虐待儿童案件的时间和资源。
——这正在扼杀士气。“我们被举报淹没了,我们想出去做这项工作,”一名廉政公署官员说。– 我们没有人员来维持这一点。我们无法跟上即将到来的洪水。”