多年来,哈希技术使平台能够自动检测已知的儿童性虐待材料(CSAM),以防止儿童在网上再次受到伤害。然而,随着新的受害者继续受害,快速检测新的或未知的 CSAM 仍然是平台面临的更大挑战。现在,人工智能可能已经准备好改变这一现状。
今天,著名的儿童安全组织 Thorn 与领先的基于云的 AI 解决方案提供商 Hive 合作,宣布发布 API,扩展对旨在标记未知 CSAM 的 AI 模型的访问。这是人工智能技术的最早应用,旨在大规模揭露未报告的 CSAM。
Thorn 的 CSAM 检测工具的扩展,更安全,人工智能功能使用“高级机器学习(ML)分类模型”来“检测新的或以前未报告的 CSAM”,生成“风险评分,使人类决策更容易、更快”。
该模型的训练部分使用了国家失踪和受虐儿童中心 (NCMEC) CyberTipline 的数据,依靠真实的 CSAM 数据来检测有害图像和视频中的模式。一旦可疑的 CSAM 被标记,人工审核员就会随时了解情况以确保监督。它有可能被用来探测可疑的 CSAM 环在线扩散。
当然,它也可能会犯错误,但 Hive 首席执行官 KevinGuo 告诉 Ars,进行了广泛的测试,以大幅减少误报或漏报。虽然他不愿分享统计数据,但他表示,平台不会对“该工具标记的一百件事中有九十九件事不正确”的工具感兴趣。
Thorn 数据科学副总裁丽贝卡·波特诺夫 (Rebecca Portnoff) 告诉 Ars,与 Hive 合作开发 Safer 是“理所当然的”。Hive 提供了数百个流行在线社区使用的内容审核模型,Guo 告诉 Ars,平台一直要求提供工具来检测未知的 CSAM,其中大部分目前在网上的盲点中溃烂,因为哈希数据库永远不会暴露它。