英语轻松读发新版了,欢迎下载、更新

儿童安全组织标记新的 CSAM,其人工智能经过真实儿童性虐待图像的训练

2024-11-21 14:00:37 英文原文

多年来,哈希技术使平台能够自动检测已知的儿童性虐待材料(CSAM),以防止儿童在网上再次受到伤害。然而,随着新的受害者继续受害,快速检测新的或未知的 CSAM 仍然是平台面临的更大挑战。现在,人工智能可能已经准备好改变这一现状。

今天,著名的儿童安全组织 Thorn 与领先的基于云的 AI 解决方案提供商 Hive 合作,宣布发布 API,扩展对旨在标记未知 CSAM 的 AI 模型的访问。这是人工智能技术的最早应用,旨在大规模揭露未报告的 CSAM。

Thorn 的 CSAM 检测工具的扩展,更安全,人工智能功能使用“高级机器学习(ML)分类模型”来“检测新的或以前未报告的 CSAM”,生成“风险评分,使人类决策更容易、更快”。

该模型的训练部分使用了国家失踪和受虐儿童中心 (NCMEC) Cyber​​Tipline 的数据,依靠真实的 CSAM 数据来检测有害图像和视频中的模式。一旦可疑的 CSAM 被标记,人工审核员就会随时了解情况以确保监督。它有可能被用来探测可疑的 CSAM 环在线扩散。

当然,它也可能会犯错误,但 Hive 首席执行官 KevinGuo 告诉 Ars,进行了广泛的测试,以大幅减少误报或漏报。虽然他不愿分享统计数据,但他表示,平台不会对“该工具标记的一百件事中有九十九件事不正确”的工具感兴趣。

Thorn 数据科学副总裁丽贝卡·波特诺夫 (Rebecca Portnoff) 告诉 Ars,与 Hive 合作开发 Safer 是“理所当然的”。Hive 提供了数百个流行在线社区使用的内容审核模型,Guo 告诉 Ars,平台一直要求提供工具来检测未知的 CSAM,其中大部分目前在网上的盲点中溃烂,因为哈希数据库永远不会暴露它。

关于《儿童安全组织标记新的 CSAM,其人工智能经过真实儿童性虐待图像的训练》的评论


暂无评论

发表评论

摘要

领先的儿童安全组织 Thorn 与人工智能解决方案提供商 Hive 合作,发布了一个 API,该 API 使用先进的机器学习模型来标记新的或以前未报告的儿童性虐待材料 (CSAM)。这是人工智能技术首次大规模应用,旨在发现未报告的 CSAM。AI功能扩展了Thorn现有的CSAM检测工具Safer,并利用NCMEC的真实CSAM数据进行模型训练。一旦被人工智能标记,可疑的 CSAM 就会接受人工审查,以最大限度地减少错误。平台对这个工具表现出了兴趣,因为它有可能检测当前隐藏在视图中的 CSAM。