作者:by Royal Holloway, University of London
伦敦大学皇家霍洛威学院信息安全系的一组研究人员强调了旨在帮助人们永久删除基于图像的性虐待 (IBSA) 材料(例如未经同意的亲密图像)的技术中存在的主要隐私风险。来自互联网。
这些发现,发表在IEEE 安全与隐私,揭示了当前用于识别和删除滥用内容的技术如何受到生成人工智能的攻击,从而可能使易受攻击的用户面临风险。
研究团队专注于“感知哈希”:一种创建图像“数字指纹”以检测有害内容而不存储和分发原始文件的方法。大多数在线平台(特别是社交媒体网站)保留已知滥用图像的哈希值列表,从而能够检测和防止重新上传副本。
此外,国家失踪和受虐儿童中心 (NCMEC) 运营的“Take It Down”等工具使用户能够在一个地方自行报告 IBSA。为此,用户可以上传图像的感知哈希值,然后与 Facebook 和 OnlyFans 等合作伙伴平台共享。
然而,最近发表的论文表明,感知哈希并不像预期的那样不可逆转,破坏了 IBSA 删除工具在其常见问题解答页面上声称的隐私保证。
由索菲·霍克斯博士领导来自信息安全系的研究员,研究团队检查了四种广泛使用的感知哈希函数,包括Facebook的PDQ Hash(《Take It Down》使用的)和苹果的NeuralHash,发现它们都容易受到逆转攻击。
更具体地说,很明显,生成式人工智能的对抗性使用可以近似重建原始图像材料。霍克斯解释说:“我们的研究结果挑战了这样的假设:仅感知哈希就足以确保图像隐私,但感知哈希应该像原始图像一样安全地对待。”
考虑到 IBSA 内容的敏感性以及这些工具旨在保护的弱势用户群体,这一点尤其令人担忧。合著者 Maryam Mehrnezhad 博士(皇家霍洛威学院)和 Teresa Almeida 博士(里斯本大学)表示:“现代技术的危害可能会以复杂的方式展现出来。虽然 IBSA 风险并不限于任何人口统计数据,但某些群体(例如儿童)可能面临更大的风险,包括心理伤害和安全威胁,因此,在应对这些风险时,设计安全可靠的工具至关重要。”
研究人员认为,“Take It Down”等服务的当前设计是不够的,并强调需要更强的数据保护措施,例如使用私有集交集 (PSI) 等加密协议。通过使用 PSI,可以在不暴露敏感数据的情况下启用安全哈希匹配。这将确保提供更加注重隐私的解决方案来删除有害内容,保护易受攻击的用户。
然而,目前,研究人员建议用户仔细考虑感知哈希的风险,并在提交报告时做出明智的决定。特别是,用户应考虑在线发布图像的风险以及根据报告哈希值重建图像的风险。
虽然报告已在线共享的图像的哈希值时可能不会造成重大隐私损失,但主动报告图像可能是一个问题。
按照负责任的披露程序,研究人员已向 NCMEC 通报他们的发现,敦促服务提供商优先实施更安全的解决方案,以确保用户隐私。
此外,研究人员主张提高透明度,以便用户可以就他们的选择之间的权衡做出明智的决定。隐私决定是否使用基于感知散列的 IBSA 报告工具时的安全性。
来自信息安全系的合著者 Christian Weinert 博士总结道:“这一领域的未来工作将需要协同努力让技术设计师、政策制定者、执法人员、教育工作者以及最重要的 IBSA 受害者和幸存者参与进来,为所有人创造更好的解决方案。”
更多信息:Sophie Hawkes 等人,对基于图像的性虐待删除工具的感知哈希反转攻击,IEEE 安全与隐私(2024)。DOI:10.1109/MSEC.2024.3485497
引文:研究表明,基于图像的性虐待清除工具容易受到生成式人工智能攻击(2024 年,12 月 3 日)检索日期:2024 年 12 月 4 日来自 https://techxplore.com/news/2024-12-image-based- Sex-abuse-tools.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。