人工智能(AI) 可以掌握隐藏您的个人照片,防止不受欢迎的面部识别软件和欺诈者发现的关键,而且不会破坏图像质量。
佐治亚理工大学的一项新研究于 7 月 19 日发表于预印本arXiv数据库详细介绍了研究人员如何创建一个名为“Chameleon”的人工智能模型,该模型可以为个人照片生成数字“单一个性化隐私保护(P-3)面具”,阻止不必要的面部扫描来检测人脸。变色龙会让面部识别扫描仪将照片识别为其他人。
该研究的主要作者表示:“像 Chameleon 这样的保护隐私的数据共享和分析将有助于推进人工智能技术的治理和负责任的采用,并刺激负责任的科学和创新。”刘玲佐治亚理工学院计算机科学学院的数据和智能计算教授(他与其他研究人员一起开发了变色龙模型),在一份声明中。
有关的:科学家警告说,大型语言模型不适合现实世界的使用——即使是微小的变化也会导致他们的世界模型崩溃
面部识别系统现在在日常生活中很常见,从警察摄像头到 iPhone 中的 Face ID。但不必要或未经授权的扫描可能会导致网络犯罪分子收集图像进行诈骗、实施欺诈或跟踪。他们甚至可以收集图像来建立数据库,用于不必要的广告定位和网络攻击。
制作面具
虽然图像遮蔽并不是什么新鲜事,但现有系统经常会混淆人物照片的关键细节,或者通过引入数字伪影而无法保留任何真实质量的图像。为了克服这个问题,研究人员表示变色龙具有三个具体特征。
第一个是使用跨图像优化,使 Chameleon 能够为每个用户创建一个 P3-Mask,而不是为每个图像创建一个新的 mask。这意味着AI系统可以为用户提供即时保护,也可以更有效地利用有限的计算资源;如果 Chameleon 用于智能手机等设备,后者可能会很方便。
其次,Chameleon 融入了“感知性优化”(这是指如何自动渲染图像,无需手动干预或参数设置),以确保保留受保护的面部图像的视觉质量。
第三个功能是增强 P3-Mask,使其足够强大,可以挫败未知的面部识别模型。这是通过集成焦点分集优化来完成的集成学习进入掩模生成过程。换句话说,它使用机器学习技术,结合多个模型的预测来提高算法的准确性。
最终,研究人员希望将 Chameleon 的混淆方法应用于个人用户个人图像的保护之外。
“我们希望利用这些技术来保护图像不被用来训练人工智能生成模型。我们可以保护图像信息不被未经同意地使用,”佐治亚理工学院的博士生说黄天生,他也参与了 Chameleon 的开发。