实验表明,即使事先发出警告,识别深度伪造品的能力也有限 - PsyPost

2024-09-28 12:17:17 英文原文

在英国进行的一项实验表明,人们通常很难区分深度伪造视频和真实视频。观看所有真实视频的参与者报告异常情况的可能性几乎与观看真实和深度伪造内容混合的参与者一样。当被要求从五个视频中选择一个 Deepfake 视频时,只有 21.6% 的参与者正确识别出了被篡改的视频。该研究发表在《皇家学会开放科学》上。

Deepfake 视频是使用深度学习技术人为操纵的,使其显得真实。这些视频使用人工智能来叠加人脸、模仿声音,并对真人进行超逼真的模仿,使得区分真假内容变得具有挑战性。

深度造假最初是为了娱乐和创意目的而开发的,但由于其可能被滥用,现在引发了道德和安全方面的担忧。他们可以通过将个人置于捏造的场景中来操纵公众舆论、损害声誉或实施欺诈。尽管存在风险,深度造假在电影、教育和数字内容创作中也有合法的应用。

研究作者安德鲁·刘易斯和他的同事想要探索人们是否能够识别深度伪造视频。他们有兴趣了解人们是否能够在没有任何警告的情况下指出它们(没有人告诉他们他们正在查看的内容中可能存在深度伪造品),以及对可能的深度伪造品发出警告是否会改变情况。例如,研究人员想知道,如果参与者被告知至少有一个视频被修改,他们是否能够识别出一系列视频中的哪个视频使用了 Deepfake 技术。为了测试这一点,他们设计了一个对照实验。

该研究通过 Lucid Marketplace(一个收集调查参与者的在线平台)招募了 1,093 名英国居民。参与者被分为三个实验组,调查通过 Qualtrics 进行。

在第一组中,参与者观看了五个没有深度伪造的真实视频。第二组观看了同一组视频,但其中一个是深度伪造的,而参与者没有被警告其存在。观看视频后,参与者被问及是否注意到任何异常情况。

第三组也观看了包含一个 Deepfake 的同一视频集,但他们事先被告知至少有一个视频将被操纵。他们得到了对深度造假的简要解释,深度造假被描述为使用深度学习人工智能来制作看起来真实的假视频的操纵视频,并被明确告知,在接下来的页面上至少有克鲁斯先生的一系列另外五个视频其中之一是深度伪造视频。观看后,参与者被要求选择他们认为是假的一个或多个视频。

研究中的深度伪造视频以演员汤姆·克鲁斯为主角,其他视频是来自 YouTube 的真实片段。考虑到对演员的熟悉程度,所有参与者首先观看了汤姆·克鲁斯的一分钟采访摘录,以对他的外表和言语模式有一个基本的了解。

结果显示,参与者基本上无法检测到深度赝品。在只观看真实视频的组中,34% 的人表示注意到了一些异常情况,而在不知不觉中观看深度伪造视频的组中,这一比例为 33%。这一微小的差异表明,人们在检测深度伪造品方面的表现并不比在真实视频中发现违规行为更好。

在收到有关 Deepfakes 警告的群体中,78.4% 的人仍然无法正确识别被篡改的视频。参与者通常更有可能将其中一个真实视频误认为是深度伪造视频,而不是正确识别真正的伪造视频。然而,在只选择一个视频的人中,39% 的人正确识别出 Deepfake,这一比例略高于随机猜测。

我们表明,在自然浏览环境中,个人在遇到深度伪造时不太可能注意到异常情况。研究作者总结道,这与之前的一些研究结果一致,表明个人很难检测高质量的深度赝品。

其次,我们展示了内容警告对检测的影响结果,表明大多数人仍然无法从真实视频中发现深度造假,即使他们被告知一系列视频中至少有一个视频他们的观点会被改变。例如,成功的内容审核,例如,特定视频被社交媒体平台标记为虚假视频,可能并不依赖于增强个人自行检测更改视频中的违规行为的能力,而是依赖于培养对内容身份验证的外部来源(特别是用于深度伪造检测的自动化系统)的信任。),研究作者总结道。

这项研究揭示了普通人群检测深度伪造视频的能力有限。然而,值得注意的是,深度造假是一种相对较新的现象,大多数人在识别它们方面缺乏经验。随着深度造假变得越来越普遍,个人可能会提高识别它们的技能。

论文《带有和不带有内容警告的 Deepfake 检测》由 Andrew Lewis、Patrick Vu、Raymond M. Duch 和 Areeq Chowdhury 撰写。

关于《实验表明,即使事先发出警告,识别深度伪造品的能力也有限 - PsyPost》的评论


暂无评论

发表评论

摘要

在英国进行的一项实验表明,人们通常很难区分深度伪造视频和真实视频。该研究发表在《皇家学会开放科学》杂志上。研究作者安德鲁·刘易斯和他的同事想要探索人们是否能够识别深度伪造视频。观看后,参与者被要求选择他们认为是假的视频。其次,我们展示了内容警告对检测的影响的结果,表明大多数人仍然无法从真实视频中发现深度伪造,即使他们被告知他们将观看一系列视频中的至少一个视频已被更改。