由于人工智能造假,深度怀疑时代已经到来 - Ars Technica

2024-09-18 09:00:10 英文原文

鉴于如今大量由人工智能生成的真实图像席卷 X 和 Facebook 等社交媒体网络,我们似乎正在进入一个媒体怀疑主义的新时代:我所说的“深度怀疑”时代”。虽然对数字内容真实性的质疑可以追溯到几十年前,而模拟媒体的真实性早在几十年前就可以轻松使用生成令人信服的虚假内容的工具,这导致了新一波的骗子使用人工智能生成的场景来否认真实的文件证据。一路走来,人们对陌生人在线内容的现有怀疑可能会达到新的高度。

深度怀疑是源于生成人工智能的存在的对真实媒体的怀疑。这表现为公众对媒体制品真实性的广泛怀疑,这反过来又导致了一个显着的后果:人们现在可以更可信地声称真实事件没有发生,并表明书面证据是使用人工智能工具伪造的。

<“深度怀疑”背后的概念并不新鲜,但它对现实世界的影响正变得越来越明显。自 2017 年“深度伪造”一词首次出现以来,我们已经看到人工智能生成的媒体功能快速发展。这导致了最近对行动产生深刻怀疑的例子,例如阴谋论者声称总统乔·拜登已被人工智能驱动的全息图取代,前总统唐纳德·特朗普在八月份毫无根据地指控副总统卡马拉·哈里斯使用人工智能伪造人群规模在她的集会上。周五,特朗普在一张他与 E. Jean Carroll(一名成功起诉他性侵犯的作家)合影时再次大喊“人工智能”,这与他从未见过她的说法相矛盾。

法律学者Danielle K. Citron 和 Robert Chesney 多年前就预见到了这一趋势,并在 2019 年创造了“说谎者红利”一词来描述深度怀疑的后果:深度造假被说谎者武器化,以抹黑真实证据。但是,虽然深度怀疑曾经是一个假设的学术概念,但现在它已成为我们的现实。

深度造假的兴起,怀疑的持续存在

怀疑自古以来就是一种政治武器。这种现代人工智能驱动的表现只是一种策略的最新演变,这种策略播下不确定性的种子,以操纵公众舆论、削弱对手和隐藏真相。人工智能是骗子的最新避难所。

在过去的十年中,深度学习技术的兴起使人们越来越容易制作虚假或经过修改的图片、音频、文本或视频,这些图片、音频、文本或视频似乎是非合成的有机介质。Deepfakes 是以一位名为“deepfakes”的 Reddit 用户命名的,该用户在该服务上分享人工智能伪造的色情内容,用不属于原始录音的其他人的脸替换了表演者的脸。在 20 世纪,人们可能会说,我们对他人制作的媒体的信任在一定程度上是由于制作纪实图像和电影的成本和耗时以及所需的技能而产生的。。即使是文本也需要大量的时间和技巧。随着深度怀疑现象的增长,它将侵蚀这种20世纪的媒体敏感性。但它也会影响我们的政治话语、法律体系,甚至我们对依赖媒体发挥作用的历史事件的共同理解——我们依赖其他媒体来获取有关世界的信息。从逼真的图像到完美的声音克隆,我们对媒体中“真相”的看法需要重新校准。

四月份,一个联邦法官小组强调了人工智能生成的深度伪造品的潜力。不仅引入假证据,而且在法庭审判中对真证据产生怀疑。这种担忧是在美国司法会议证据规则咨询委员会的一次会议上出现的,会上法官们讨论了在人工智能技术日益复杂的时代验证数字证据的挑战。最终,法官们决定推迟进行任何与人工智能相关的规则变更,但他们的会议表明,美国法官已经在考虑这个主题。

摘要

鉴于如今大量由人工智能生成的逼真图像席卷了 X 和 Facebook 等社交媒体网络,我们似乎正在进入一个媒体怀疑主义的新时代:我称之为“深度怀疑”的时代。这表现为公众对媒体制品真实性的广泛怀疑,这反过来又导致了一个显着的后果:人们现在可以更可信地声称真实事件没有发生,并表明书面证据是使用人工智能工具伪造的。法律学者 Danielle K. Citron 和 Robert Chesney 多年前就预见到了这一趋势,并在 2019 年创造了“说谎者红利”一词来描述深度怀疑的后果:深度造假被说谎者武器化,以抹黑真实证据。这种现代人工智能驱动的表现只是一种策略的最新演变,这种策略播下不确定性的种子,以操纵公众舆论、削弱对手和隐藏真相。今年 4 月,一个联邦法官小组强调了人工智能生成的深度造假不仅可能引入虚假证据,而且还会在法庭审判中对真实证据产生怀疑。