专家表示,人工智能正在加剧在线信任的“崩溃”
作者:By Angela Yang
多年来,人们在很大程度上相信,至少本能地相信眼见为实。现在,假的往往看起来是真的,而真的往往看起来是假的。
在 2026 年的第一周内,这已经成为一个难题,许多媒体专家表示,由于人工智能的进步,这一难题将难以克服。
唐纳德·特朗普总统在委内瑞拉的行动几乎立即刺激了人工智能生成的图像、旧视频和修改后的照片在社交媒体上的传播。周三,一名移民和海关执法人员在车内枪杀一名妇女后,许多人在网上流传了一张假的、很可能是经过人工智能编辑的场景图像,该图像似乎是基于真实视频。其他人则使用人工智能试图以数字方式摘下枪杀她的 ICE 官员的面具。
围绕人工智能内容的混乱出现之际,许多社交媒体平台向创作者支付参与费用,并激励用户回收旧照片和视频,以提高病毒式新闻时刻的情绪。专家表示,错误信息的混合正在加剧对网上信任的侵蚀——尤其是当它与真实证据混合在一起时。
“当我们开始担心人工智能时,至少在短期内,它很可能会破坏我们的信任默认值,也就是说,我们相信沟通,直到我们有理由不相信,”斯坦福社交媒体实验室的创始主任杰夫·汉考克说。“这将是一个巨大的挑战,因为在一段时间内人们真的不会相信他们在数字空间中看到的东西。”
尽管人工智能是引发人们对虚假信息激增的担忧的最新技术,但类似的信任崩溃在历史上曾循环出现,从 2016 年的选举错误信息到 1400 年代印刷机发明后的大规模宣传。在人工智能之前,有 Photoshop,在 Photoshop 之前,有模拟图像处理技术。
汉考克说,快速发展的新闻事件是受操纵媒体影响最大的地方,因为它们填补了信息的广泛缺乏。
周六,特朗普在他经过验证的真相社会账户上分享了一张被废黜的委内瑞拉领导人尼古拉斯·马杜罗蒙住眼睛并戴上手铐登上一艘海军攻击舰的照片。不久之后,围绕捕获的未经证实的图像——其中一些随后被变成了AI 生成的视频— 开始涌入其他社交媒体平台。
作为真正的庆祝活动X 的所有者埃隆·马斯克 (Elon Musk) 是分享这一内容的人之一AI生成的视频委内瑞拉民众感谢美国抓获马杜罗。
人工智能生成的证据已经进入法庭。人工智能深度假货有 还愚弄了官员——去年年底,网上出现了大量人工智能生成的视频乌克兰士兵向俄罗斯人民道歉并向俄罗斯军队集体投降。
汉考克表示,尽管网上的许多错误信息仍然来自更传统的途径,例如人们盗用真实媒体来描绘虚假叙述,但人工智能正在迅速火上浇油。
– 仅查看图像或视频,基本上无法检测其是否为假。我认为,如果我们还没有达到那个目标的话,我们已经接近那个目标了,”他说。“‘让我们只看手指的数量’这样的旧式人工智能素养理念可能会消失。”
罗德岛大学传播学教授蕾妮·霍布斯 (Renee Hobbs) 表示,研究人工智能的研究人员面临的主要困难是,人们在尝试浏览海量的真实和合成的在线内容时面临认知疲劳。这使得他们更难筛选什么是真实的,什么是不是。
“让我们看看手指的数量”这种旧的人工智能素养想法可能会消失
杰夫·汉考克(Jeff Hancock),斯坦福社交媒体实验室创始主任
– 如果对信任什么不断怀疑和焦虑是常态,那么实际上,脱离接触是一种合乎逻辑的反应。这是一种应对机制,”霍布斯说。——然后,当人们不再关心某件事是否真实时,危险就不仅仅是欺骗,而且实际上比这更糟糕。这甚至导致寻求真理的动力彻底崩溃。”
她和其他专家正在努力研究如何将生成式人工智能纳入媒体素养教育中。经济合作与发展组织是一个由民主国家组成的政府间机构,合作制定政策标准,计划发布全球媒体与人工智能素养评估例如,2029 年针对 15 岁的青少年。
即使是一些拥抱生成式人工智能的社交媒体巨头也对其渗透到人们的算法中表现出谨慎的态度。
在一个最近在 Threads 上发表的帖子Instagram 的负责人 Adam Mosseri 谈到了他对人工智能错误信息在平台上变得越来越普遍的担忧。
“在我一生的大部分时间里,我可以放心地假设我看到的绝大多数照片或视频基本上都是对现实生活中发生的时刻的准确捕捉,”他写道。“现在的情况显然已经不再是这样了,我们人类需要数年的时间来适应。”
莫塞里预测,互联网用户将从默认情况下假设我们所看到的内容是真实的,转变为在看到媒体时持怀疑态度,并更加关注谁在分享某些内容以及他们为什么会分享这些内容。这对我们所有人来说都会非常不舒服,因为我们生来就倾向于相信自己的眼睛。”
加州大学伯克利分校信息学院计算机科学教授 Hany Farid 表示,他最近对深度伪造检测的研究发现,人们说真实的东西是假的的可能性与说假的东西是真的的可能性一样。当人们对政治暗示感到满意时,准确率会显着恶化,因为确认偏见就会出现。
– 当我给你发送一些符合你世界观的东西时,你会想要相信它。你会被激励去相信它,”法里德说。“如果它与你的世界观相矛盾,你很可能会说,“哦,那是假的。”因此,当你将党派之争添加到其中时,一切都会从水中消失。”
布法罗大学计算机科学教授吕思伟表示,人们也更有可能立即信任他们熟悉的人,例如名人、政客、家庭成员和朋友,因此,当这些人物变得更加现实时,人工智能的相似之处就更有可能欺骗人们。
Lyu,帮助维护一个名为“开源人工智能检测平台”的人DeepFake-o-meter,表示日常互联网用户只需注意即可提高他们的人工智能检测技能。他说,即使他们没有能力分析他们遇到的每一点媒体,人们至少应该问自己为什么信任或不信任他们所看到的内容。
“在很多情况下,可能不是媒体本身有问题,而是媒体在错误的背景下发布的,或者是由我们不能完全信任的人发布的,”吕说。——所以我认为,总而言之,共同的意识和常识是我们拥有的最重要的防护措施,不需要专门的培训。——
