OC

Knowledge OS
鹦鹉螺口语
专家表示,特朗普对人工智能图像的使用突破了新的界限,进一步削弱了公众的信任
2026-01-27 18:51:00 · 英文原文

专家表示,特朗普对人工智能图像的使用突破了新的界限,进一步削弱了公众的信任

作者:By KAITLYN HUAMANI

洛杉矶(美联社)——特朗普政府并不回避在网上分享人工智能生成的图像,卡通般的视觉效果和模因并在白宫官方渠道上推广它们。

但经过编辑的、现实的、民权律师的形象内基马·利维·阿姆斯特朗被捕后流泪,这对政府如何模糊真实与虚假之间的界限提出了新的警报。

国土安全部部长克里斯蒂·诺埃姆 (Kristi Noem) 的账户发布了原始图像利维·阿姆斯特朗被捕后,白宫官方账户发布了一张经过修改的照片,显示她在哭泣。这张经过修改的图片是自美国边境巡逻人员在明尼阿波利斯枪杀蕾妮·古德和亚历克斯·普雷蒂以来,大量人工智能编辑图像的一部分,这些图像已在各个政治派别中分享。

然而,白宫对人工智能的使用让错误信息专家感到困扰,他们担心人工智能生成或编辑的图像的传播会侵蚀公众对真相的认知并播下不信任的种子。

为了回应对利维·阿姆斯特朗编辑图像的批评,白宫官员加倍强调了这一帖子,副通讯主任Kaelan Dorr 在 X 上写作“模因将会继续下去。”白宫副新闻秘书阿比盖尔·杰克逊也分享了一个帖子嘲笑批评

康奈尔大学信息科学教授戴维·兰德 (David Rand) 表示,将修改后的图像称为迷因,这似乎是试图将其视为一个笑话或幽默的帖子,就像他们之前的漫画一样。这大概是为了保护他们免受发布受操纵媒体的批评。”他说,分享修改后的逮捕图像的目的似乎比分享修改后的逮捕图像的目的“更加模糊”。卡通图像政府过去曾分享过。

迷因总是承载着分层的信息,这些信息对于理解它们的人来说很有趣或信息丰富,但对于外人来说却难以理解。共和党传播顾问、网红营销公司 Total Virality 的创始人扎克·亨利 (Zach Henry) 表示,人工智能增强或编辑的图像只是白宫用来吸引花大量时间上网的特朗普支持者的最新工具。

“最终在线的人们会看到它并立即将其识别为模因,”他说。“你的祖父母可能会看到它但不理解这个模因,但因为它看起来很真实,所以他们会向他们的孩子或孙子询问这个问题。”

亨利说,如果它能引起强烈反应,这有助于它像病毒一样传播,那就更好了。他普遍赞扬了白宫社交媒体团队的工作。

西北大学教授兼新闻媒体素养研究员迈克尔·A·斯派克斯 (Michael A. Spikes) 表示,经过修改的图像的创建和传播,尤其是当这些图像被可信来源分享时,“会具体化对正在发生的事情的想法,而不是显示实际发生的事情”。

“政府应该是一个你可以信任信息的地方,你可以说它是准确的,因为他们有责任这样做,”他说。——通过分享此类内容、创建此类内容——它正在侵蚀信任——尽管我总是对信任这个词持怀疑态度——但我们应该对联邦政府拥有信任,相信联邦政府会向我们提供准确、经过验证的信息。这是真正的损失,我真的很担心。”

斯派克斯表示,他已经看到了围绕对新闻机构和高等教育的不信任的“制度危机”,并认为官方渠道的这种行为加剧了这些问题。

加州大学洛杉矶分校教授、乌托邦播客主持人拉梅什·斯里尼瓦桑 (Ramesh Srinivasan) 表示,许多人现在都在质疑他们可以从哪里获得“可信信息”。“人工智能系统只会加剧、放大和加速这些缺乏信任的问题,甚至无法理解什么可以被视为现实、真相或证据。”他说。

斯里尼瓦桑表示,他认为白宫和其他官员分享人工智能生成的内容不仅邀请普通人继续发布类似内容,而且还允许政策制定者等拥有信誉和权力的人分享未标记的合成内容。他补充说,鉴于社交媒体平台倾向于“在算法上优先考虑”极端和阴谋性内容,而人工智能生成工具可以轻松创建这些内容,因此我们面临着一系列巨大的挑战。

与移民和海关执法行动、抗议以及与公民互动相关的人工智能生成的视频已经在社交媒体上激增。之后蕾妮·古德当她在车里时被一名 ICE 官员开枪打死后,几段人工智能生成的视频开始流传,视频中显示妇女开车逃离 ICE 官员,要求她们停车。还有许多捏造的视频流传,内容涉及移民突击搜查以及人们与 ICE 官员对峙的视频,这些视频经常对他们大喊大叫或向他们扔食物。

杰里米·卡拉斯科,内容创作者专门从事媒体素养和揭穿病毒式人工智能视频的专家表示,这些视频大部分可能来自“参与农业”账户,或者希望通过生成带有流行关键词和搜索词(如 ICE)的内容来利用点击量。但他也表示,这些视频得到了反对 ICE 和国土安全部的人们的观看,他们可能将其视为“同人小说”,或者参与“一厢情愿的想法”,希望他们看到针对这些组织及其官员的真正阻力。

尽管如此,卡拉斯科还认为,大多数观众无法辨别他们正在观看的内容是否是假的,并质疑当事情真正重要时,比如当赌注要高得多时,他们是否会知道“什么”是真实的。

即使存在人工智能生成的明显迹象,例如带有乱码的街道标志或其他明显错误,只有在“最好的情况”下,观众才会足够精明或足够重视来记录人工智能的使用。

当然,这个问题不仅限于有关移民执法和抗议的新闻。被废黜的委内瑞拉领导人被捕后捏造和歪曲的图像尼古拉斯·马杜罗本月初在网上爆发。包括卡拉斯科在内的专家认为,人工智能生成的政治内容的传播只会变得更加普遍。

卡拉斯科认为,水印系统的广泛实施可能是迈向解决方案的一步,该系统将有关媒体来源的信息嵌入其元数据层。内容来源和真实性联盟已经开发了这样一个系统,但卡拉斯科认为该系统至少在一年内不会被广泛采用。

“这将永远成为一个问题,”他说。我认为人们不明白这有多糟糕。”

__

美联社撰稿人乔纳森·库珀 (Jonathan J. Cooper) 凤凰城和芭芭拉·奥尔图泰 (Barbara Ortutay) 为本报告做出了贡献。

关于《专家表示,特朗普对人工智能图像的使用突破了新的界限,进一步削弱了公众的信任》的评论

暂无评论

发表评论

摘要

特朗普政府一直在白宫官方频道上使用人工智能生成的图像,引发了人们对真实内容和虚假内容之间界限模糊的担忧。最近,一张经过编辑的图片显示,民权律师内基玛·利维·阿姆斯特朗在被捕后哭泣,引起了错误信息专家的警惕,他们担心这种做法会削弱公众对真相的信任。使用经过修改的图像被视为吸引特朗普在线基础的一种策略,但也有可能损害政府信息的可信度。批评者认为,人工智能编辑内容的激增可能会加剧对官方消息来源的不信任,并放大社交媒体上的阴谋论,使区分真实事件和捏造事件的努力变得更加复杂。