OC

Knowledge OS
鹦鹉螺口语
人工智能生成的虚假伊朗战争图像和视频正在社交媒体上传播 |美国有线电视新闻网政治
2026-03-11 06:00:34 · 英文原文

人工智能生成的虚假伊朗战争图像和视频正在社交媒体上传播 |美国有线电视新闻网政治

作者:Daniel Dale

2022 年俄罗斯入侵乌克兰后,社交媒体上充斥着粗制滥造的假货这些都是作为战争的新鲜图像呈现的,但要么是经过修图的骗子或从视频游戏、电影、过去的事件和不相关的新闻报道中截取的标签错误的剪辑。

那些老式的假货 现在再次蔓延在对伊朗的战争期间。这一次,他们加入了一种在 2022 年不容易出现的欺骗形式:使用易于使用的人工智能工具定制创建的高质量视频和静态图像。

十年前曾说过汉尼·法里德加州大学伯克利分校的数字取证学教授,“那里可能存在一两个假东西;”他们很快就会被揭穿。……现在你看到了数百个,而且它们真的很现实。”法里德补充道:“这不仅是现实的,而且是在着陆——它是硬着陆。人们相信这一点,并且正在放大它。”

An image from an AI-generated video that shows a fictional barrage of missiles landing in Tel Aviv, Israel.

“过去一年左右发生的变化是,生成式人工智能变得更加容易获得,”BBC Verify 高级记者说道沙扬·萨达里扎德是与战争相关的假货的著名揭穿者,现在可以制作非常可信的视频和图像,以显示未经训练的人或肉眼很难发现的重大战争事件。

自伊朗战争爆发以来的近两周内,萨达里扎德等专家认定为人工智能创建的虚假视频和图像在社交媒体平台上获得了数千万次观看。

一段假视频展示了虚构的伊朗导弹袭击以色列特拉维夫的场景。一个第二个假视频描绘了惊慌失措的人们逃离所谓的伊朗对特拉维夫机场的袭击。一个第三个假视频据称显示被俘的美国特种部队人员被伊朗军队持枪扣押。

另一个假视频声称展示了伊朗军事设施被炸毁的安全摄像机镜头片段;三个剪辑似乎是人工智能,虽然一个是真实的,但来自去年。然而另一个假视频描绘了一支假想的美军车队在伊朗地面上的情况。又一个假的看起来像是一架被击落的美国飞机在德黑兰游行的镜头。

A screengrab from an AI generated video shows a fake scene in an airport.

与此同时,看似由人工智能创建的虚假静态图像声称描绘了一个美军在伊拉克的军事基地美国驻沙特阿拉伯大使馆伊朗袭击后燃烧;伊朗最高领袖阿里·哈梅内伊躺在瓦砾下死了;和伊朗民众哀悼遇难平民。一份与伊朗政府有联系的出版物甚至发布了假卫星图像据称显示美国驻巴林军事基地遭到破坏。

这只是流通中的伊朗相关假货的一小部分。

尽管日常揭穿努力从萨达里扎德这样的人那里,新的假货出现的速度远远快于被打击的速度。它们通常非常栩栩如生,以至于滚动浏览其动态的普通人无法很快发现它们是假的。

一些已经广泛传播的假货支持伊朗的社交媒体账户将其作为宣传。然而,制造许多假货背后的动机很难确定——也许是社交媒体的观点以及它们有时会带来的影响力和金钱,也许只是因为人们能够轻松地制造它们。

日益复杂的诡计正被抛入一个艰难的环境中来探寻真相。党派两极分化、媒体碎片化和社交媒体算法的兴起意味着许多美国人倾向于主要看到志趣相投的人分享的材料。法里德指出,社交媒体公司已经转身 离开来自对其平台上内容的积极审核。

——内容更现实,体量更高,渗透更深——这是我们新的现实。而且真的很乱,”法里德说。

社交媒体平台 X 上周确实宣布,它正在采取一些行动来打击战时人工智能造假行为。产品主管尼基塔·比尔发布如果用户X 作为内容创作者获得报酬Ø 传播人工智能生成的武装冲突视频,但未披露该视频是用人工智能制作的,将被暂停90天的支付计划,如果再犯其他违规行为,将被永久暂停。

即使这项政策得到严格执行(法里德表示他对此表示怀疑),绝大多数 X 用户也不是创作者付费计划的一部分。(其他用户的帖子仍然需要接受众包的“社区注释”事实检查,但这有一个不稳定的记录.)社交媒体公司 TikTok 和拥有 Facebook 和 Instagram 的 Meta 没有回应 CNN 就与战争有关的假货传播发表评论的请求。

萨达里扎德有注意到几个月来,X 自己的人工智能聊天机器人 Grok 在某些情况下主动让问题变得更糟——错误地告诉寻求事实核查的用户,大量人工智能创建的图像和视频,包括一些描绘伊朗战争,都是真实的。

公平地说,现在很难辨别真假。法里德表示,人工智能创作质量的快速提高意味着几个月前关于如何识别人工智能造假的技巧在今天已经不再有用。例如,检查图像中的人是否有多余的手指或错位的四肢曾经很有帮助;当前人工智能内容中所代表的人类往往不会犯这些类型的滑稽错误。

法里德说,保持准确信息的最佳方法是选择从可信的新闻媒体获取新闻,而不是滚动浏览社交媒体上“随机帐户”的帖子。“在全球冲突时刻,”他说,“这不是获取信息的地方。”

对于我们这些无法避免频繁滚动的人来说,明智的做法是在相信或分享耸人听闻的战时视频或图像之前先花上几秒钟进行在线搜索。

是否有任何不对劲的地方——音频与视频不同步,视觉特征与现实世界不相符?人工智能正在变得越来越好,但它仍然不完美。(一些人工智能作品仍然带有水印,可以识别制作它们的软件。)

像 Sardarizadeh 这样的知名揭秘者、事实核查媒体或主题专家是否已经讨论过视频或图像的真实性?(如果它是假的,一些专业人士经常会在它到达您的提要之前指出这一点。)

是否有人对帖子或 X 社区笔记的回复表示怀疑?(普通用户可以欺骗,但他们也可以提出好问题。)

免费的人工智能检测工具怎么说?(他们是远非完美,但它们有时也能提供帮助。)

萨达里扎德说,我们应该“训练我们的眼睛”,以尽可能最好地识别人工智能材料。但他也表示,“检测人工智能生成的内容变得极其困难,而且趋势似乎正朝着变得更加困难的方向发展。”

关于《人工智能生成的虚假伊朗战争图像和视频正在社交媒体上传播 |美国有线电视新闻网政治》的评论

暂无评论

发表评论