OC

Knowledge OS
鹦鹉螺口语
事实核查:来自伊朗的假图片如何误导媒体
2026-03-19 08:48:19 · 英文原文

事实核查:来自伊朗的假图片如何误导媒体

作者:Rachel Baig | Björn Kietzmann

操纵或回收的照片和视频 在战争和危机期间经常传播——有时是为了欺骗,有时只是为了产生点击。

在正在进行的过程中 美国-以色列与伊朗的战争,问题又到了一个新的高度。图片机构本身收到了经过处理或伪造的图像,然后这些图像最终出现在欧洲各地的新闻编辑室中。 

一些图像似乎是由人工智能生成的,而另一些则是由人类进行数字化修改的。这是这个故事,我们学到了什么,以及如何识别 人工智能假货。 

的 SalamPix 传奇 

三月初, 荷兰媒体报道那个 ANP (该国最大的通讯社荷兰通讯社 (Algemeen Nederlands Persbureau) 在怀疑其中一些照片被人工智能操纵后,从其数据库中删除了大约 1,000 张与伊朗有关的照片。 

两天后,媒体网络荷兰分部 劳教所报告其新闻服务 RTL Nieuws 不知不觉地在其网站和应用程序中使用了其中三张图像。ANP 提醒 RTL 这些照片是人工智能生成的,RTL 删除了这些照片,并发布了详细解释,说明哪些图像被删除以及原因。 

UGC screenstill of a Dutch news report about the article exposing SalamPix
当 RTL 得知其使用的照片是人工智能生成的时,它删除了这些照片并发布了一份解释,说明哪些图像已被删除以及原因图片:rtl

不久之后,杰姆每周新闻杂志明镜周刊承认它也有 使用人工智能处理的图像在意识到它是假的之前就在报道中。�  在这两种情况下,信誉良好的新闻机构都提供了图像。

RTL 通过 ANP 收到它们,同时明镜周刊通过德新社图片联盟获得它们, ddp 和 Imago Images,所有这些材料均来自法国机构 Abaca Press。

这些图像是 最终追溯到伊朗机构 SalamPix。根据明镜周刊,SalamPix 将这些照片提供给 Abaca Press,然后该出版社将它们分发到多个国际机构的数据库,并最终分发到新闻编辑室。 

通讯社通常从世界各地收集媒体内容,包括图片,然后将信息出售和分发给报纸、电视和广播电台,而报纸、电视和广播电台又将其用作自己报道的一部分。

为了回应人工智能处理图像的曝光,许多摄影机构已经封锁 SalamPix 或发布了所谓的“删除通知”,指示与其合作的媒体客户从出版物中删除 SalamPix 图像。

摄影机构是如何被愚弄的�  

在德国,“代理特权”是�  这是一个法律概念,通常允许媒体机构依赖与其合作的新闻机构提供的经过验证的文本、图像和视频材料的真实性。即使是像德国之声 (DW) 这样的全球广播公司也经常依赖外部机构来报道全球事件。 但随着人工智能生成和操纵的内容变得更加复杂和丰富,区分真实图像和捏造图像变得越来越困难。

挑战不仅是技术方面的,而且是后勤方面的。快速移动时突发新闻在这种情况下,记者和机构必须高速筛选大量视觉资料自 2026 年初以来,DW 平均收到 1每天有 40,000 张来自机构的图片。 �  

透明度是我们的最高优先事项之一。每当我们展示人工智能生成的内容时,它都必须清晰无误地可识别,”德国之声编辑部首席马蒂亚斯·斯塔姆解释道。“如果我们犯了错误——就像使用来自 SalamPix 机构的图像一样——我们会承认错误并保持透明。” 

使用的示例和 由 DW 识别 

之后 第一�  报告 关于 萨拉姆图片,德国之声审查了自己的报道,发现它也使用了 它的�  图像。德国之声随后从其出版物中删除了所有 SalamPix 图片,并 发出更正声明在每条更改的文章下 解释更改的内容。 这张二月份的图像据称显示了导弹袭击德黑兰的后果,实际上是人工智能生成的图片:SalamPix/ABACA

An image allegedly showing the aftermath of a missile impact in Tehran from February is actually AI-generated. Red circles indicate nine AI glitches in the image.
一个例子是 看似真实的街景,描绘了德黑兰据称的导弹袭击,前景是黄色汽车(可能是出租车),背景是建筑物,后面升起烟雾。该图片于 2026 年通过各机构分享。 

然而,经过仔细观察,有几个明显的地方人工智能故障

变得显而易见。 当你放大时,很明显文本是乱码——这是典型的人工智能故障图片:SalamPix/ABACA

Detail of an AI-generated image which shows a typical AI glitch, namely text that is gibberish.
最值得注意的是,墙上和汽车上的文字看起来像文字——除非更仔细地检查。放大后,它显然不像波斯语或阿拉伯语文字。

事实上,它根本不是任何语言,而是无意义的伪文本,这是人工智能生成图像中的常见故障。�  另一个典型的人工智能故障是,通常是直的表面,如墙壁和窗户,看起来像气泡一样凸出,如下所示

Detail of an AI-generated image which shoes how straight surfaces like walls and windows seem to bulge out like a bubble.
图片:SalamPix/ABACA人工智能生成的图像中的另一个典型错误是存在不符合逻辑的形状奇怪的建筑物和物体。

在这种情况下,我们还发现了一个奇怪的形状车窗以及建筑物凸出的墙壁和窗户 在黄色汽车上方 图片的中心。 

Detail of a picture showing vehicles that contain illogical details.
放大汽车和公共汽车也能揭示问题,因为人工智能系统经常生产出不存在的车辆或包含不切实际、不合逻辑的细节图片:SalamPix/ABACA

如果放大左下角的汽车和公共汽车 图像, 你会还可以看到它们的形状很奇怪,并且与任何现有模型都不对应。

AI-generated image distributed by SalamPix showing security forces shooting at protesters.
一月份流传的另一张照片据称显示安全部队向抗议者开枪;由 SalamPix 发布,它也被证明是 AI 生成的图片:SalamPix/ABACA

这是另一个例子AI 生成的图像。它 描绘了一名身穿黑衣的男子,手里拿着武器。标题为:“德黑兰武装伊朗安全部队在 2026 年 1 月 8 日的示威活动中开枪镇压抗议者。” 

Detail of an AI-generated image showing glitches in someone's shoes.
如果放大男人的脚,你会发现两者不仅大小不同,形状也不同。图片:SalamPix/ABACA

我们再次看到人工智能�  故障: 这两双鞋不't 匹配;这个人 似乎有两只完全不同的脚和鞋子。人的影子(尤其是右手,枪上方)与实际身体部位不符。

Detail of an AI-generated image of a man with a gun in his hand. The image is fake.
仔细观察右手:拇指和手指之间似乎少了一块图片:SalamPix/ABACA

同一只手在解剖学上也显得不正确,拇指和手指之间似乎缺少一块。 

DW事实检查也浏览了 SalamPix 提供的旧图像,例如 南德意志报德国最大的之一 日报发现发布的图片存在违规行为。 

DW 分析的一张图像是文章顶部的图像据称,该视频展示了 2022 年 11 月在马哈巴德市举行的反对伊朗政权的抗议活动中,伊朗抗议者与安全部队发生冲突。 

图像显示 当时典型的人工智能错误是:图像中几个人的手,特别是手指变形或看起来像木头做的。左侧建筑物的窗户没有以相同的角度对齐。图像最右边的人的脸是扭曲的。

如何发现人工智能生成或操纵的图像�  

随着人工智能工具的改进,虚构的视觉效果与真实的视觉效果越来越难以区分。这意味着日常用户和专业记者都有被误导的风险——就像本例一样 演示。 

包括德国之声在内的媒体组织正在大力投资培训员工来检测和揭穿人工智能操纵行为。 水深's事实核查团队还制作 媒介素养内容帮助观众了解如何识别误导性图像和视频。�  编辑:托马斯·斯帕罗、乔沙·韦伯、克里斯蒂娜·布拉克

Edited by: Thomas Sparrow, Joscha Weber, Cristina Burack

关于《事实核查:来自伊朗的假图片如何误导媒体》的评论

暂无评论

发表评论

摘要

在美以与伊朗冲突期间,经过处理或伪造的照片广泛传播,当欧洲新闻机构获得伊朗机构 SalamPix 提供的人工智能生成的图像时,这些照片达到了新的水平。这些图像通过信誉良好的图片机构分发,并被 RTL Nieuws 和 Der Spiegel 等主要媒体使用,然后被识别为人工智能伪造品。新闻机构现在正在发布删除通知,以阻止这些图像的传播,突显出由于先进的人工智能功能,区分真实内容和捏造内容面临着越来越大的挑战。媒体组织正在加强对员工的培训并制作教育内容,以帮助识别被操纵的视觉效果。