OC

Knowledge OS
鹦鹉螺口语
人工智能级联关于与伊朗战争的虚假信息在网上造成混乱
2026-03-14 02:06:38 · 英文原文

人工智能级联关于与伊朗战争的虚假信息在网上造成混乱

人工智能。人工智能。

在伊朗战争的头几周,由人工智能生成的大量虚假视频和图像席卷了社交网络。

这些视频——显示了从未发生过的巨大爆炸、从未遭到袭击的被摧毁的城市街道或根本不存在的抗议战争的军队——给网上的冲突增添了一层混乱和混乱的色彩。

《纽约时报》确定了过去两周内超过 110 个由人工智能生成的有关中东战争的独特图像和视频。

这些假货涵盖了战斗的方方面面:他们错误地描绘了特拉维夫发生爆炸时尖叫的以色列人瑟瑟发抖、伊朗人哀悼死者以及美国军舰受到导弹和鱼雷的轰炸。

总的来说,它们通过 X、TikTok 和 Facebook 等网络在网上被看到了数百万次,并且在该地区和世界各地流行的私人消息应用程序中被看到了无数次。

《泰晤士报》确定了 A.I.通过检查明显的迹象(例如不存在的建筑物的描述、乱码的文本以及违背预期的行为或动作)以及文件中嵌入的不可见水印来识别内容。这些帖子还经过了多个人工智能的检查。检测工具并与新闻机构的报道进行比较。

复杂的人工智能新浪潮工具使造假成为可能,几乎任何人都可以创建逼真的战争模拟,并且可以以很少甚至免费的成本欺骗肉眼。类似的内容也在其他冲突中传播,包括乌克兰和俄罗斯之间的战争。但专家表示,这场战争有多条战线,自美国和以色列首次袭击伊朗以来,这导致了虚假内容的扩散。

“即使与乌克兰战争爆发时相比,现在的情况也大不相同,”卡塔尔西北大学媒体分析副教授马克·欧文·琼斯说。“我们现在看到的人工智能相关内容可能比以往任何时候都多。”

总体而言,A.I.包括假货…

37虚假描述战争的虚假图像和视频

5虚假描述战争准备的虚假图像和视频

8虚假描述破坏的虚假图像和视频

5虚假图像和视频错误地描绘了哭泣的士兵

43迷因和人工智能的公开使用人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。

13

其他虚假图像和视频人工智能人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。人工智能。

这些内容已成为德黑兰的有力信息武器,因为它试图通过描绘整个地区的破坏和破坏场景来动摇公众对战争的容忍度。

大多数 A.I.

据一位人士称,有关战争的视频宣扬亲伊朗观点,往往是为了错误地展示其军事优势和复杂性。

在线活动研究

由社交媒体情报公司 Cyabra 提供。

– 人工智能的使用

琼斯先生说,海湾地区被烧毁或损坏的场景在伊朗的剧本中变得更加重要,因为这让他们产生这样一种感觉:这场战争比实际情况更具破坏性,对美国盟友来说可能付出的代价也更大。

在网上流传最广的假视频之一中,一个摇摇欲坠的手持场景似乎是从特拉维夫的一个公寓阳台拍摄的,显示天际线被导弹轰炸,前景是一面以色列国旗。

根据《泰晤士报》对社交媒体活动的审查,该视频在各个平台上被观看了数百万次,并被社交媒体影响者和边缘新闻网站转载。

专家表示,前景中的以色列国旗是该视频是人工智能生成的一个明显迹象。

为了生成此类视频,使用人工智能的创作者

工具通常会编写简单的文本指令,描述例如以色列导弹袭击的不稳定手持视频。

人工智能

然后,工具通常会包括以色列国旗或大卫之星来满足这样的要求。

其他几个人工智能

视频包括旗帜。

网上也有大量战争的真实镜头被分享,手机和社交平台可以实时查看冲突情况。

其中许多图像和视频比人工智能制作的场景更加柔和。

工具。

导弹袭击的真实镜头通常是从远处拍摄的,通常是在夜间,导弹在远处的可见度只不过是明亮的灯光。

真实视频中的爆炸通常表现为烟雾,而不是火球,只有在弹药击中目标后,旁观者才会赶来拍摄场景。

一些人工智能

相比之下,视频和图像将战争错误地描绘成一部夸张的好莱坞动作片,巨大的爆炸产生了蘑菇云,音爆席卷了无名的城市,所谓的高超音速导弹在天空中留下了发光的条纹。

真实镜头是

有时通过人工智能增强。

工具

让爆炸看起来更大、更具破坏性,进一步模糊真假之间的界限。人工智能

专家表示,视频实质上创造了一种更适合社交媒体的替代现实,夸张的视频更有可能找到观众。

在一个例子中,A.I.

假货在网上和政府之间关于美国命运的辩论中发挥了巨大作用。

亚伯拉罕·林肯号航空母舰部署到该地区。

伊朗伊斯兰革命卫队海军最初于 3 月 1 日表示,他们已经成功袭击了这艘船,并可能将其击沉。

这导致了大量人工智能生成的假货描绘了这艘船或类似的船只着火的情况。

伊朗用户在网上庆祝这段视频,认为这是伊朗的反攻正在扰乱美以联盟的证据。

美国后来表示,袭击没有成功,该船没有受伤。人工智能。

数十个其他人工智能

图像和视频并没有试图掩盖它们是假的,而是作为一种新的数字宣传形式,将通常由政府或其宣传部门提出的政治论点变为现实。

其中包括将世界领导人奉承为有权有势的人,或者对反对派领导人进行非人性的描述。

据一份明显虚构的视频合集提供了 Shajarah Tayyebeh 小学的景象,该小学在 2 月 28 日的一次明显错误的导弹袭击中被美国摧毁。初步询问

据伊朗官员称,至少 175 人死亡,其中大多数是儿童。

人工智能生成的视频像短片一样展开,显示女学生在美国战斗机发射导弹之前在外面玩耍。

社交媒体公司有

在对抗人工智能的祸害方面几乎没有采取任何措施。视频

去年,他们的平台不堪重负

OpenAI 发布 Sora,一款视频生成应用程序,任何人都可以通过一个简单的应用程序创建逼真的假货。(纽约时报

被起诉

OpenAI 和微软于 2023 年指控其侵犯与人工智能相关的新闻内容的版权。

系统。

两家公司均否认了这些说法。)

尽管许多人工智能生成的视频

工具可以包括可见和不可见的水印,将它们标记为假冒的,这些水印很容易删除或模糊。《泰晤士报》确认的视频中只有少数包含此类水印。埃隆·马斯克 (Elon Musk) 的 X 对其平台上的错误信息采取了广泛宽容的态度,该公司上周宣布,如果帐户发布人工智能生成的“武装冲突”内容而不加标签,它将暂停 90 天从该平台获得收入,以阻止用户从虚假信息中获利。

但 Cyabra 发现的许多与伊朗相关的账户似乎更注重传播信息,而不是赚钱。

布鲁金斯学会外交政策和人工智能研究研究员瓦莱丽·维特沙夫特 (Valerie Wirtschafter) 表示,“这是伊朗尝试和利用的自然前沿,感觉这就是它如此庞大的原因之一。”“它实际上是一种战争工具。” that overwhelmed their platforms last year after OpenAI released Sora, a video-generating app that allowed anyone to create realistic fakes through a simple app. (The New York Times sued OpenAI and Microsoft in 2023, accusing them of copyright infringement of news content related to A.I. systems. The two companies have denied those claims.)

Though videos generated by many A.I. tools can include both visible and invisible watermarks labeling them as fake, those are easy to remove or obscure. Only a few of the videos identified by The Times contained such watermarks.

Elon Musk’s X, which has taken a broadly permissive approach to allowing misinformation on its platform, announced last week that it would suspend accounts from receiving revenue from the platform for 90 days if they posted A.I.-generated content of “armed conflict” without labeling it as such, in a bid to stop users from profiting off the falsehoods.

But many of the Iranian-linked accounts identified by Cyabra appeared far more focused on spreading its messages than making money.

“This is a natural front for Iran to try and exploit and it feels like this is one of the reasons it is so voluminous,” said Valerie Wirtschafter, a fellow at the Brookings Institution studying foreign policy and A.I. “It’s actually a tool of war.”

关于《人工智能级联关于与伊朗战争的虚假信息在网上造成混乱》的评论

暂无评论

发表评论

摘要

伊朗战争期间,人工智能生成的大量虚假视频和图像描绘了爆炸、被毁的城市街道和抗议军队等虚假事件,席卷了社交网络,给网上冲突增添了混乱。《纽约时报》发现了 110 多个独特的人工智能生成的图像和视频,这些图像和视频在 X、TikTok 和 Facebook 等平台上被观看了数百万次。这些假货的范围从描绘以色列人陷入困境、伊朗人哀悼到美国军舰遭到袭击。专家指出,新一波的人工智能工具使几乎任何人都可以创建逼真的战争模拟,其中亲伊朗的观点最为常见。人工智能内容已成为伊朗强大的信息武器,旨在展示破坏场景并描绘伊朗的军事优势。然而,社交媒体公司在打击此类内容的传播方面几乎没有采取任何措施。