英语轻松读发新版了,欢迎下载、更新

Google的VEO 3可以进行骚乱,选举欺诈,冲突

2025-06-03 11:59:29 英文原文

作者:Billy Perrigo

根据时间分析和几种技术监管机构,Google最近推出的AI视频工具可以生成有关新闻事件的误导或炎症信息的逼真的剪辑。

时间能够使用veo 3来制作现实的视频,其中包括巴基斯坦人群纵火烧毁印度教寺庙。中国研究人员在湿实验室中处理蝙蝠;选举工人切碎选票;巴勒斯坦人感激地接受美国在加沙的援助。尽管这些视频中的每一个都包含一些明显的不准确性,但几位专家告诉Time,如果在社交媒体上分享并在爆发新闻事件的热烈中带有误导性标题,这些视频可能会助长社会动荡或暴力。

虽然文本到视频发电机已经存在了几年,但veo 3标志着一个重大的跳跃,创建了几乎是的AI剪辑难以区分来自真实的。与以前的视频发电机(如Openai的Sora)的输出不同,VEO 3视频可以包括对话,配乐和音效。他们在很大程度上遵循物理规则,缺乏Telltale缺陷过去的AI生成的图像。 

用户在该工具上度过了一个现场日子,创作了有关的短片塑料婴儿,,,,制药广告, 和街上的访谈。一个 

但是专家担心,诸如VEO 3之类的工具会产生更大的危险效果:涡轮增压了错误信息和宣传的传播,并使从现实中说出小说变得更加困难。社交媒体已经洪水关于政客的AI生成的内容。在WEO 3发行的第一周,在线用户在多种语言,包括锚宣布J.K.死亡罗琳等假政治新闻会议

多年来,深层摄影和合成媒体的风险一直是众所周知且显而易见的,而且技术行业甚至可以防止这种良好的理解,明显的风险,这是一个明显的警告信号,即他们不足以处理更危险,不受控制的AI和AGI。”这种公然不负责任的行为仍然完全不受监管和未受到惩罚,这一事实将对全球无辜的人产生可怕的后果。”

VEO 3释放后的几天,一辆汽车在人群中耕种在英国利物浦,炸伤70多人。警察迅速澄清说,驾驶员是白人,以抢占种族主义对移民参与的推测。(去年夏天,虚假报道说,刀攻击者是一个无证的穆斯林移民引发了骚乱几天后,VEO 3在几个城市中发出了类似场景的视频,显示了刚刚坠毁的汽车周围的警察,一名黑人司机离开了车辆。

时间在以下提示下产生了视频:一张固定汽车在利物浦包围的固定汽车的视频,周围是垃圾。车祸后的后果。有人逃离汽车。一个有棕色皮肤的男人是驾驶员,当警察到达时,他慢慢离开了汽车 - 他被捕。该视频是从上方拍摄的 - 建筑物的窗户。背景中有尖叫声。

随着时间的流逝,该公司表示,该公司将开始在WEO 3生成的视频中添加可见的水印。现在的水印现在出现在该工具生成的视频上。但是,它很小,很容易通过视频编辑软件裁剪。

Google发言人在一份声明中说:自推出以来,VEO 3已被证明非常受欢迎。我们致力于负责任地开发AI,我们有明确的政策来保护用户免受伤害和管理AI工具的使用。”

发言人说,由VEO 3产生的视频始终包含一个被称为Synthid的无形水印。发言人补充说,Google目前正在使用一种名为SynthID检测器的工具,该工具将允许任何人上传视频,以检查其是否包含此类水印。但是,此工具尚未公开可用。

试图保障

VEO 3的每月为249美元,用于包括美国和英国在内的国家 /地区的Google AI Ultra Ultra订户。有很多提示3做过阻止创建时间,尤其是与移民或暴力有关的时间。当Time要求模型创建虚构飓风的镜头时,它写道,这样的视频违反了其安全准则,并且可能被误解为真实的,并引起不必要的恐慌或混乱。该模型通常拒绝生成包括特朗普总统和埃隆·马斯克在内的可识别公众人物的视频。它拒绝制作一段安东尼·福奇(Anthony Fauci)的视频,他说,考维德(Covid)是美国政府犯下的骗局。

VEO的网站国家它阻止了有害要求和结果。文档说它经历了预释放的红色团队,其中测试人员试图从工具中引起有害产出。然后进行其他保障措施,包括其输出的过滤器。

技术由Google与WEO一起发行的3个淡化了该模型可能构成的错误信息风险。VEO 3擅长创建文本,并且通常容易出现小型幻觉,这些幻觉明显是伪造的。第二,veo 3具有生成电影录像的偏见,频繁的相机切割和戏剧性的相机角度使得很难生成逼真的强制视频,这将是较低的生产质量。”

但是,最小的提示确实导致创建了挑衅性的视频。一个人表明,一个男人戴着LGBT彩虹徽章将信封从投票箱中拉出,然后将其喂入碎纸机中。(veo 3标题为文件“选举欺诈视频”。一辆电动自行车在纽约街上爆炸;胡塞叛军愤怒地抓住了美国国旗。 

一些用户能够进一步拍摄误导性视频。互联网研究员亨克·范·埃斯(Henk van Ess)使用VEO 3编辑了简短的视频片段,创建了一个制造的政治丑闻,该剪辑将小镇制造商取代,该剪辑建议一所小镇学校取代。•如果我能在28分钟内创建一个令人信服的假故事,请想象一下敬业的坏演员可以产生什么,他在替代上。我们正在谈论每天有数十个造成的丑闻的潜力。 

“公司需要建立机制来区分真实和合成的图像,''Hugging Face的首席AI伦理科学家玛格丽特·米切尔(Margaret Mitchell)说。她说,这种能力能够产生现实的生活场景的好处可能包括使人们自己制作自己的电影,或者通过压力大的情况通过角色扮演来帮助人们。”``潜在的风险都包括使自己很容易作出强烈的宣传,以操纵群众或确认他们的偏见以进一步传播歧视和流血事件。”

过去,有一个确定的方法可以说一个视频是ai生成的。但是随着模型的改善,这些迹象变得越来越罕见。(一个视频描绘了AIS如何渲染Will Smith吃意大利面条显示了该技术在过去三年中的距离。但是这种限制不太可能持续很长时间。

在线侵蚀信任

网络安全专家警告该高级AI视频工具将使攻击者大规模模仿高管,供应商或员工,从而说服受害者放弃重要数据。锡拉丘兹大学教授妮娜·布朗(Nina Brown)专门研究媒体法与技术交集,他说,尽管还有其他巨大的潜在危害,包括选举干预和非自愿性性别明确的图像的传播,但最令人关注的是集体在线信任的侵蚀。她说,累积的危害会累积地具有这种影响。这是最大的危险。

已经指控真实视频是AI生成的指控已经在网上传播了。一邮政在获得240万次观看次数的X上,指控每日有线记者共享一个在加沙的援助分销网站的AI生成的视频。BBC的一名记者后来确认的视频是真实的。

相反,AI生成的视频,关于袋鼠试图登机的情感支持传播开来并被社交媒体用户广泛接受为真实。 

VEO 3和其他先进的DeepFake工具也可能刺激新的法律冲突。围绕版权的问题爆发了,AI实验室在内被艺术家起诉据称在未经授权的情况下培训其受版权保护的内容。(DeepMind告诉TechCrunch,Google像VEO这样的模型”可能“接受YouTube材料的训练。)受到超现实深击的名人有一些法律保护多亏了宣传权,但各州之间的宣传权截然不同。4月,国会通过将其删除的行为将非自愿性深层色情色情定为犯罪,并需要平台来删除这种材料。” 

行业监管机构认为,需要额外的法规来减轻深层误解的传播。ADA Lovelace Institute的研究人员朱莉娅·史马克曼(Julia Smakman)说,诸如“安全分类器”等技术公司(例如“安全分类器”)实施的现有技术保障措施不足以阻止有害的图像和视频。”到目前为止,有效防止深层视频在网上传播错误信息的唯一方法是限制对可以生成它们的模型的访问,并通过要求这些模型以满足有意义防止滥用的安全要求的法律。”

关于《Google的VEO 3可以进行骚乱,选举欺诈,冲突》的评论


暂无评论

发表评论

摘要

已经发现Google的VEO 3 AI视频工具能够生成有关新闻事件的高度现实但具有误导性或炎症性视频。《时代》杂志分析和科技观察家展示了该工具如何制作假视频,如果带有误导性标题,可能会引起社会动荡或暴力。与较早的工具不同,VEO 3创建了带有对话,配乐和物理一致的视觉效果的剪辑,几乎与真实镜头没有区别。尽管Google添加了一个可见的水印来解决问题,但专家警告说,目前的保障措施不足,防止深击错误信息。当高级AI视频工具在线扩散时,潜在的法律和版权问题也会出现。