在选举日两个月前,社交媒体上出现了一张歌手埃尔顿·约翰穿着粉红色外套的照片,外套上有“MAGA”的字母,这暗示这位全球巨星曾支持过前任总统唐纳德·特朗普。
但那张照片是假的。它是最近一系列使用人工智能生成的图片和视频之一,旨在让观众相信他们的偶像明星已经为某个政治候选人背书。
包括威尔·史密斯和泰勒·斯威夫特在内的多位明星也被冒用他们的形象,虚假宣称他们支持特朗普参加即将举行的总统选举。
当斯威夫特公开支持副总统卡玛拉·哈里斯在一篇Instagram帖子中,她提及了AI生成的图像她虚假地声称她支持特朗普,补充说这一事件“让我得出结论,作为选民,我需要对自己的实际计划非常透明。”
威尔·史密斯和克里斯·洛克的AI生成的视频积累了在X上超过70万次观看展示了星星们吃满是意大利面的大盘子与特朗普在一起的画面。
如何识别AI生成的图片
克莱尔·利博维茨是非营利技术联盟“人工智能与媒体诚信项目”的负责人,她告诉哥伦比亚广播公司新闻,有三种主要方法可以判断一张图片或视频是否是由AI生成或被篡改的。
利博维茨说,第一种方法是寻找喷枪喷涂、模糊处理或“违背物理定律的东西”。
第二个是要查找任何视觉上的不一致。例如,在埃尔顿·约翰的照片中,他夹克上的MAGA字母被缝在了肩章上,而他的眼镜间距太近。
第三种判断图片是否真实的方法是通过在线反向搜索找到其原始来源。这可以通过截图并将其上传到Google_lens或类似工具来完成,结果会显示是否有匹配项,帮助你验证其来源。
莱博维茨补充说,她之前曾被AI愚弄过当一个伪造的教宗方济各图像在网上走红。
这变得越来越难,我们需要记者和其他专家真正帮助我们验证内容。
由一项调查进行的极化研究实验室三月份发现近50%的美国人认为AI将使选举变得更糟,约30%的人不确定,20%的人认为AI将改善选举过程。
见证组织(Witness.org)的执行董事萨姆·格雷戈里告诉哥伦比亚广播公司新闻:“围绕选举误导我们的大多数信息可能是强大领导者在公众场合说谎或歪曲事实。”
美国国土安全部发布了公告在今年5月警告公众人工智能可能为11月的总统选举带来的挑战,称“具有特定选举内容的人工智能生成媒体的发布时间可能与其内容本身一样关键,因为反驳或揭穿在线传播的虚假内容可能需要时间。”