作者:By Loreben Tuquero | Politifact
新罕布什尔州选民接到一个人工生成的声音与总统乔·拜登的声音相似的机器人电话几天后,联邦通信委员会禁止在机器人电话中使用人工智能生成的声音。
这是一个爆发点。2024 年的美国大选将是第一次在公众广泛使用人工智能生成器的情况下进行,人工智能生成器让人们可以创建图像、音频和视频,其中一些是用于邪恶目的。
各机构纷纷限制人工智能引发的不当行为。
十六个州针对人工智能在选举和竞选活动中的使用颁布了立法;其中许多州要求在临近选举的合成媒体上发布免责声明。支持选举管理人员的联邦机构选举援助委员会发布了一个“人工智能工具包”,其中包含选举官员可以用来在捏造信息时代传达选举信息的提示。各州发布了自己的页面来帮助选民识别人工智能生成的内容。
专家 警告关于人工智能有可能制造出深度伪造品,使候选人看起来像是在说或做一些他们没有说过或做的事情。专家表示,人工智能的影响力可能会在国内伤害美国——误导选民,影响他们的决策或阻止他们投票——在国外,让外国对手受益。
但人工智能驱动的错误信息的预期雪崩从未成为现实。随着选举日的到来和过去,病毒式错误信息扮演了主角,误导了有关计票、邮寄选票和投票机的信息。然而,这种欺骗很大程度上依赖于旧的、熟悉的技术,包括基于文本的社交媒体声明和视频或断章取义的图像。
“事实证明,生成式人工智能的使用并没有必要误导选民,”纽约大学斯特恩商业与人权中心副主任保罗·巴雷特 (Paul Barrett) 表示。– 这不是“人工智能选举”。 –
普渡大学技术政策助理教授丹尼尔·希夫表示,不存在“最后一刻的大规模竞选活动”,在投票地点上误导选民并影响投票率。“这种错误信息的范围较小,至少不太可能成为总统选举的决定性因素,”他说。
专家表示,人工智能生成的最受关注的主张支持了现有的叙述,而不是捏造新的主张来愚弄人们。例如,前总统唐纳德·特朗普和他的副总统竞选搭档 JD·万斯错误地声称 海地人在斯普林菲尔德吃宠物,俄亥俄州,人工智能图像描述虐待动物的表情包充斥着互联网。
与此同时,技术和公共政策专家表示,保障措施和立法最大限度地减少了人工智能产生有害政治言论的可能性。
希夫表示,人工智能对选举的潜在危害激发了“紧急能量”,专注于寻找解决方案。
“我相信公共倡导者、政府行为者、研究人员和公众的大力关注确实很重要,”希夫说。
元拥有 Facebook、Instagram 和 Threads 的公司要求广告商披露任何有关政治或社会问题的广告中人工智能的使用情况。TikTok应用了一种机制来自动标记一些人工智能生成的内容。ChatGPT 和 DALL-E 背后的 OpenAI 公司禁止将其服务用于政治竞选,并阻止用户生成真人图像。
布法罗大学计算机科学与工程教授、数字媒体取证专家吕思伟表示,人工智能影响选举的力量也在减弱,因为还有其他方法可以获得这种影响力。
“在这次选举中,人工智能的影响可能显得微弱,因为传统形式仍然更有效,而且在 Instagram 等基于社交网络的平台上,拥有大量粉丝的账户较少使用人工智能,”助理教授 Herbert Chang 说达特茅斯学院定量社会科学博士。Chang 与人共同撰写了一项研究,发现人工智能生成的图像“比传统模因产生的病毒式传播要少”,但用人工智能创建的模因也能产生病毒式传播。
拥有大量追随者的名人无需人工智能生成的媒体即可轻松传播信息。例如,特朗普在演讲、媒体采访和社交媒体上多次错误地表示,非法移民正在受到迫害。带入美国投票尽管非公民投票的情况极为罕见,而且在联邦选举中投票需要公民身份。民意调查显示,特朗普的一再主张得到了回报:10 月份超过一半的美国人表示,他们担心非公民在 2024 年大选中投票。
PolitiFact 的事实核查和有关选举相关错误信息的故事挑选出了一些使用人工智能的图像和视频,但许多病毒式媒体都是专家所说的“廉价假货”——具有欺骗性的真实内容没有AI编辑。
在其他情况下,政客们则翻转剧本——指责或贬低人工智能,而不是使用它。例如,特朗普错误地声称林肯计划发布的他失态的蒙太奇是人工智能生成的,他还说哈里斯支持者的人群是人工智能生成的。美国有线电视新闻网 (CNN) 发表报道称,北卡罗来纳州副州长马克·罗宾逊在色情论坛上发表攻击性评论后,罗宾逊声称这是人工智能。一位专家告诉北卡罗来纳州格林斯博罗的 WFMY-TV,罗宾逊声称的事情“几乎不可能”。
当局发现,一名新奥尔良街头魔术师在一月份制作了假拜登自动电话,其中可以听到总统劝阻人们在新罕布什尔州初选投票。魔术师表示,他只花了 20 分钟和 1 美元就制作出了这个假音频。
聘请魔术师拨打电话的政治顾问面临 600 万美元罚款和 13 项重罪指控。
这是一个引人注目的时刻,部分原因是它没有重复。
在选举日之前的几周内,人工智能并没有推动两种主要错误信息的传播——捏造的吃宠物的说法和谎言哈佛大学肯尼迪学院公共政策兼职讲师布鲁斯·施奈尔表示,关于联邦紧急事务管理局在飓风米尔顿和海伦之后的救援工作。
“我们确实目睹了使用深度伪造技术似乎非常有效地激起了党派敌意,帮助确立或巩固了对候选人的某些误导性或错误看法,”丹尼尔·希夫说。
他与普渡大学政治学助理教授凯琳·希夫(Kaylyn Schiff)和普渡大学博士生克里斯蒂娜·沃克(Christina Walker)合作创建了一个政治深度假货数据库。
数据显示,大多数深度造假事件都是出于讽刺目的。其背后是旨在损害某人声誉的深度造假。第三个最常见的深度伪造是为了娱乐而创建的。
丹尼尔·希夫说,批评或误导人们对候选人的深度造假是“美国传统政治叙事的延伸”,比如将哈里斯描绘成共产主义者或小丑,或者将特朗普描绘成法西斯或罪犯。张同意丹尼尔·希夫的观点,认为生成式人工智能“加剧了现有的政治分歧,不一定是为了误导,而是通过夸张的方式”。
研究人员在 2023 年警告称,人工智能可以帮助外国对手更快、更便宜地实施影响行动。外国恶意影响中心(该中心负责评估针对美国的外国影响力活动)在 9 月底表示,人工智能并未“彻底改变”这些努力。
该中心表示,为了威胁美国大选,外国行为者必须克服人工智能工具的限制、逃避检测并“有策略地瞄准和传播此类内容”。
情报机构(包括国家情报总监办公室、联邦调查局以及网络安全和基础设施安全局)标记了外国影响力行动,但这些行动更多地在舞台视频中雇用演员。一段视频显示,一名女子声称哈里斯在一场肇事逃逸的车祸中撞伤了她。该视频的叙述“完全是捏造的”,但不是人工智能。分析人士将这段视频与一个名为 Storm-1516 的俄罗斯网络联系起来,该网络在视频中使用了类似的策略,试图破坏宾夕法尼亚州和佐治亚州的选举信任。
社交媒体和人工智能平台试图通过在声明中添加水印、标签和事实核查来加大使用其工具传播有害政治内容的难度。
Meta AI 和 OpenAI 均表示,他们的工具拒绝了数十万个生成特朗普、拜登、哈里斯、万斯和民主党副总统候选人明尼苏达州州长蒂姆·沃尔兹的人工智能图像的请求。在 12 月 3 日发布的关于 2024 年全球选举的报告中,Meta 全球事务总裁尼克·克莱格 (Nick Clegg) 表示:“与选举、政治和社会话题相关的人工智能内容的评分仅占所有经过事实核查的内容的不到 1%错误信息。 –
尽管如此,还是有一些缺点。
《华盛顿邮报》发现,在出现提示时,ChatGPT 仍然会撰写针对特定选民的竞选信息。PolitiFact 还发现,Meta AI 可以轻松生成可以支持海地人吃宠物的说法的图像。
Daniel Schiff 表示,随着人工智能技术的进步,这些平台还有很长的路要走。但至少到 2024 年,他们采取的预防措施和各州的立法努力似乎已经取得了成效。
“我认为深度造假检测、提高公众意识以及直接禁令等策略都很重要,”希夫说。