研究发现人工智能聊天机器人利用不准确的信息改变人们的政治观点

2025-12-04 19:00:34 英文原文

作者:By David Ingram

据介绍,人工智能聊天机器人非常擅长改变人们的政治观点周四发表的一项研究,并且当他们使用不准确的信息时特别有说服力。

研究人员利用众包网站找到了近 77,000 人参与这项研究,并付费让他们与各种 AI 聊天机器人进行交互,其中一些聊天机器人使用 OpenAI、Meta 和 xAI 的 AI 模型。研究人员询问人们对税收和移民等各种政治话题的看法,然后,无论参与者是保守派还是自由派,聊天机器人都会试图改变他们的想法,转而采取相反的观点。

研究人员发现,人工智能聊天机器人不仅经常取得成功,而且某些说服策略比其他策略更有效。

“我们的结果证明了对话式人工智能系统在政治问题上具有非凡的说服力,”主要作者、牛津大学博士生 Kobi Hackenburg 在一份有关该研究的声明中表示。

这项研究是越来越多关于人工智能如何影响政治和民主的研究的一部分,而这项研究正值政治家、外国政府和其他人试图弄清楚如何应用人工智能来影响公众舆论。

这篇发表在《科学》杂志上的论文发现,人工智能聊天机器人在向研究参与者提供大量深入信息时最具说服力,而不是采用其他辩论策略(例如诉诸道德或针对个人进行个性化论证)。

研究人员表示,这意味着人工智能聊天机器人可能“超越人类精英说服者的说服力,因为它们在对话过程中几乎瞬间生成大量信息的独特能力,”研究人员写道,尽管他们并没有让人工智能聊天机器人与人类辩论者正面交锋。

但该研究还表示,人工智能聊天机器人的说服力并不完全在于向上:在聊天机器人作为答案提供的大量信息中,研究人员写道,他们发现了许多不准确的断言。

“最具说服力的模型和提示策略往往会产生最不准确的信息,”研究人员写道。

他们补充说,他们观察到“最新和最大的前沿模型所生成的有说服力的主张的准确性出现了令人担忧的下降。”他们写道,OpenAI 在 2 月份发布的模型 GPT-4.5 提出的主张平均而言明显低于同样来自 OpenAI 的较小、较旧模型的主张。

“总的来说,这些结果表明,优化说服力可能会牺牲真实性,这种动态可能会给公共话语和信息生态系统带来不良后果,”他们写道。

OpenAI 周四没有立即回应置评请求。这项研究是在 OpenAI 上个月发布其最新模型 GPT-5.1 之前进行的。

研究人员写道,该研究中人工智能聊天机器人的所有声明中约有 19% 被评为“严重不准确”。

该论文警告说,在极端情况下,具有高度说服力的人工智能聊天机器人“可能会让不道德的行为者受益,例如,他们希望宣扬激进的政治或宗教意识形态,或者在地缘政治对手中煽动政治动荡。”

这篇论文是由英国人工智能安全研究所(一家由英国政府支持的研究机构)以及牛津大学、伦敦经济学院、斯坦福大学和麻省理工学院的人员组成的团队撰写的。他们获得了英国政府科学、创新和技术部的资助。

牛津大学社会与互联网教授、合著者海伦·马吉茨 (Helen Margetts) 在一份声明中表示,这项研究是“了解法学硕士对民主进程在现实世界中的影响”的努力的一部分,指的是大型语言模型,或 ChatGPT 和 Google Gemini 等流行的生成式人工智能系统的底层技术。

研究参与者都是英国的成年人,他们被问及与英国政治相关的问题。

这项研究是在人工智能从各个角度颠覆政治的时候进行的。唐纳德·特朗普总统定期发布人工智能创建的视频和图像一些政治运动已经向社交媒体发送了人工智能生成的信息筹款电子邮件深假视频,中国和俄罗斯的国家特工已经在他们的国家中部署了人工智能“slop”宣传活动

与此同时,人工智能聊天机器人的使用正在快速增长。据一项调查显示,约 44% 的接受调查的美国成年人表示,他们“有时”或“经常”使用 ChatGPT、Google Gemini 或 Microsoft Copilot 等人工智能工具。NBC 新闻决策台民意调查由 SurveyMonkey 提供支持并于 6 月发布。

研究发现,聊天机器人应用程序的来回对话中存在特别有说服力的东西。研究人员将与 AI 聊天机器人互动的研究参与者与仅被要求阅读 AI 编写的 200 字说服性消息的参与者进行了比较。他们发现 AI 聊天机器人比静态消息更有说服力——高出 41% 到 52%,具体取决于 AI 模型。

研究发现,政治观点的改变是持久的,一个月后,36% 至 42% 的参与者的说服效果仍然明显。

研究人员还探索了哪种人工智能聊天机器人最有效,测试了 17 种不同的大型语言模型,包括最复杂的模型和最简单的模型。他们还测试了具有不同级别微调的模型,这在人工智能行业中被称为“训练后”。

研究人员承认,他们研究的受控条件并没有立即转化为政治的日常琐事,大多数竞选活动都没有部署聊天机器人作为说服工具。

“人们在调查背景之外自愿与人工智能系统进行认知要求高的政治讨论的程度仍不清楚,”他们写道。

但一些未参与这项研究的专家表示,这项研究是重要的一步。

“现在我们有证据表明,随着模型变得更好,它们也变得更有说服力,”亚利桑那州立大学新闻学院教授谢尔比·格罗斯曼(Shelby Grossman)说,他研究了人工智能内容的说服力。

她表示,可以想象,外国政府可以尝试利用人工智能内容的说服力,包括试图在社交媒体上煽动分裂,但她也表示,如果政治行为者对人工智能的使用保持透明,那么也有合法的用途。

大卫·布鲁克曼 (David Broockman),加州大学伯克利分校政治学副教授研究运动中的说服力表示,虽然研究发现人工智能聊天机器人具有说服力,但他放心,效果不会更大。

“世界上有一些末日情景表明人工智能将催眠或洗脑我们,因为它比人类更有说服力,”他说。

他说,这项研究反驳了那些世界末日的想法,并表明人类认为有说服力的是按需提供的大量详细信息,这对人类来说是一个积极的信号。

在现实世界中,“如果问题的双方都使用这个方法,我猜它会相互抵消,你会听到双方更有说服力的论点,”他说。

周四发布的这项研究并不是第一个尝试衡量人工智能说服力的研究。另一篇论文5月出版基于对一小部分参与者的研究发现,人工智能聊天机器人并不是特别有说服力,而一篇论文去年发表发现使用生成人工智能的人类可以通过有限的努力产生有说服力的宣传。

大卫·英格拉姆 (David Ingram) 是 NBC 新闻的科技记者。

关于《研究发现人工智能聊天机器人利用不准确的信息改变人们的政治观点》的评论


暂无评论

发表评论

摘要

一项新的研究表明,人工智能聊天机器人在改变人们的政治观点方面非常有效,并且在提供广泛、详细的信息时往往最具说服力。这项研究由多所大学的研究人员进行,发表在《科学》杂志上,涉及近 77,000 名参与者,发现人工智能模型能够超越人类说服者的有效性,因为它们能够立即生成大量信息。然而,该研究还强调了一个令人担忧的趋势:最具说服力的模型往往会产生不太准确的信息,可能会对公共话语和真实性产生负面影响。