OC

Knowledge OS
鹦鹉螺口语
专家警告称,“人工智能机器人群”侵扰社交媒体对民主构成威胁
2026-01-22 21:18:00 · 英文原文

专家警告称,“人工智能机器人群”侵扰社交媒体对民主构成威胁

作者:Robert Booth

人工智能和网络虚假信息领域的一个知名专家小组警告称,政治领导人可能很快就会推出大量模仿人类的人工智能代理,以威胁民主的方式重塑公众舆论。

诺贝尔和平奖获得者、言论自由活动家玛丽亚·雷萨 (Maria Ressa) 以及来自伯克利、哈佛大学、牛津、剑桥和耶鲁大学的领先人工智能和社会科学研究人员,是一个全球联盟的成员,该联盟标记了新的“破坏性威胁”,这些威胁是由难以察觉的恶意“人工智能群”侵扰社交媒体和消息渠道所造成的。

他们表示,未来的独裁者可以利用此类群体来说服民众接受取消的选举或推翻选举结果,并预测该技术可能会在 2028 年美国总统大选时大规模部署。

这些警告今天发表在《科学》杂志上,与此同时,人们还呼吁采取全球协调行动来应对这一风险,包括使用“群体扫描仪”和带水印的内容来应对人工智能运行的错误信息活动。人工智能驱动的影响力操作的早期版本已在 2024 年的选举中使用台湾、印度和印度尼西亚。

“一种破坏性威胁正在出现:大量协作的恶意人工智能代理,”作者说– 这些系统能够自主协调、渗透社区并有效地达成共识。通过适应性地模仿人类社会动态,它们威胁着民主。”

宣传技术方面的一位领先专家英加·特劳蒂格 (Inga Trauthig) 表示,政客们不愿将竞选控制权让给人工智能,因此这种先进技术的采用可能会放缓。怀疑的另一个原因是担心使用这种非法技术不值得冒险,因为选民仍然更容易受到线下材料的影响。

发出这一警告的专家包括纽约大学的加里·马库斯(Gary Marcus)和台湾首位数字部长奥黛丽·唐(Audrey Tang),前者对当前人工智能模型的潜力持怀疑态度,他自称是“生成式人工智能现实主义者”,后者警告说:“那些受威权势力收买的人正在破坏选举进程,将人工智能武器化,并利用我们的社会优势来对抗人工智能。”我们。 –

其他人包括康斯坦茨大学社会和行为数据科学教授大卫·加西亚(David Garcia)、错误信息专家兼剑桥大学社会决策实验室主任桑德·范德林登(Sander van der Linden)以及牛津大学人工智能研究员兼认知神经科学教授克里斯托弗·萨默菲尔德(Christopher Summerfield)。

他们共同表示,政治领导人可以部署几乎无限数量的人工智能,在网上伪装成人类,精确地渗透到社区,随着时间的推移了解他们的弱点,并使用越来越令人信服和精心定制的谎言来改变全民的观点。

人工智能识别谈话语气和内容的能力的进步正在加剧这种威胁。他们越来越能够模仿人类的动态,例如,通过使用适当的俚语和不规则地发帖以避免被发现。“代理”人工智能发展的进步也意味着自主计划和协调行动的能力。

作者之一、奥斯陆 Sintef 研究所的研究科学家丹尼尔·蒂洛·施罗德 (Daniel Thilo Schroeder) 表示,除了跨社交媒体进行操作外,他们还可能使用消息传递渠道,甚至撰写博客或使用电子邮件,具体取决于人工智能认为最有助于实现目标的渠道。

施罗德一直在实验室条件下模拟群体,他说:“令人恐惧的是,这些东西很容易就能实现代码,并且拥有小型机器人军队,实际上可以浏览在线社交媒体平台和电子邮件并使用这些工具。”

另一位作者、BI 挪威商学院传播学教授乔纳斯·昆斯特 (Jonas Kunst) 表示:“如果这些机器人开始进化成一个集体并交换信息来解决问题(在本例中是一个恶意目标,即分析社区并找到弱点),那么协调将提高它们的准确性和效率。

“这是一个非常严重的威胁,我们预测将会成为现实。”

台湾民进党议员、反对中国虚假信息的活动家普马·沉 (Puma Shen) 表示,在台湾,选民经常成为中国宣传的目标,而且往往是在不知不觉中,过去两到三个月里,人工智能机器人在 Threads 和 Facebook 上增加了与公民的互动。

沉说,在讨论政治话题时,人工智能往往会提供“大量无法验证的信息”,从而造成“信息过载”。他说人工智能可能会引用有关美国将如何放弃台湾的虚假文章。最近的另一个趋势是人工智能机器人向台湾年轻人强调,中台争端非常复杂,所以如果你不了解,就不要选边站队。

“它并不是告诉你中国很伟大,而是[鼓励他们]保持中立,”沉告诉《卫报》。“这是非常危险的,因为那样你就会认为像我这样的人是激进的。”

有迹象表明人工智能技术的进步并不像 OpenAI 和 Anthropic 等硅谷公司声称的那么快,《卫报》要求独立人工智能专家评估群体警告。

“在选举密集的 2024 年,人工智能驱动的微定位能力已经存在,但我们并没有看到学者们预测的那么多,”国际信息环境小组顾问特劳西格说。“我采访的大多数政治宣传人员仍在使用较旧的技术,并不处于最前沿。”

“这并不异想天开,”牛津大学人工智能基础教授迈克尔·伍德里奇 (Michael Wooldridge) 说。– 我认为不良行为者完全有可能试图动员由法学硕士支持的代理人组成的虚拟军队来扰乱选举并操纵公众舆论,例如针对社交媒体和其他电子媒体上的大量个人。这在技术上是完全可行的——技术已经变得越来越好,也越来越容易获得。”

关于《专家警告称,“人工智能机器人群”侵扰社交媒体对民主构成威胁》的评论

暂无评论

发表评论

摘要

伯克利、哈佛大学和牛津等著名机构的专家表示,政治领导人可能很快就会部署模仿人类行为的人工智能群来影响公众舆论,对民主构成威胁。这些人工智能代理可以渗透社交媒体和消息平台来传播错误信息,并可能被独裁者用来影响民众反对选举或选举结果。预计该技术将在 2028 年美国总统大选前大规模部署。为了应对这一威胁,专家们呼吁采取全球行动,包括使用群体扫描仪和水印内容来检测人工智能驱动的虚假信息。这些影响力操作的早期版本已经在台湾、印度和印度尼西亚最近的选举中使用。