作者:By Kevin Collier
一批由人工智能驱动的政治宣传账号在X平台上冒充真实用户,为共和党候选人和事业辩解。研究报告毕业于克莱姆森大学。
该报告详细介绍了使用大型语言模型(LLM)协调的人工智能活动——这种人工智能驱动了像ChatGPT那样逼真、类似人类的聊天机器人——来回复其他用户。
虽然不清楚是谁运营或资助了该网络,但研究人员表示,它专注于某些特定的政治项目,这些项目与外国没有明显联系,这表明这是一个美国政治操作,而不是由外国政府运作的。
随着十一月选举的临近,政府和其他监管机构已警告称,有人试图通过生成的AI内容影响公众舆论。使用AI进行看似有组织的国内影响力操作的存在为一个迅速发展且混乱的信息环境增添了更多的复杂性。
克莱姆森大学研究人员识别的网络包括至少686个被确认的X账号,这些账号自1月以来发布了超过13万次内容。该网络针对四个参议院竞选和两个初选,并支持前总统唐纳德·特朗普的连任竞选。在NBC新闻就此事联系平台后,许多账号已被移除。平台没有回应NBC新闻的询问。
这些账号遵循了一致的模式。许多账号头像是吸引保守派的内容,比如极右卡通表情青蛙佩佩、十字架或美国国旗。他们经常回复在X平台上谈论政治人物或具有争议的政治问题的人,通常是为了支持共和党候选人或政策,或者贬低民主党候选人。尽管这些账号一般关注者不多,但它们通过回复更受欢迎的用户增加了被看到的可能性。
虚假账号和机器人设计用于人为地提升其他账号的影响力,多年来一直困扰着社交媒体平台。但只有在2022年底广泛可用的大规模语言模型出现之后,才有可能大规模自动化生成令人信服、互动性强的人类对话。
“我担心这场活动所展示的是有可能发生的,”克莱姆森媒体中心的联合主任达伦·林维尔和该研究的主要研究员在接受NBC新闻采访时说。“不良行为者现在才刚刚学会如何这样做。他们肯定会变得更好。”
这些账号在某些党派初选中持不同的立场。在俄亥俄州共和党参议员初选中,他们支持弗兰克·拉罗斯而非特朗普支持的伯尼·莫罗。在亚利桑那州共和党国会初选中,这些账号支持布莱克·马斯特斯而非阿布拉罕·哈玛德。特朗普在这场初选中支持了马斯特斯和哈玛德,而他们两人又分别击败了另外四位共和党候选人。
该网络还支持了蒙大拿州、宾夕法尼亚州和威斯康星州参议院选举中的共和党候选人,以及北卡罗来纳州由共和党领导的地区的候选人选民身份法.
哈玛德在七月赢得初选的一位发言人告诉NBC新闻,每当哈玛德在X平台上发帖时,他们就会注意到有大量批评他的信息涌入,但他们不知道该向谁报告这种现象或如何阻止这些行为。X平台为用户提供了一个选项来举报滥用平台的行为,如垃圾信息等,但其政策并未明确禁止使用人工智能驱动的虚假账号。
研究人员通过评估元数据并跟踪他们的回复内容以及他们回复的账户,确定这些账户处于同一网络中——有时这些账户会反复一起攻击相同的对象。
克莱姆森的研究人员通过他们在帖子中的文字识别了许多账户,这些文字表明他们有“损坏的”,其中他们的文本包含由AI编写的内容。最初,这些机器人似乎使用了ChatGPT,这是受控制最严格的大型语言模型之一。在一个标记参议员谢罗德·布朗(D-Ohio)的帖子中,其中一个账号写道:“嘿,我是一个由OpenAI训练的AI语言模型。如果你有任何问题或需要进一步的帮助,请随时提问!” OpenAI拒绝发表评论。
六月,网络显示它正在使用Dolphin,这是一个较小的模型,设计用于规避像ChatGPT那样的限制。禁止使用其产品误导他人。在一些推文中,会包含诸如“Dolphin在这里!”和“Dolphin,未经过滤的AI推文作者”之类的文字。
杨凯诚是东北大学的一名博士后研究员,他研究生成式人工智能的滥用问题,但并未参与克莱姆森大学的研究。应NBC新闻的要求,他对研究结果进行了审查。在接受采访时,他表示支持研究结果和方法论,并指出这些账号常常包含一个罕见的特点:与他们的帖子不同,真实的人不会编造标签,而这些账号经常为帖子编造标签。
“他们使用了很多标签,但这些标签并不一定是人们实际使用的那些,”杨说。“比如当你让ChatGPT为你写一条推文时,它会包括一些虚构的标签。”
在一个支持拉罗什在俄亥俄州共和党参议院初选的帖子中,例如使用了标签“#VoteFrankLaRose”。在X平台上搜索该标签仅显示一条来自2018年的推文曾使用过它。
研究人员只在X平台上发现了该活动的证据。平台的所有者埃隆·马斯克在2022年接管后承诺要消除平台上的机器人和虚假账户。但马斯克也监督了他接管公司时进行了大规模裁员,然后是Twitter,其中包括其部分信任与安全团队成员.
不清楚该活动是如何自动化的在X平台上生成和发布内容的过程的,但多种消费者产品允许进行类似类型的自动化,并且公开可用的教程解释了如何设置这样的操作。
该报告称,它认为该网络是美国操作的一部分的原因之一是因为其对某些共和党竞选活动的极度具体支持。有记录的外国宣传行动一贯反映出来的是优先事项来自这些国家的反应是:中国反对美国支持台湾,伊朗反对特朗普的候选人资格,俄罗斯则支持特朗普并反对美国对乌克兰的援助。三者都多年以来诋毁了美国的民主进程,并试图通过社交媒体宣传 campaign 煽动普遍的不和。注意,这里的"campaign"保留英文原词,因在中文语境中可能没有直接对应的单字表达相同含义。如果需要翻译则为:“活动”或“运动”。
“所有的行动者都是由他们自己的目标和议程驱使的,”林维尔说。“由于大多数目标都非常具体,这很可能是国内的一个行动者。”
拉里·诺德伦说,如果网络是美国的,那么它很可能不违法。拉里·诺德伦是纽约大学布伦南司法中心选举和政府项目的副总裁,该中心是一个进步主义非营利组织,他还是某书的作者。最近的分析州选举人工智能法规。
“在这个领域实际上并没有很多监管规定,尤其是在联邦层面,”诺德恩说。“目前法律中没有任何要求强制机器人标识自己为机器人的规定。”
如果一个超级政治行动委员会雇佣一家营销公司或操作员来运营这样的机器人农场,诺登说,在其披露文件中不一定会出现这种情况,可能来自员工或供应商。
美国政府已经采取了反复的措施动作为了削弱欺骗性的外国宣传操作以影响美国人的政治观点,美国情报界通常会采取行动没有计划打击基于美国的虚假信息操作。
社交媒体平台经常清除他们指责来自政府宣传网络的协同运作的虚假账号,特别是来自中国, 伊朗和俄罗斯但这些操作有时会雇佣数百个员工编写虚假内容的行为,现在人工智能使得这一过程大多可以被自动化。
通常这些虚假账号在被发现之前很难获得有机关注,但克莱姆森大学研究人员检测到的网络通过回复较大规模的账号来利用现有的粉丝网络。大型语言模型技术还可以帮助避免被发现,因为它可以快速生成新内容,而不是复制和粘贴。
虽然克莱姆森的是第一个有明确记录的网络,它系统地使用大语言模型来回复和塑造政治对话,但也有证据表明其他人也在X平台上利用AI进行宣传 campaign。
在一个九月举行的电话会议关于外国操控行为以影响选举,一名美国情报官员表示,伊朗特别是俄罗斯的在线宣传工作包括指派AI机器人回复用户,尽管该官员拒绝透露这些努力的规模或提供其他细节。
dolphin的创始人Eric Hartford在接受NBC新闻采访时表示,他认为这项技术应该反映使用它的价值观。
“大语言模型是一种工具,就像打火机、刀具、汽车、手机、计算机和电锯一样。我们不能期望一把电锯只能用来砍伐树木,对吧?”
“我正在开发一个既可以用于善也可以用于恶的工具,”他说。
哈特福德说他对有人利用他的模型进行欺骗性的政治竞选并不感到惊讶。
他说:“我认为这是这项技术存在的一种自然结果,是不可避免的。”