作者:Maxim Alyukov,Mykola Makhortykh,Alexandr Voronovici,Maryna Sydorova
3月,Newsguard - 一家跟踪错误信息的公司报告 声称生成人工智能(AI)工具(例如chatgpt)正在扩大俄罗斯的虚假信息。Newsguard根据Pravda Network的故事进行了提示,测试了领先的聊天机器人。报告说,结果令人震惊:聊天机器人重复被Pravda Network洗钱的虚假叙述33%。
Pravda网络的受众群体很少,一直困扰着研究人员。有些人认为,其目的是表明俄罗斯对西方观察家的影响。其他人则看到一个更阴险的目标:Pravda的存在不是为了吸引人们,而是在聊天机器人背后的大型语言模型(LLMS)上,向他们喂养用户会在不知不觉中遇到的虚假性。
Newsguard在其报告中说,其调查结果证实了第二种怀疑。这一说法引起了人们的关注,促使华盛顿邮报的戏剧性头条新闻,法国24,der Spiegel,and其他地方。
但是对于我们和其他研究人员来说,这一结论并没有提出。首先,使用Newsguard使用的方法是不透明的:它没有发布其提示,而是拒绝与记者分享它们,从而使独立复制变得不可能。
其次,研究设计可能会使结果膨胀,而33%的数字可能会产生误导。用户向聊天机器人询问从烹饪技巧到气候变化的一切;Newsguard专门在链接到Pravda网络的提示上测试了它们。它的三分之二的提示是明确制作的,以引起虚假或将其作为事实提出。敦促用户对索赔保持谨慎的响应,因为未经验证的索赔被视为虚假信息。该研究着手发现虚假信息,而且确实如此。
这一集反映了一个更广泛的问题动态,这是由快速移动的技术,媒体炒作,坏演员和滞后研究形成的。由于世界经济论坛的虚假信息和错误信息被认为是专家中最大的全球风险,因此对它们的传播的关注是合理的。但是,膝盖的反应可能会扭曲问题,提供复杂AI的简单视图。
诱人的是,认为俄罗斯是故意将西部AI作为狡猾情节的一部分。但是警报框架掩盖了更合理的解释,并造成了伤害。
那么,聊天机器人可以再现克里姆林宫的谈话要点还是引用可疑的俄罗斯来源?是的。但是,这种情况是否反映了克里姆林宫的操纵,以及什么情况使用户遇到的情况远未解决。在很大程度上取决于黑框,即聊天机器人检索信息的基础算法。
我们使用与虚假信息相关的提示进行了自己的审核,系统地测试了Chatgpt,Copilot,Gemini和Grok。除了重新测试其报告中提供的一些新闻编号的示例外,我们还设计了新的提示。例如,有些人是乌克兰的美国生物群的说法。例如,其他人是特定于某些乌克兰城镇的北约设施的指控。
如果Pravda网络正在修饰AI,我们将在聊天机器人生成的答案中看到它的引用,无论是一般还是具体。
我们在发现中没有看到这一点。与Newsguard的33%相反,我们的提示仅产生了5%的时间。参考Pravda网站的输出中,只有8%的输出是为了揭穿内容。至关重要的是,Pravda参考集中在主流插座覆盖不足的查询中。这支持数据空白假设:当聊天机器人缺乏可信的材料时,有时会从可疑的网站上拉出 - 不是因为它们已经被修饰,而是因为几乎没有其他可用性。
如果数据空隙而不是克里姆林宫的渗透是问题,那么这意味着信息稀缺而导致的虚假信息可能不是强大的宣传机。此外,要使用户在聊天机器人的回复中实际遇到虚假信息,必须有几种条件:他们必须以特定的方式询问晦涩的话题;这些主题必须被可靠的媒体忽略。而且聊天机器人必须缺乏护栏来剥夺可疑来源。
即使那样,这种情况还是罕见的,通常是短暂的。随着报告的赶上,数据迅速关闭,即使它们持续存在,聊天机器人也经常揭穿索赔。尽管在技术上可能,但这种情况在人工条件之外非常罕见,旨在欺骗聊天机器人重复虚假信息。
夸大克里姆林宫AI操纵的危险是真实的。一些反分散专家认为,克里姆林宫的运动本身可能旨在扩大西方恐惧,绝大部分的事实核对者和反分散单位。玛格丽塔·西蒙纳(Margarita Simonyan)是一位著名的俄罗斯宣传家,经常引用西方研究,以宣传政府资助的电视网络RT的影响。
关于虚假信息的不加区分警告可能适得其反,促使人们对压制性政策,侵蚀民主的信任以及鼓励人们认为可靠的内容是错误的。同时,最明显的威胁可能会黯然失色,但可能会更危险地使用Malign Contors的AI使用,例如生成Google和Openai报道的恶意软件。
将真正的关注与夸张的恐惧分开至关重要。虚假信息是一个挑战,但它引起的恐慌也是如此。
本文中表达的观点是作者自己的观点,不一定反映半岛电视台的社论立场。