TechScape:为什么假新闻信心陷阱可能会导致你的垮台 - 卫报

2024-10-01 11:18:00 英文原文

网络世界是一个狂野,虚假信息和错误信息飞速传播。我正在写一本关于假新闻历史的书,所以我很清楚人们编造新闻并不新鲜。但新鲜的是麻烦制造者的影响力,无论他们的行为是故意的还是偶然的。

社交媒体和更广泛的网络改变了恶作剧者的游戏规则,并使我们其他人更容易在网上无意中被蒙蔽(请参阅:我本周为《卫报》撰写的奇怪的再见元人工智能趋势)。自 2022 年 ChatGPT 发布以来,生成式人工智能的兴起也加剧了风险。虽然早期研究表明,我们对人工智能生成的深度造假对选举影响的最大担忧是没有根据的,但整体信息环境令人费解。

眼见为实?

从行为洞察团队 (BIT) 收集的信息中可以明显看出这一点,该团队是从英国政府分离出来的社会目的组织,并在 TechScape 上独家与我分享。这项针对 2,000 名英国成年人的调查突显了目前狂野西部网络的混乱程度。

虽然 BIT 的调查中有 59% 的人认为他们可以发现网上的虚假信息,但 BIT 研究人员发现,只有 36% 的人相信其他人可以发现假新闻。

这是一个问题,原因有两个。一是我们对其他人识别虚假故事的能力缺乏信心。另一个是我们自己的能力与广大公众的能力之间的认知鸿沟。我怀疑,如果我们真正测量人们辨别虚假信息和真相的能力,它会更接近较低的数字而不是较高的数字。简而言之,我们倾向于认为我们比我们实际更聪明。

不相信我?在我的第一本书《YouTubers》中,我委托 YouGov 进行了一项调查,了解公众对该平台上的主要人物的认可程度。YouGov 的团队建议,在真实姓名中,我应该添加一个不存在的人,作为一种感觉检查,以确定虚张声势的人的比例。数量令人担忧的受访者自信地表示,他们认识民调机构发明的那个人,也很了解他们。

大量错误信息

所有这些都很重要,因为存在虚假信息问题的规模。

BIT 调查的四分之三受访者表示,他们上周看到了假新闻,其中 X(该公司将其内容审核团队精简到骨子里,转而支持埃隆·马斯克的言论自由专制主义)和 TikTok 被认为是最严重的违规者。LinkedIn 被认为是最不差的(但尚不完全清楚这是否是因为许多人回避平台,因为它被认为是无聊的)。

无论如何,研究结果让研究人员感到不安。BIT 消费者和企业市场主管 Eva Kolker 表示,越来越多的证据表明,社交媒体用户对自己发现虚假信息的能力过于自信,我们的最新研究进一步证明了这一点。矛盾的是,这实际上可能使人们更容易受到它的影响。

简而言之:如果您认为自己比其他人更擅长发现假新闻,那么当您(不可避免地)在网上遇到假新闻时,您实际上更有可能防御能力较低并陷入困境。

应该做什么?

首先要让用户更加了解假新闻的风险以及与社交圈分享时可能产生的影响。由于社交媒体算法介导的暴民心态,事情很快就滚雪球般地滚雪球,比如《再见元人工智能》的帖子。所以三思而后行很重要。(我在本文中概述了应对数据威胁的更好方法。)

但科尔克并不相信这就足够了。她说,我们为提高在线安全所做的许多尝试都集中在提高个人用户的知识和能力。虽然这很重要,但我们的研究表明,这种方法的有效性存在固有的限制。

我们不能仅仅依靠个人改变他们的行为。为了真正打击错误信息,我们还需要社交媒体平台采取行动,监管机构和政府进行干预,以创造公平的竞争环境。

是时候进行干预了吗?

双边投资协定向政府和社交媒体平台提出了一系列建议,试图打击错误和虚假信息。其中首先是一旦发现包含虚假信息的帖子,就立即对其进行标记,以便在分享之前让公众意识到。值得赞扬的是,Metas 在“再见 Meta AI”趋势中所做的就是这样做,在帖子中添加标签,指出信息不正确。

双边投资条约还建议平台对展示合法但有害内容的数量更加严格。阴谋论在腐败的信息环境中愈演愈烈,而双边投资条约似乎表明,硅谷的标准方法“阳光是最好的消毒剂”并不能解决问题。

除了一种情况。他们的第三个建议是定期对每个平台上的虚假或有害内容数量进行公开排名。

这是否有效很难说。出于多种原因,我最近一直在关注科学以及双边投资协定等研究和调查,每项积极的干预措施似乎也有其缺点。但如果病毒式传播的再见元人工智能趋势向我们展示了什么的话,那就是我们不能仅仅假设人们能够区分真实与虚假。

克里斯·斯托克尔-沃克的最新著作是《人工智能如何吞噬世界》。他的下一本书关于假新闻的历史,将于 2025 年春季出版。

如果您想阅读新闻通讯的完整版本,请订阅以每周二在您的收件箱中接收 TechScape。

关于《TechScape:为什么假新闻信心陷阱可能会导致你的垮台 - 卫报》的评论


暂无评论

发表评论

摘要

网络世界是一个狂野,虚假信息和错误信息快速传播。我正在写一本关于假新闻历史的书,所以我很清楚人们编造新闻并不新鲜。社交媒体和更广泛的网络改变了恶作剧者的游戏规则,让我们其他人更容易在网上无意中被蒙蔽(参见:我本周为《卫报》撰写的奇怪的再见元人工智能趋势)。一是我们对其他人识别虚假故事的能力缺乏信心。他们的第三个建议是定期对每个平台上的虚假或有害内容数量进行公开排名。