OC

Knowledge OS
鹦鹉螺口语
人们从人工智能获取新闻——这正在改变他们的观点
2026-01-03 11:00:03 · 英文原文

人们从人工智能获取新闻——这正在改变他们的观点

作者:Adrian Kuenzler

无论所提供的信息是真是假,人工智能偏见都会影响用户的想法或感受

已发表

Woman holding phone. (Tim Robberts/Getty images)

女人拿着电话。(蒂姆·罗伯茨/盖蒂图片社)

本文最初发表于对话

Meta 的决定结束其专业事实核查计划引发了科技界和媒体界的批评浪潮。批评者警告说,放弃专家监督可能会削弱数字信息领域的信任和可靠性,特别是当利润驱动的平台大多自行监管时。

然而,这场争论在很大程度上忽视了今天的人工智能大语言模型越来越多地使用早在传统的内容审核机制介入之前就写出吸引您注意的新闻摘要、标题和内容。问题并不是在缺乏内容审核的情况下错误信息或有害主题未被标记的明确案例。讨论中缺少的是如何以能够塑造公众认知的方式选择、构建和强调表面上准确的信息。

随着时间的推移,大型语言模型通过生成聊天机器人和虚拟助手向人们呈现的信息,逐渐影响人们形成意见的方式。这些模型现在也被构建到新闻网站、社交媒体平台和搜索服务中,使其成为获取信息的主要途径

研究表明大型语言模型确实不仅仅是简单地传递信息。他们的回应可以巧妙地突出某些观点,同时最小化其他观点,而用户往往没有意识到这一点。

沟通偏见

我的同事,计算机科学家斯特凡·施密德,和我技术法律和政策学者在《ACM 通讯》杂志上即将发表的一篇被接受的论文中表明,大型语言模型表现出沟通偏见。我们发现,他们可能倾向于强调特定的观点,而忽略或削弱其他观点。这种偏见会影响用户的想法或感受,无论所提供的信息是真是假

经过近几年的实证研究,基准数据集将模型输出与选举前和选举期间的政党立场相关联。它们揭示了当前大型语言模型处理公共内容的方式的变化。根据用于提示大型语言模型的人物角色或上下文,当前模型会微妙地倾向于特定立场 - 即使事实准确性保持不变。

这些转变指向一种新兴形式的基于人物角色的可操纵性——一种模型——倾向于将其基调和重点与用户的感知期望保持一致。例如,当一个用户将自己描述为环保活动家,而另一个用户将自己描述为企业主时,模型可能会通过强调他们各自不同但事实上准确的担忧来回答有关新气候法的同一问题。例如,批评可能是该法律在促进环境效益方面做得不够,而且该法律强加了监管负担和合规成本。

这种一致很容易被误读为奉承。这种现象称为阿谀奉承:模型有效地告诉用户他们想听到什么。但是,虽然阿谀奉承是用户模型交互的一种症状,但沟通偏见却更为严重。它反映了谁设计和构建这些系统、他们从哪些数据集获取以及哪些激励措施推动其改进方面的差异。当少数开发人员主导大型语言模型市场并且他们的系统始终比其他系统更有利地呈现某些观点时,模型行为的微小差异可能会扩大到公共交流中的严重扭曲。

大型语言模型中的偏差始于它们所训练的数据。

监管可以做什么和不能做什么

现代社会越来越依赖大型语言模型人与信息之间的主要界面。世界各国政府已推出政策来解决对人工智能偏见的担忧。例如,欧盟人工智能法数字服务法尝试实行透明度和问责制。但这两者都不是为了解决人工智能输出中沟通偏见的微妙问题。

人工智能监管的支持者经常将中立人工智能作为目标,但真正的中立往往是无法实现的。人工智能系统反映了其数据、训练和设计中嵌入的偏见,而试图规范这种偏见的努力往往会以失败告终。用一种偏见换取另一种偏见

沟通偏见不仅仅与准确性有关,还与内容生成和框架有关。想象一下向人工智能系统询问有关有争议的立法的问题。该模型的答案不仅取决于事实,还取决于这些事实的呈现方式、突出显示的来源以及所采用的语气和观点。

这意味着偏差问题的根源不仅在于解决有偏差的训练数据或倾斜的输出,还在于塑造技术设计的市场结构首先。当只有少数大型语言模型能够访问信息时,沟通偏差的风险就会增加。那么,除了监管之外,有效缓解偏见还需要保障竞争、用户驱动的问责制以及对构建和提供大型语言模型的不同方式的监管开放。

迄今为止,大多数法规的目的是在技术部署后禁止有害输出,或迫使公司在发布前进行审核。我们的分析表明,虽然启动前检查和部署后监督可能会发现最明显的错误,但它们在解决用户交互中出现的微妙沟通偏差方面可能效果较差。

超越人工智能监管

人们很容易期望监管能够消除人工智能系统中的所有偏见。在某些情况下,这些政策可能会有所帮助,但它们往往无法解决更深层次的问题:决定向公众传达信息的技术的激励措施。

我们的研究结果表明,更持久的解决方案在于促进竞争、透明度和有意义的用户参与,使消费者能够在公司设计、测试和部署大型语言模型的过程中发挥积极作用。

这些政策之所以重要,是因为最终人工智能不仅会影响我们寻求的信息和我们阅读的每日新闻,而且还将在塑造我们设想的未来社会方面发挥至关重要的作用。

阿德里安·库恩茨勒, 驻校学者,丹佛大学;香港大学

本文转载自对话根据知识共享许可。阅读原创文章



相关主题------------------------------------------

相关文章


关于《人们从人工智能获取新闻——这正在改变他们的观点》的评论

暂无评论

发表评论

摘要

即使所提供的信息实际上是准确的,大型语言模型中的人工智能偏见也会影响公众的看法和意见形成。这些模型通过突出某些观点而淡化其他观点而表现出沟通偏见,而用户往往没有意识到。这种偏见源于他们接受培训的数据和推动他们发展的激励措施,可能会扭曲公共话语。当前的法规侧重于透明度和问责制,但可能无法解决用户交互中出现的微妙偏见。解决这个问题需要在技术设计和部署中促进竞争、透明度和有意义的用户参与。