作者:by University College London
伦敦大学学院研究人员的一项新研究发现,人工智能(AI)系统往往会吸收人类的偏见并放大它们,导致使用人工智能的人自己变得更加偏见。
因此,人类和人工智能的偏见会造成反馈回路,根据发表在自然人类行为。
研究人员证明,人工智能偏见可能会产生现实世界的后果,因为他们发现,与有偏见的人工智能互动的人更有可能低估女性的表现,并高估白人男性担任高地位工作的可能性。
共同主要作者 Tali Sharot 教授(伦敦大学学院心理学与语言科学学院、马克斯普朗克伦敦大学学院计算精神病学和衰老研究中心以及麻省理工学院)表示:“人们天生就有偏见,因此当我们根据数据集训练人工智能系统时,人工智能算法学习数据中嵌入的人类偏见,然后倾向于利用和放大这些偏见来提高其预测准确性。
“在这里,我们发现,与有偏见的人工智能系统互动的人自己可能会变得更加有偏见,从而产生潜在的滚雪球效应,其中原始数据集中的微小偏见被人工智能放大,这增加了使用人工智能的人的偏见。”
研究人员对 1,200 多名研究参与者进行了一系列实验,这些参与者正在完成任务并与人工智能系统交互。
作为其中一项实验的前身,研究人员在参与者反应的数据集上训练了人工智能算法。人们被要求判断照片中的一组面孔看起来是快乐还是悲伤,他们表现出一种轻微的倾向,即判断面孔是悲伤的,而不是快乐的。人工智能学习了这种偏见,并将其放大为更大的偏见,即判断面孔是否悲伤。
然后另一组参与者完成了相同的任务,但也被告知人工智能对每张照片做出了什么判断。
在与这个人工智能系统交互一段时间后,这群人内化了人工智能的偏见,并且比与人工智能交互之前更有可能表示面部表情看起来很悲伤。这表明人工智能从人类数据集中学习了偏见,然后放大了另一组人的固有偏见。
研究人员在使用非常不同的任务的实验中发现了类似的结果,包括评估一组点在屏幕上移动的方向,或者值得注意的是,评估另一个人在一项任务上的表现,其中人们特别有可能在与他人互动后高估男性的表现。一个有偏见的人工智能系统(它是根据固有的性别而创建的)偏见模仿许多现有人工智能的偏见)。参与者普遍不知道人工智能的影响程度。
当人们被错误地告知他们正在与另一个人互动,但实际上是在与人工智能互动时,他们会在较小程度上内化偏见,研究人员表示,这可能是因为人们期望人工智能在某些任务上比人类更准确。
研究人员还使用广泛使用的生成式人工智能系统“稳定扩散”进行了实验。
在一项实验中,研究人员促使人工智能生成财务经理的照片,这产生了有偏差的结果,因为白人男性的比例超出了他们的实际比例。
然后,他们要求研究参与者在看到人工智能生成的图像之前和之后查看一系列头像,并选择最有可能成为财务经理的人。研究人员发现,参与者在观看稳定扩散生成的图像后,比以前更倾向于认为白人最有可能是财务经理。
联合主要作者 Moshe Glickman 博士(伦敦大学学院心理学与语言科学和马克斯·普朗克伦敦大学学院计算精神病学和衰老研究中心)表示:“有偏见的人不仅会导致人工智能有偏见,而且有偏见的人工智能系统也会改变人们自己的信念,从而使用人工智能工具的人们最终可能会在从社会判断到基本感知等领域变得更加偏见。
“然而,重要的是,我们还发现,与准确的人工智能交互可以提高人们的判断力,因此将人工智能系统改进为尽可能公正和准确至关重要。”
Sharot 教授补充道:“算法开发人员在设计人工智能系统方面负有重大责任;随着人工智能在我们生活的许多方面变得越来越普遍,人工智能偏见的影响可能会产生深远的影响。”
更多信息:人类人工智能反馈循环如何改变人类的感知、情感和社会判断,自然人类行为(2024)。DOI:10.1038/s41562-024-02077-2
引文:研究发现,人工智能中的偏见放大了我们自己的偏见(2024 年,12 月 18 日)检索日期:2024 年 12 月 18 日来自 https://techxplore.com/news/2024-12-bias-ai-amplizes-biases.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。