人工智能聊天机器人存在政治偏见,可能会在不知不觉中影响社会 - ScienceAlert

2024-09-11 01:17:34 英文原文

尽管存在已知的种族和性别偏见,由大型语言模型 (LLM) 提供支持的人工智能引擎正在成为一种越来越容易获取答案和建议的方式。

一项新研究发现强有力的证据表明,我们现在可以将政治偏见添加到该列表中,进一步证明新兴技术有可能在不知不觉中甚至可能恶意地影响社会的价值观和态度。

这项研究是由计算机科学家 David Rozado 发起的。来自新西兰奥塔哥理工学院,并提出了关于我们如何受到我们所依赖的信息机器人的影响的问题。

Rozado 进行了 11 份标准政治调查问卷,例如 24 日的政治指南针测试不同的法学硕士,包括 OpenAI 的 ChatGPT 和 Google 开发的 Gemini 聊天机器人,发现所有模型的平均政治立场并不接近中立。

“大多数现有的法学硕士都显示偏左罗扎多说:“通过各种政治倾向测试来评估政治偏好。”

平均左倾偏见并不强烈,但也很重要。对自定义机器人的进一步测试表明,用户可以微调法学硕士培训数据,这些人工智能可能会受到影响,使用中间偏左或中间偏右的文本来表达政治倾向。

Rozado 还研究了对话式聊天机器人所基于的 GPT-3.5 等基础模型。这里没有政治偏见的证据,但如果没有聊天机器人前端,很难以有意义的方式整理回复。

随着谷歌推动人工智能搜索结果答案,我们中越来越多的人转向人工智能机器人获取信息,令人担忧的是我们的思维可能会受到返回给我们的响应的影响。

“随着法学硕士开始部分取代搜索引擎和维基百科等传统信息源,政治的社会影响法学硕士中嵌入的偏见是巨大的。”Rozado 在他发表的论文中写道。

这种偏见如何进入系统尚不清楚,尽管没有迹象表明它是法学硕士开发人员故意植入的。这些模型是根据大量在线文本进行训练的,但混合中左学习材料与右学习材料的不平衡可能会产生影响。

ChatGPT 训练其他模型的主导地位也可能是一个因素Rozado 说,因为该机器人之前已被证明在政治观点方面处于中间偏左的位置。

基于法学硕士的机器人本质上是使用概率来确定在其响应中哪个词应该跟在另一个词之后,这意味着即使在考虑不同类型的偏见之前,他们的言论也经常不准确。

尽管谷歌、微软、苹果和 Meta 等科技公司渴望将人工智能聊天机器人推向我们,也许我们是时候重新评估应该如何使用这项技术,并优先考虑人工智能真正有用的领域。

“批判性地检查和解决法学硕士中潜在的政治偏见至关重要,以确保在对用户查询的响应中平衡、公平和准确地表达信息。”Rozado 写道。

这项研究已发表在 PLOS ONE 上。

摘要

尽管存在已知的种族和性别偏见,由大型语言模型 (LLM) 提供支持的人工智能引擎正在成为一种越来越容易获得答案和建议的方式。对自定义机器人的进一步测试表明,用户可以微调法学硕士培训数据,这些人工智能可能会受到影响,使用中间偏左或中间偏右的文本来表达政治倾向。这里没有政治偏见的证据,尽管如果没有聊天机器人前端,很难以有意义的方式整理回复。“随着法学硕士开始部分取代搜索引擎和维基百科等传统信息来源,法学硕士中嵌入的政治偏见的社会影响是巨大的,”罗扎多在他发表的论文中写道。该研究已发表在 PLOS ONE 上。