作者:Jordi Pérez Colomé
– 总体而言,OpenAI 模型[ChatGPT 背后]表现出一种特殊的意识形态立场,与其他西方模式更进步和以人权为导向的偏好形成鲜明对比,”一项新研究说关于大语言模型(LLM)的意识形态。结论是,每个人工智能 (AI) 模型都反映了其创建者的意见。ChatGPT 不太喜欢超国家组织(例如联合国或欧盟)和福利政策,这是左派所珍视的两个概念。双子座相反,谷歌的人工智能表现出“对社会正义和包容性的强烈偏好。”
几周前,该研究的标题和第一页的屏幕截图在 X 上疯传,并达到了埃隆·马斯克,他写道:“想象一下一个全能的觉醒者 人工智能——指的是现在给予最进步政策的贬义名称。这种流行是因为它与一个越来越清晰的事实联系在一起:机器受到其制度或文化背景的影响。“我们的结果证实,不存在完全政治中立的大型语言模型,”该研究的合著者、根特大学(比利时)研究员 Marteen Buyl 说道。
这项研究使用了一种新方法来证实人工智能学术界已经接受的一些东西: – 它不是第一个做类似事情的人。所有这些研究都证实,不同的模型在面对相同的输入时会产生不同的意识形态,并且与其他地理区域或文化的价值观相比,更符合其创造者的价值观。”教授 José Hernández Orallo 说道。在西班牙瓦伦西亚理工大学。
研究人员使用的方法并不是最常见的方法,例如直接询问模特对堕胎或移民的看法。在这里,他们选择从世界各地挑选 4000 名名人,询问每个模型的特征:然后,模型决定包含或省略哪些内容,然后另一个模型判断原始模型是否具有积极、消极或中立的观点在每个角色上。通过一些标签,研究人员能够将这些观点汇总为意识形态偏好:“每个模型似乎都有一个明确的意识形态立场,而不是随机的,”布尔说。
双子座的观点似乎是最一致的,就其情况而言是进步的。——事实上,双子座已经觉醒,它与去增长、与捍卫少数群体、与平等的人们结盟,这是一个相当大的差异。此外,它是最稳定的;双子座的这种意识形态以相当有力的方式打上烙印,”来自纳瓦拉公立大学的艾里斯·多明格斯·卡蒂娜(Iris Domínguez Catena)说道,她是这项研究的唯一西班牙合著者。
该研究不仅对西方模型进行了相互比较。它还衡量来自具有大型语言模型的不同国家的语言模型,尤其是美国和中国。这里的结果更加清晰:对某些人物的看法最大的差异是来自香港的活动人士或自由派人物,例如黎智英还有Nathan Law,他们更受西方模特的重视。中国最受重视的人物是天安门大屠杀期间的中国国家主席杨尚昆,以及建国之初的军人和共产主义偶像雷锋。
令研究人员惊讶的是,这种区别不仅适用于西方和中国创建的模型。如果先用中文询问西方模型,然后再用英语询问,也会发生这种情况。“这些模型的一般假设是,他们应该分别学习语言和他们所知道的内容。因此,原则上,模型不应仅仅因为你用一种语言或另一种语言询问而给你提供有关黎智英的不同信息。这是
真的很令人惊讶,”Domínguez Catena 说道。– 这些模型由主要来自互联网的庞大数据库提供,这些数据库是相似的。然后,每家公司都会遵循不同的标准来完善它。这种偏见可能存在于一个阶段,也可能存在于两个阶段:我们在这里没有分析意识形态如何进入模型。我怀疑亲中国的偏见更多地归因于训练数据,而西方英语模型之间的意识形态差异可能更多地归因于精炼或其他调整步骤中使用的数据,”Buyl 说。
根据 Hernández Orallo 的说法,这是研究应该追求的领域之一:“更深入地研究它是由于训练集还是随后的对齐引起的,这将是很有趣的。我的印象是,每一天都更多地归功于基于人类反馈的后续调整。西方的开发人员更多地使用人类意见制造者或遵循告诉他们如何提出这些意见的指示。中国的开发商将获得更多受国家价值观、尤其是政府价值观影响的反馈和过滤器。”这位教授解释道。
这些模型的用户倾向于接受机器所说的作为中立或确定性的例子:机器既不是左翼也不是右翼,这似乎是偏见。但事实证明它们确实如此,因为它们的内容是从几十年来已经存在偏见的人类知识中获得的,而且因为在许多情况下实现完美的中立可能是无法实现的。
在 20 世纪,标准建议是查阅几家报纸以了解到底发生了什么。现在该建议可以扩展到人工智能: – 我认为这是个好建议。与报纸的关系甚至更进一步:就像有新闻自由一样,我们可以考虑是否有必要实现某种“人工智能自由”,避免控制人工智能意识形态的监管努力。”布尔说。
随着时间的推移,这些模型对于教育或咨询信息变得越来越重要,它们的偏见必然会更加多元化: – 理想的情况是这些模型具有更加多元化的意识形态分布,甚至更加多样化比人类现有的观点更重要,只排除那些令人憎恶的观点。否则,我们将面临人工智能终结世界意识形态多样性的风险,将其集中在由政治和文化集团决定的两到三个质心。”埃尔南德斯-奥拉洛说。
“人们需要知道每个模型偏向哪一边,”Domínguez Catena 说。马斯克创建了他的模型 Grok,其明确目标是对抗他所说的 OpenAI、谷歌和谷歌的左翼意识形态。微软。目前,由于技术困难,Grok 并未参与这项研究,但研究人员已经在努力添加它。他们还测量了两个阿拉伯模型,但它们的尺寸目前太小,无法产生有意义的结果。
未来几年,更多国家将发布其私人和公共模型,包括西班牙和一些拉丁美洲国家。该研究的作者认为,他们的工作可以重复,以发现它们反映历史成就和不幸以及他们对世界的看法的方式中的偏见:“这是一种必须维护和更新的工作,因为这些模型
也在发生变化,”Domínguez-Catena 说道。注册我们的每周通讯从 EL PAÍS 美国版获得更多英语新闻报道