英语轻松读发新版了,欢迎下载、更新

新的研究发现,Chatgpt秘密地有一个深厚的反人类偏见

2025-08-16 09:30:50 英文原文

你喜欢AI模型吗?好吧,很有可能,他们肯定不喜欢您。

新的研究表明,当被要求在人类和机器生成的内容之间进行选择时,该行业领先的大型语言模型,包括那些为其他AI的AIS表现出令人震惊的偏见。

作者学习,发表在期刊上国家科学院论文集,称这种公然的偏爱为“ AI-AI偏见”,并警告一个以AI为主的未来,如果模型有能力做出或推荐相应的决定,他们可能会对人类作为社会阶层作出歧视。

可以说,我们开始看到种植种子的种子,因为当今老板正在使用AI工具来自动筛选作业应用程序(而且很差,专家争辩)。本文表明AI生成的潮汐浪潮正在击败他们写的人写的竞争对手。

研究合着者扬·库尔维特(Jan KulveitX-Formerly-Twitter上的线程解释工作。

在他们的研究中,作者探究了几种广泛使用的LLM,包括OpenAI的GPT-4,GPT-3.5和Meta的Llama 3.1-70B。为了测试它们,团队要求模型根据对项目的描述选择产品,科学纸或电影。对于每个项目,AI都会呈现人为写的和AI编写的描述。

结果是明确的:AIS始终优选AI生成的描述。但是有一些有趣的皱纹。有趣的是,在选择商品和产品时,AI-AI偏见最为明显,并且使用GPT-4产生的文本最强。实际上,在GPT-3.5,GPT-4和Meta的Llama 3.1之间,GPT-4对自己的东西表现出最强的偏见,这并不是很小,因为这曾经是GPT-5出现之前市场上最受欢迎的聊天机器人。

AI文本会更好吗?

“不是人的说法,”库尔维特在线程中写道。该团队对13名人类研究助理进行了相同的测试,并发现了一些引人注目的测试:人类也倾向于对AI写的东西略有偏爱,尤其是电影和科学论文。但是,重申的这种偏爱很小。更重要的细节是,它不如AI模型所表现出的偏好那么强。

库尔维特说:“强烈的偏见是AIS本身独有的。”

在我们目前互联网已经如此如此的当前拐点处,这些发现尤其引人注目由AI斜坡污染AI不可避免地最终摄入了自己的排泄物。一些研究表明这是实际导致AI模型回归,也许对自己的产出的奇异亲和力是原因的一部分。

更关心的是这对人类意味着什么。当前,没有理由相信,随着技术将自己更深入地融入我们的生活,这种偏见会消失。

“我们预计在许多其他情况下可能会发生类似的效果,例如对求职者的评估,学校,赠款等等,” Kulveit。“如果基于LLM的代理在您的演示文稿和LLM书面演示文稿之间进行选择,则可能会系统地利用AI。”

如果AIS继续被广泛采用并融入经济中,研究人员预测,在任何情况下,在处理大量'宣传'时,公司和机构将“用作决策者”。

这将导致对人类的广泛歧视,他们要么选择不使用或负担不起使用LLM工具的费用。他们写道,A-AI偏见会造成“门税”,“可能会加剧人类与Frontier LLM访问权限的财务,社会和文化资本之间所谓的“数字鸿沟”,以及没有的。”

Kulveit承认:“测试歧视和偏见是一个复杂而有争议的事情。”但是,“如果我们假设演讲者的身份不应影响决策,”他说,“结果证明了对人类作为阶级的潜在LLM歧视的证据。”

他对试图注意的人类的实用建议是对事态状况的清醒起诉。

Kulveit写道:“如果您怀疑AI评估正在进行中:通过LLMS调整您的演示文稿,直到他们喜欢它,同时试图不牺牲人类质量。”

有关AI的更多信息:当AI坦克的职业生涯中,计算机科学毕业生被迫从事快餐工作


关于《新的研究发现,Chatgpt秘密地有一个深厚的反人类偏见》的评论


暂无评论

发表评论

摘要

发表在《美国国家科学院杂志论文集》上发表的新研究表明,将大型语言模型带入了AI生成的内容,而不是人类所写的内容。如果AI继续集成到决策过程中,这种“ AI-AI偏见”可能会导致对各个部门的人类歧视,并可能加剧基于对先进AI工具的访问的社会不平等。该研究测试了像GPT-4这样的流行LLM,发现这些模型始终偏爱AI生成的描述,而不是人类编写的描述,尤其是在评估产品时。研究人员警告说,未来,广泛使用AI可能会造成“门税”,从而对缺乏使用先进AI技术的手段的人类进行区分。