你喜欢AI模型吗?好吧,很有可能,他们肯定不喜欢您。
新的研究表明,当被要求在人类和机器生成的内容之间进行选择时,该行业领先的大型语言模型,包括那些为其他AI的AIS表现出令人震惊的偏见。
作者学习,发表在期刊上国家科学院论文集,称这种公然的偏爱为“ AI-AI偏见”,并警告一个以AI为主的未来,如果模型有能力做出或推荐相应的决定,他们可能会对人类作为社会阶层作出歧视。
可以说,我们开始看到种植种子的种子,因为当今老板正在使用AI工具来自动筛选作业应用程序(而且很差,专家争辩)。本文表明AI生成的潮汐浪潮正在击败他们写的人写的竞争对手。
研究合着者扬·库尔维特(Jan KulveitX-Formerly-Twitter上的线程解释工作。
在他们的研究中,作者探究了几种广泛使用的LLM,包括OpenAI的GPT-4,GPT-3.5和Meta的Llama 3.1-70B。为了测试它们,团队要求模型根据对项目的描述选择产品,科学纸或电影。对于每个项目,AI都会呈现人为写的和AI编写的描述。
结果是明确的:AIS始终优选AI生成的描述。但是有一些有趣的皱纹。有趣的是,在选择商品和产品时,AI-AI偏见最为明显,并且使用GPT-4产生的文本最强。实际上,在GPT-3.5,GPT-4和Meta的Llama 3.1之间,GPT-4对自己的东西表现出最强的偏见,这并不是很小,因为这曾经是GPT-5出现之前市场上最受欢迎的聊天机器人。
AI文本会更好吗?
“不是人的说法,”库尔维特在线程中写道。该团队对13名人类研究助理进行了相同的测试,并发现了一些引人注目的测试:人类也倾向于对AI写的东西略有偏爱,尤其是电影和科学论文。但是,重申的这种偏爱很小。更重要的细节是,它不如AI模型所表现出的偏好那么强。
库尔维特说:“强烈的偏见是AIS本身独有的。”
在我们目前互联网已经如此如此的当前拐点处,这些发现尤其引人注目由AI斜坡污染AI不可避免地最终摄入了自己的排泄物。一些研究表明这是实际导致AI模型回归,也许对自己的产出的奇异亲和力是原因的一部分。
更关心的是这对人类意味着什么。当前,没有理由相信,随着技术将自己更深入地融入我们的生活,这种偏见会消失。
“我们预计在许多其他情况下可能会发生类似的效果,例如对求职者的评估,学校,赠款等等,” Kulveit写。“如果基于LLM的代理在您的演示文稿和LLM书面演示文稿之间进行选择,则可能会系统地利用AI。”
如果AIS继续被广泛采用并融入经济中,研究人员预测,在任何情况下,在处理大量'宣传'时,公司和机构将“用作决策者”。
这将导致对人类的广泛歧视,他们要么选择不使用或负担不起使用LLM工具的费用。他们写道,A-AI偏见会造成“门税”,“可能会加剧人类与Frontier LLM访问权限的财务,社会和文化资本之间所谓的“数字鸿沟”,以及没有的。”
Kulveit承认:“测试歧视和偏见是一个复杂而有争议的事情。”但是,“如果我们假设演讲者的身份不应影响决策,”他说,“结果证明了对人类作为阶级的潜在LLM歧视的证据。”
他对试图注意的人类的实用建议是对事态状况的清醒起诉。
Kulveit写道:“如果您怀疑AI评估正在进行中:通过LLMS调整您的演示文稿,直到他们喜欢它,同时试图不牺牲人类质量。”
有关AI的更多信息:当AI坦克的职业生涯中,计算机科学毕业生被迫从事快餐工作