英语轻松读发新版了,欢迎下载、更新

研究表明,AI和人类一样过于自信和偏见。

2025-05-04 12:00:00 英文原文

作者:Drew Turney

Illustration of opening head with binary code
(图片来源:Sean Gladwell/Getty Images)

虽然人类和人工智能(AI)系统“思考”差异很大,新的研究表明,AIS有时会像我们一样在非理性上做出决定。

在一项新研究中,几乎一半的场景中,Chatgpt表现出许多最常见的人类决策偏见。4月8日出版。制造业和服务运营管理,这些发现是第一个评估Chatgpt在人类心理学中发现的众所周知的认知偏见中的行为的结果。

该论文的作者来自加拿大和澳大利亚的五个学术机构,测试了OpenAI的GPT-3.5和GPT-4 - 为ChatGpt提供动力的两种大语言模型(LLMS),并发现他们的推理中“令人印象深刻的一致”,但它们远非免疫对人类般的缺陷。

作者说,此外,这种一致性本身具有积极和负面影响。

“经理将通过将这些工具用于具有清晰,公式化解决方案的问题。”杨陈Ivey商学院的运营管理助理教授陈述。“但是,如果您将它们用于主观或偏好驱动的决定,请仔细踩踏。”

这项研究采用了众所周知的人类偏见,包括规避风险,过度自信和end赋效应(在其中我们为拥有的物品分配了更多价值),并将其应用于给出的提示,以查看它是否会陷入与人类相同的陷阱。

理性的决定有时

科学家在库存管理或供应商谈判之类的领域中询问了从传统心理学以及现实世界中的商业适用性中提出的LLMS假设问题。目的是不仅要了解AI是否会模仿人类的偏见,而且还要在询问来自不同商业领域的问题时仍会这样做。

将世界上最迷人的发现直接传递到您的收件箱中。

GPT-4在回答清晰数学解决方案的问题时的表现优于GPT-3.5,在概率和基于逻辑的方案中显示出更少的错误。但是,在主观模拟中,例如是否选择有风险的选择来实现收益,聊天机器人通常反映了人类倾向于显示的非理性偏好。

研究人员在本文中写道:“ GPT-4比人类更强烈地偏爱确定性。”指的是AI倾向于倾向于采取模棱两可的任务时AI倾向于更安全,更可预测的结果。

更重要的是,无论问题是抽象的心理问题还是运营业务流程,聊天机器人的行为仍然保持稳定。研究得出的结论是,偏见不仅仅是记忆示例的产物,而是AI原因的一部分。

这项研究的令人惊讶的结果之一是GPT-4有时会放大类似人类的错误的方式。作者在研究中写道:“在确认偏见任务中,GPT-4总是做出偏见的反应。”与GPT 3.5相比,它还显示出对热手谬论(随机性期望模式的偏见)更明显的趋势。

相反,Chatgpt确实避免了一些常见的人类偏见,包括基本率忽视(我们忽略了统计事实,而不是统一事实,而不是轶事或特定于案例的信息)和沉没成本的谬误(在决策中受到已经维持的成本的影响,从而允许无关紧要的信息来掩盖判断的信息)。

根据作者的说法,Chatgpt的类似人类的偏见来自培训数据,其中包含认知偏见和启发式人类的展览。这些趋势在微调过程中得到了加强,尤其是当人类反馈进一步有利于合理反应而不是理性反应时。当他们提出更模棱两可的任务时,AI偏向于人类推理模式,而不是直接逻辑。

Chen说:“如果您想要准确,公正的决策支持,请在您已经信任计算器的领域中使用GPT。”但是,当结果更多地取决于主观或战略性投入时,即使人类的监督也更重要,即使它正在调整用户提示以纠正已知偏见。

“应将人工智能视为做出重要决定的员工,需要监督和道德准则,”合着者Meena Andiappan加拿大麦克马斯特大学的人力资源与管理副教授在声明中说。“否则,我们有可能自动化有缺陷的思维,而不是改善思考。”

德鲁(Drew)是一位自由科学和技术记者,拥有20年的经验。在长大后知道自己想改变世界之后,他意识到,关于其他人更改它更容易。作为科学技术专家几十年来,他写了从最新智能手机的评论到深入数据中心,云计算,安全性,AI,混合现实以及介于两者之间的所有内容的所有内容。

有关人工智能的更多信息

关于《研究表明,AI和人类一样过于自信和偏见。》的评论


暂无评论

发表评论

摘要

在制造和服务运营管理上发表的新研究表明,在近一半的测试场景中,Chatgpt表现出与人类类似的非理性决策。该研究评估了18种认知偏见的OpenAI的GPT-3.5和GPT-4,发现模型令人印象深刻,但也容易发生类似人类的缺陷。尽管GPT-4在明确的数学问题中胜过GPT-3.5,但它反映了主观决策中的人类非理性。研究强调,AI的偏见源于训练数据和反馈机制,从而增强了合理但非理性的反应。作者建议仔细使用这些工具来主观决策,并强调需要进行监督以避免自动化有缺陷的思维。

相关讨论