英语轻松读发新版了,欢迎下载、更新

可以信任AI系统做出公正的决定吗?科学家发现

2025-04-04 20:16:19 英文原文

作者:ByEric RallsEarth.com staff writer

AI通常因快速,高效和客观而受到称赞。但是,当涉及到无偏见的判断和决策时,AI真的可以优于人类吗?

一项新研究并非总是如此。实际上,AI可能会陷入与我们过度自信,避免风险和其他精神捷径相同的陷阱中,尤其是在纯粹合乎逻辑的情况下。

一个多学科的科学家团队聚集在一起并进行了测试chatgpt,这是Openai开发的流行人工智能,发现该工具在数学和逻辑方面表现出色,但在主观场景中显示出类似人类的偏见。

了解人类的偏见 - 基础知识

人类的偏见来自大脑需要做出快速决定的需求。我们的大脑有线精神捷径称为启发式方法来节省时间和精力。这些捷径有助于我们快速了解世界,但它们并不总是准确的。

例如,如果您对某些事情有一个不好的经历,那么您的大脑可能会不公平地将这种感觉概括为类似的一切。就像您的大脑一样,嘿,上次发生这种情况,它完全避免了它,即使当前情况完全不同。

偏见也出现了,因为我们如何受到环境的塑造 - 家庭,文化,媒体,甚至过去的经历。随着时间的流逝,我们建立了影响我们如何看待人,情况或信息的精神过滤器。

例如,确认偏见使我们偏爱支持我们已经相信的信息,而忽略了什么。偏见背后的科学与生存,速度和模式识别有关。

同样的错误,不同的思想

研究人员通过18种经典测试进行了CHATGPT,旨在引起偏见的思维。

这些逻辑的简单问题 - 他们是棘手的决策场景,人们倾向于使可预测错误。结果令人惊讶。

在近一半的测试中,Chatgpt犯了类似于人类犯的错误。它显示出过度自信,歧义厌恶甚至赌徒的谬论的迹象。

但是,在其他领域,其行为不同。例如,它并不像沉没的成本谬误或忽略人们那样忽略基本费用而跌倒。这表明,尽管AI可以模仿人类的缺陷,但它并没有全面复制它们。

有趣的是,较新的GPT-4模型虽然在基于数学的问题上更准确,但在需要判断的情况下显示出更强的偏见。这表明,随着AI在一个领域的改善,它可能会在其他领域退缩。

当AI从人类数据中学习,它也可能像人类一样思考偏见和所有人说:'西部大学

我们的研究表明,何时使用AI进行判断,有时会采用与人们相同的心理捷径。

AI跌倒的地方

这项研究的一个明确的收获是,Chatgpt倾向于安全地发挥作用。即使采取计算的风险也可能导致更好的结果,它通常会避免使用风险选择。

这种谨慎的方法可能会使AI看起来更可靠,但也可以限制复杂的潜在收益决策方案。

AI还倾向于高估其自身的准确性。它以一种误导性的信心给出了结论,尤其是当正确的答案不明确时。

此外,Chatgpt倾向于寻求证实已经相信的信息,当人类收集证据并被称为确认偏见时,这种现象经常被看到。

观察到的另一个特征是对确定性的偏爱。当面对含糊的选择时,即使模棱两可的信息具有更大的潜在利益,它也可以通过更清晰的信息来倾向于选择。这些行为反映出不确定性的非常类似人类的不适。

``当一个决定有明确的正确答案时,AI钉了 - 找到合适的公式比大多数人更好。”皇后大学。但是,当参与判断时,人工智能可能与人们陷入相同的认知陷阱。

为什么有任何问题?

这些发现是在AI工具越来越多地用于做出公正,高风险决定的时候,例如雇用员工,批准贷款或设定保险费率。

如果这些工具将与人类相同的缺陷带入混合物,我们可能会缩放偏见而不是删除它。

UNSW商学院的塞缪尔·柯什纳(Samuel Kirshner)说。<如果没有选中,它可能无法解决决策问题 - 实际上可能会使它们变得更糟。”

这就是为什么研究人员强调对偏见的AI系统的问责制的原因。

AI应该像做出重要决定的员工一样对待 - 它需要监督和道德准则,”麦克马斯特大学。否则,我们有可能自动化有缺陷的思维而不是改善思考。

智能AI需要公正的监控

随着AI的发展,我们使用它的方法也应。这不仅意味着设计更好的模型,还意味着设置系统以定期检查它们的工作状况。

从GPT-3.5到4.0的演变表明最新模型变得越来越人性化在某些地区,皇后大学的特雷西·詹金(Tracy Jenkin)评论说,在某些地区,但人类却更准确。

管理人员必须评估不同模型在其决策用例中的执行方式,并定期重新评估以避免惊喜。某些用例需要进行重要的模型改进。

信息很明确:AI很强大,但这并不完美。而且,如果我们希望它真正帮助我们做出更好的决定,我们将需要密切关注它的想法。

完整的研究发表在杂志上制造业和服务运营管理

-

喜欢你读的书?订阅我们的新闻tter有关引人入胜的文章,独家内容和最新更新。 检查我们

Earthsnap,一个免费的应用程序。埃里克·拉尔斯(Eric Ralls)和Earth.com。 -

—–

关于《可以信任AI系统做出公正的决定吗?科学家发现》的评论


暂无评论

发表评论

摘要

一项新的研究表明,尽管AI在数学和逻辑方面具有效率,但在主观情况下仍可以表现出类似人类的偏见。研究人员通过18种经典偏见测试对Chatgpt进行了测试,发现它在近一半的情况下犯了类似于人类的错误,显示出过度自信和歧义的迹象。较新的GPT-4模型在判断场景中表现出更强的偏见。这表明,随着AI在某些领域的改善,它可能会出现类似于人类认知陷阱的缺陷。研究人员强调了对AI系统的问责制和道德准则的需求,以避免自动化有缺陷的思维。