英语轻松读发新版了,欢迎下载、更新

您信任AI做出重要决定的多远?研究表明统计素养形状的信任

2025-02-17 21:32:04 英文原文

作者:by University of South Australia

AI
图片来源:照片爱好,Unsplash

从量身定制的Netflix建议到个性化的Facebook供稿,人工智能(AI)熟练地提供与我们的偏好和过去行为相匹配的内容。但是,虽然一两个餐厅的小费很方便,但是如果AI-Algorithm负责您的医学专家或新员工,您会有多舒适?

现在,南澳大利亚大学的一项新研究表明,大多数人更有可能在赌注较低的情况下,AI(例如音乐建议),但在高风险情况下(例如医疗决策)信任AI的可能性较小。

但是,那些统计素养差或对AI的熟悉程度很少的人与对批判性决定的算法相同。

这项研究是出版在日记中人工智能的前沿

研究人员评估了20个国家 /地区的近2,000名参与者的回应,发现统计素养对信任的影响有所不同。知道AI-Algorithm通过基于模式的预测(但也具有风险和偏见)来工作的人更加持怀疑态度,但在高风险情况下,在低风险情况下却较少。

他们还发现人们通常,在日本,美国和英国等高度工业化国家中的人们和算法都更加谨慎。

了解人们如何以及何时信任AI-Algorithm是必不可少的,尤其是当社会继续引入和采用机器学习技术时。AI的采用率急剧上升,现在有72%的组织在其业务中使用AI。

首席作家,人工认知专家Fernando Marmolejo-Ramos博士说,智能技术被用来外包决策的速度超过了我们的理解,以成功地将它们整合到社会中。

“算法在我们的生活中越来越有影响甚至正义,” Marmolejo-Ramos博士说。

“但是使用算法来帮助做出决定意味着应该对它们的可靠性充满信心。这就是为什么了解什么影响人们对算法决策的信任是如此重要。我们的研究发现,在低赌注的情况下,例如餐厅的建议或音乐选择,具有较高统计素养水平的人更有可能信任算法。

“然而,当赌注很高时,对于健康或就业等事物而言,相反的情况是正确的;那些具有更好统计理解的人不太可能对算法充满信心。”

UNISA的佛罗伦萨·加布里埃尔(Florence Gabriel)博士说,应该集中精力促进一般人群中的统计和AI素养,以便人们可以更好地判断何时信任算法的决定。

“ AI生成的Gabriel博士说:“仅与数据和编码一样好。我们只需要查看最近禁止DeepSeek即可掌握算法如何根据其构建的内容产生偏见或风险的数据之上。

“另一方面,当通过可信赖和透明的来源(例如为南澳大利亚学校的定制构建Edchat Chatbot)开发出算法时,它更容易受到信任。学习这些区别很重要。人们需要更多地了解如何了解如何了解算法有效,我们需要找到与用户需求和疑虑相关的清晰,简单的方式来实现此问题的方法。

“人们关心算法的作用以及它如何影响它们。我们需要清晰,无术的解释,与用户的关注和环境保持一致。这样,我们可以帮助人们负责任地与AI互动。”

更多信息:Fernando Marmolejo-Ramos等人,影响算法决策的信任的因素:基于间接方案的实验,人工智能的前沿(2025)。doi:10.3389/frai.2024.1465605

引用:您信任AI做出重要决定的多远?研究表明统计素养形状信任(2025年,2月17日)检索2025年2月17日摘自https://techxplore.com/news/2025-02-i-important-decisiss-statistist-literacy.html

该文档具有版权。除了为私人研究或研究目的的任何公平交易外,没有未经书面许可,可以复制部分。内容仅用于信息目的。

关于《您信任AI做出重要决定的多远?研究表明统计素养形状的信任》的评论


暂无评论

发表评论

摘要

南澳大利亚大学的一项新研究表明,人们通常会在音乐推荐等低风险情况下更信任AI,但在医疗决策等高风险场景中不太可能信任它。统计素养差的参与者同样信任AI,无论股份低还是高。该研究发表在人工智能领域的边界,强调了了解人们如何以及何时将信任信任算法决策制定的重要性,尤其是随着AI的采用率在全球范围内继续上升。