作者:by Public Library of Science
在一项新的研究中,当参与者认为人工智能具有更接近人类的思维时,他们倾向于将更大的责任归咎于涉及现实世界道德违规的人工智能。韩国首尔淑明女子大学的 Minjoo Joo 在开放获取期刊上介绍了这些发现公共科学图书馆一号2024 年 12 月 18 日。
此前的研究表明,人们倾向于将各种道德违规行为归咎于人工智能,例如自动驾驶汽车撞上行人或造成医疗或军事伤害的决定。
其他研究表明,人们倾向于将更多的责任归咎于被认为具有意识、思考和规划能力的人工智能。人们可能更有可能将这种能力归因于他们认为具有类人思维、能够体验有意识感受的人工智能。
在早期研究的基础上,Joo 假设,被认为具有类人思维的人工智能可能会因特定的道德违规行为而受到更大的指责。
为了验证这个想法,Joo 进行了几项实验,向参与者展示了各种涉及人工智能的现实世界道德违规实例(例如照片的种族主义自动标记),并询问了一些问题来评估他们对所涉及人工智能的看法,以及他们在多大程度上将责任归咎于人工智能、其程序员、背后的公司或政府。
在某些情况下,人工智能的思维感知是通过描述人工智能的名字、年龄、身高和爱好来操纵的。
在整个实验中,当参与者认为人工智能具有更像人类的思维时,他们倾向于将更多的责任归咎于人工智能。在这些情况下,当参与者被要求分配相对责任时,他们倾向于将较少的责任归咎于相关公司。但当被要求独立评估每个代理商的责任程度时,分配给该公司的责任并没有减少。
这些发现表明人工智能头脑认知是导致人工智能违规行为归咎的关键因素。此外,Joo 对滥用人工智能作为替罪羊可能造成的有害后果表示担忧,并呼吁进一步研究人工智能的归责归因。
作者补充道,“人工智能可以对道德违规负责吗?这项研究表明,将人工智能视为与人类相似会增加对人工智能的责备,同时减少对人类利益相关者的责备,引发人们对使用人工智能作为道德替罪羊的担忧。”
更多信息:这是人工智能的错,不是我的:思维感知增加了对人工智能的指责,公共科学图书馆一号(2024)。DOI:10.1371/journal.pone.0314559
引文:类人人工智能可能因道德违规而面临更大指责(2024年12月18日)检索日期:2024 年 12 月 18 日来自 https://techxplore.com/news/2024-12- human-artificial-intelligence-greater-blame.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。