人工智能的不公平决定可能会让我们对人类的不良行为漠不关心

2024-11-14 16:35:12 英文原文

作者:Luca Cian

人工智能 (AI) 做出的重要决策会影响我们的日常生活。这些决定是由公司和机构以效率的名义实施的。他们可以帮助确定谁进入大学、谁找到工作、谁接受医疗以及谁有资格获得政府援助。

随着人工智能扮演这些角色,做出不公平决策或受影响的人对决策的看法的风险越来越大。例如,在大学招生或招聘,这些自动决策可能会无意中偏向某些群体或具有特定背景的人,而同样合格但代表性不足的申请人却被忽视。

或者,当政府使用时福利制度人工智能可能会以加剧社会不平等的方式分配资源,让一些人得到的比他们应得的少,并产生受到不公平待遇的感觉。

我们与国际研究团队一起研究了不公平的资源分配(无论是由人工智能还是人类处理)如何影响人们采取行动反对不公平的意愿。结果已发表在《认知》杂志上

随着人工智能越来越融入日常生活,政府正在介入,保护公民免受有偏见或不透明的人工智能系统的影响。这些努力的例子包括白宫的人工智能权利法案,以及欧洲议会的人工智能法案。这些反映了一个共同的担忧:人们可能会对人工智能的决定感到不公平。

那么,经历人工智能系统的不公平会如何影响人们事后对待彼此的方式呢?

人工智能引发的冷漠

我们在《认知》上的论文研究了人们在经历人工智能的不公平待遇后是否愿意采取行动反对不公平。我们研究的行为适用于这些人随后的、不相关的互动。行动的意愿在这种情况下,通常被称为“亲社会惩罚”,被认为对于维护社会规范至关重要。

例如,举报人可能会不顾风险举报不道德行为,或者消费者可能会抵制他们认为行为有害的公司。参与这些亲社会惩罚行为的人通常这样做是为了解决影响他人的不公正现象,这有助于加强社区标准。

Representation of AI

Anggalih Prasetya / Shutterstock

我们提出了这个问题:经历人工智能(而不是人)的不公平会影响人们日后对抗人类不法行为者的意愿吗?例如,如果人工智能不公平地分配轮班或拒绝提供福利,是否会降低人们事后举报同事不道德行为的可能性?

通过一系列实验,我们发现,与受到人类不公平对待的参与者相比,受到人工智能不公平对待的人事后惩罚人类不法行为者的可能性更小。他们对他人的不良行为表现出一种麻木不仁的态度。我们将这种效应称为人工智能引起的冷漠,以体现人工智能的不公平待遇会削弱人们对他人的责任感的想法。这使得他们不太可能解决社区中的不公正现象。

不作为的原因

这可能是因为人们较少将不公平待遇归咎于人工智能,因此他们感觉不太有动力采取行动反对不公正。即使参与者仅遇到他人的不公平行为或同时遇到公平和不公平行为,这种效果也是一致的。为了看看我们发现的关系是否受到对人工智能熟悉程度的影响,我们在发布后再次进行了相同的实验。2022 年 ChatGPT。我们在后面的一系列测试中得到了与之前的测试相同的结果。

这些结果表明,人们对不公平的反应不仅取决于他们是否受到公平对待,还取决于谁对待他们不公平——人工智能还是人类。

简而言之,人工智能系统的不公平待遇会影响人们彼此的反应,使他们不太关注彼此的不公平行为。这凸显了人工智能对人类社会潜在的连锁反应,其影响超出了个人对单一不公平决策的体验。

当人工智能系统表现不公平时,其后果会延伸到未来的互动,影响人们如何对待彼此,即使在与人工智能无关的情况下也是如此。我们建议人工智能系统的开发者应该关注最大限度地减少人工智能训练数据中的偏差以防止这些重要的溢出效应。

政策制定者还应该建立透明度标准,要求公司披露人工智能可能在哪些方面做出不公平的决定。这将帮助用户了解人工智能系统的局限性,以及如何挑战不公平的结果。对这些影响的认识的提高也可以鼓励人们对不公平保持警惕,尤其是在与人工智能互动之后。

对不公平待遇的愤怒和责备对于发现不公正现象和追究不法行为者的责任至关重要。通过解决人工智能意想不到的社会影响,领导者可以确保人工智能支持而不是破坏建立在正义之上的社会所需的道德和社会标准。

关于《人工智能的不公平决定可能会让我们对人类的不良行为漠不关心》的评论


暂无评论

发表评论

摘要

人工智能在影响教育、就业、医疗保健和政府援助等生活各个方面的决策中发挥着至关重要的作用。然而,对人工智能的日益依赖引发了人们对公平和透明度的担忧,并有可能加剧社会不平等。发表在《认知》上的研究表明,经历人工智能带来的不公平可能会导致“人工智能引起的冷漠”,由于对不道德行为的不敏感,个人在事后不太可能解决人类的不当行为。无论是否熟悉人工智能技术,这种效应都会持续存在。政策制定者和开发人员必须专注于减少人工智能系统中的偏见并提高透明度,以减轻这些社会影响并维护道德标准。