人们同情被欺负的AI机器人 - 神经科学新闻

2024-10-17 18:28:31 英文原文

作者:Neuroscience News

摘要:人们同情被排除在虚拟游戏之外的AI机器人,将它们视为需要公平待遇的社会存在。参与者倾向于给AI机器人一个公平的游戏机会,老年人更强烈地表现出纠正这种感知不公平的愿望。

研究人员指出,人工智能机器人具备类似人类的特质会引发社会反应,这引发了关于在社交环境中设计AI的问题。未来的AI设计可以通过创建避免过于人性化特征的机器人来考虑人类的同理心,帮助用户区分AI与真实的社交互动。

关键事实:

  • 研究参与者倾向于表现出同情心,即使这意味着包括被排除在外的AI机器人。
  • 年长的参与者对不公平的人工智能待遇表现出更强的反应。
  • 设计者被鼓励避免在AI中加入过多的人类特征以保持区分。

来源:伦敦帝国学院

伦敦帝国理工学院的一项研究显示,人类对被排除在游戏时间之外的AI机器人表示同情并保护它们。

研究人员表示,这项使用虚拟球类游戏的研究强调了人类倾向于将人工智能代理视为社会成员的倾向——在设计人工智能机器人时应考虑这一倾向。

该研究发表在人类行为与新兴技术.

This shows a sad little robot.
这意味着用户可能会直观地将虚拟代理视为真正的团队成员并与他们进行社交互动。信用: Neuroscience News

该论文的主要作者、帝国理工学院戴森设计工程学院的 Jianan Zhou 说:“这是人类与人工智能互动的独特见解,对它们的设计和我们的心理学具有令人兴奋的影响。”

人们在访问服务时越来越需要与AI虚拟代理互动,许多人还将它们用作社交互动的伴侣。然而,这些研究结果表明,开发者应避免将代理设计得过于像人类。

资深作者、帝国理工学院戴森设计工程学院的Nejra van Zalk博士说:“虽然有一小部分但不断增加的研究显示,人类对待AI虚拟代理是否将其视为社会成员存在矛盾的结果。这提出了关于人们如何感知和与这些代理互动的重要问题。”

我们的研究结果显示,参与者倾向于将AI虚拟代理视为社会性存在,因为他们如果感觉到AI被排除在外,就会尝试将其纳入抛球游戏中。

这种情况在人与人的互动中很常见,尽管我们的参与者知道自己是在向一个虚拟代理抛球,他们仍然表现出同样的倾向。有趣的是,这种效应在年长的参与者中更为强烈。

人们不喜欢排斥行为——即使是针对人工智能也是如此

同情他人并采取行动纠正不公平似乎是大多数人类天生就会做的事情。之前不涉及人工智能的研究发现,人们倾向于通过更多地把球传给被孤立的目标来补偿他们,并且人们也往往不喜欢那些实施排他行为的人,同时对受害者感到偏爱和同情。

为了进行这项研究,研究人员观察了244名人类参与者在观看另一个玩家在游戏中排除AI虚拟代理的情况下作出的反应。这个游戏叫做“Cyberball”,在这个游戏中,玩家会在屏幕上互相传递一个虚拟球。参与者的年龄在18到62岁之间。

在某些游戏中,未参与的人类玩家多次将球扔给机器人,而在其他游戏中,未参与的人类玩家则明显地排除了机器人,只将球抛给另一位参与者。

参与者被观察并随后接受了调查,以了解他们在机器人受到不公平对待后是否更倾向于将球传给它以及原因。

他们发现大多数时候,参与者试图通过更多地将球抛给机器人来纠正对机器人的不公平待遇。年长的参与者更有可能察觉到这种不公平。

人类谨慎

研究人员表示,随着人工智能虚拟代理在协作任务中越来越受欢迎,与人类的互动增加可能会提高我们的熟悉度并触发自动处理。这意味着用户很可能会直觉上将虚拟代理视为真正的团队成员并与他们进行社交互动。

这被认为可能在工作协作方面具有优势,但当虚拟代理被用作朋友来替代人类关系,或者作为身体或心理健康顾问时,可能会令人担忧。

Jianan说:“通过避免设计过于像人类的代理,开发人员可以帮助人们区分虚拟和真实的互动。他们还可以针对特定年龄段进行定制设计,例如,考虑到我们不同的个人特征如何影响我们的感知。”

研究人员指出,Cyberball可能并不能代表人类在现实场景中的互动方式,后者通常是通过书面或口头语言与聊天机器人或语音助手进行的。这可能会与一些参与者的使用预期产生冲突,并引发一种陌生感,影响他们在实验中的反应。

因此,他们现在正在设计类似的实验,使用面对面的交谈,在不同的情境下与代理进行交流,例如在实验室环境中或更随意的场合。这样,他们就可以测试他们的发现能够延伸到什么程度。

关于这项人工智能和心理学研究新闻

作者:海莉·邓宁
来源: 伦敦帝国学院
联系人:海莉·邓宁 – 伦敦帝国学院
图片:图片来自Neuroscience News

原创研究:开放访问。
人类盲目地将人工智能虚拟代理视为社会存在,但这种倾向在年轻人中减弱:来自Cyberball实验的证据周建楠等人的文章"人类行为与新兴技术


摘要

人类盲目地将人工智能虚拟代理视为社会存在,但这种倾向在年轻人中减弱:来自一项Cyberball实验的证据

“社会存在”的观点在人工智能虚拟代理的设计和研究中产生了重大影响。人类真的将这些代理视为社会存在吗?

为了测试这一点,我们进行了一项2(网络球条件:排斥vs公平)×2(同伴类型:机器人vs人类)的在线实验,采用网络球范式;我们调查了参与者如何反应N当他们观察到在Cyberball中一个AI虚拟代理被排斥或受到另一个人类公平对待时的反应,并将我们的结果与人类之间的Cyberball研究结果进行了比较。

我们发现参与者不假思索地应用了包容的社会规范,通过更多地把球抛给被排斥的代理来补偿它,就像人们对待被排斥的人类一样。

这一发现表明,个体倾向于无意识地将人工智能虚拟代理视为社交主体,支持了媒体等同理论;然而,年龄(而非其他用户特征)影响了这种倾向,年轻参与者较少无意识地应用包容规范。

我们还发现,参与者对被排斥的代理表现出更多的同情,但他们并没有因为人类玩家的排斥行为而贬低人类玩家;这表明参与者没有将AI虚拟代理视为与人类相当的对象。

此外,我们还发现了两个其他的探索性发现:代理使用频率与同情心之间的关联,以及积极使用体验的延续效应。

我们的研究推进了人类与代理交互的人文方面的理论理解。实际上,它为人工智能虚拟代理的设计提供了启示,包括考虑社会规范、谨慎使用类似人类的设计以及针对不同年龄段的目标定位。

关于《人们同情被欺负的AI机器人 - 神经科学新闻》的评论


暂无评论

发表评论

摘要

摘要:人们同情被排除在虚拟游戏之外的AI机器人,将它们视为需要公平对待的社会存在。研究人员表示,随着AI虚拟代理在协作任务中越来越受欢迎,与人类互动的增加可能会增强我们的熟悉度并触发自动处理。他们还可以根据不同年龄段的人类特征如何影响我们的感知来调整其设计。“人类无意识地将AI虚拟代理视为社会实体,但这种倾向在年轻人中减弱:来自Cyberball实验的证据”由Jianan Zhou等人撰写。我们还发现,参与者对被排斥的代理表现出更多的同情心,但他们并未因人类玩家的排挤行为而贬低其价值;这表明参与者并没有有意识地将AI虚拟代理与人类视为相当。