英语轻松读发新版了,欢迎下载、更新

人们对AI有同理心……当他们认为这是人时

2025-07-01 10:23:00 英文原文

对AI聊天课程的研究表明,如果人们认为这是人类,人们往往会对聊天机器人产生更多同情。

涉及6,282名参与者的九项研究发现,除非被告知他们正在与人交谈,否则人类更有可能拒绝基于LLM的聊天机器人的情感支持。

自然行为发表的研究说,一些AI模型“表现出与社会情感状况相关的非凡能力,并模仿人际情感反应,例如同情,同情和关怀”。

它指出,AI可能有助于进行社交互动并提供情感支持,因为较早的研究表明,LLM驱动的工具可以确定人类的情绪状态,并且他们的反应可以被认为是同理心。

耶路撒冷希伯来大学副教授阿纳特·佩里(Anat Perry),她的同事们研究了主题对AI对话的回应。参与者告诉参与者,即使他们都来自AI,他们的回答是由人类或AI聊天机器人撰写的。

尽管受试者对所有反应都有一定的同情,但他们对他们错误地认为来自人类的回应有更多同情。他们也很乐意等待更长的时间,从显而易见的人反应中得到回应。

“与AI属于AI的反应相比,人类成立的反应被评为更加同理心和支持,更积极和更少的负面情绪。此外,参与者自己的未实现AI有助于AI帮助人类所归类的响应有助于降低了同理心和支持的响应。情感分享和关怀,”研究人员说。

“此外,人们在寻求情感参与时始终如一地选择人类的互动。这些发现提高了我们对同理心,特别是人AI的同理心相互作用的一般理解。”

研究论文认为这是一个有趣的结果,尤其是从表面上看,LLM实际上比人类具有更多的同情心。

它引用了表明移情是艰苦工作的研究。通常,人们经常不会抓住另一个人的观点,并且在疲倦或烧毁时不会同情。他们可能还会避免同理心,因为它正在征税。

该论文说:“与人类相反,LLM可以通过分析词组的模式和关联来准确地捕捉我们的情感状况,并且它们会立即这样做,而不会累人或全神贯注。这些模型表现出令人印象深刻的推断情绪状态的能力。”

其他研究表明,这可能是一条双向街道:LLM可以显示出明显的情绪压力的迹象。今年早些时候,一项在自然界发表的研究发现,当GPT-4受到创伤性叙事,然后要求回答来自国家特征焦虑量表的问题时,其焦虑评分从没有/低焦虑的基线到一个持续的高度焦虑的状态“显着上升”。

虽然对聊天机器人的推断情绪状态的某些怀疑是有道理的,但值得记住的人在告诉人工诗歌以外的人类诗歌以外的人表现不佳。

去年11月发表的一项研究建议读者将人写的诗的复杂性误认为是由人工智学创造的不一致,并低估了人类般的生成性AI的出现。®

关于《人们对AI有同理心……当他们认为这是人时》的评论


暂无评论

发表评论

摘要

一项涉及6,282名参与者的研究发现,如果人们认为机器人是人类,人们对聊天机器人表现出更大的同情。除非了解到他们的人类互动,否则参与者不太可能接受大语模型(LLM)的聊天机器人的情感支持。这项在《自然人类行为》上发表的研究强调,AI可以提供社会和情感支持,但在归因于人类来源时被认为更加善解人意。在不同的情况下观察到了这种看法,参与者在寻求情感参与时表现出对人类互动的偏爱。该研究表明,尽管LLMS在理解和回应情绪方面表现出了非凡的能力,但由于对AI同理心的偏见,人们通常认为它们比人类的支持小于人类。