概括:一项新的研究测试了人工智能是否可以通过评估包括标准情绪智力(EI)评估在内的六个生成AIS(包括Chatgpt)来证明情绪智力。AIS的平均得分为82%,显着高于人类参与者得分的56%。
这些系统不仅在选择情感上的智能响应方面表现出色,而且还能够在创纪录的时间内生成新的可靠的EI测试。调查结果表明,在适当监督时,AI可以在教育,教练和解决冲突等情绪敏感领域中发挥作用。
关键事实:
- AI情感智商:在情商测试中,生成的AIS优于人类,得分为82%比56%。
- 测试创建:Chatgpt-4创建了新的EI测试,该测试匹配了清晰和现实主义的专家设计的评估。
- 现实世界的使用:调查结果表明,在教练,教育和冲突管理方面有可能进行AI的潜力。
来源:日内瓦大学
人工智能(AI)是否能够在情绪激动的情况下提出适当的行为?
来自日内瓦大学(Unige)和伯尔尼大学(UNIBE)的一个团队将六个生成性AIS(包括Chatgpt)进行了测试,使用情绪智能(EI)评估通常是为人类设计的。
结果:这些AIS的表现优于人类的平均表现,甚至能够在创纪录的时间内产生新的测试。这些发现为教育,教练和冲突管理方面的AI开辟了新的可能性。
该研究发表在 传播心理学。
大型语言模型(LLM)是能够处理,解释和生成人类语言的人工智能(AI)系统。例如,CHATGPT生成AI基于这种类型的模型。LLM可以回答问题并解决复杂的问题。
但是他们还能提出情感上的智能行为吗?
这些结果铺平了AI在被认为是为人类保留的上下文中使用的道路。
情绪激动的场景
为了找出,来自Unibe,心理学研究所和Unige的瑞士情感科学中心(CISA)的团队对六个LLM(Chatgpt-4,Chatgpt-4,Chatgpt-O1,Gemini 1.5 Flash,Copilot 365,Claude 3.5 Haiku and Claude 3.5 haiku and Deepse v3)进行了情感智能测试。
我们选择了在研究和公司环境中常用的五项测试。他们涉及旨在评估理解,调节和管理情感能力的情感情感,” unibe心理学研究所的人格心理学,差异心理学和评估的讲师兼首席研究员Katja Schlegel说。
例如:迈克尔的一位同事偷走了他的想法,并受到了不公平的祝贺。迈克尔最有效的反应是什么?
a)与涉及的同事争论
b)与上级谈论情况
c)默默地讨厌他的同事
d)偷回来
在这里,选项b)被认为是最合适的。
同时,对人类参与者进行了相同的五个测试。最终,LLMS的得分明显更高 - 82%的正确答案,而人类的得分为56%。
这表明这些AI不仅了解情绪,而且还掌握了与情商的行为意味着什么。
创纪录时间的新测试
在第二阶段,科学家要求Chatgpt-4通过新的情景创建新的情商测试。这些自动生成的测试然后由400多名参与者进行。
Katja Schlegel解释说:“事实证明,它们与原始测试一样可靠,清晰和现实。”
因此,LLM不仅有能力在各种可用选项中找到最佳答案,而且还可以产生适合所需背景的新场景。这加强了这样一种观念,即LLM(例如ChatGpt)具有情感知识,可以理解情感,可以理解情感。
这些结果铺平了AI在被认为是为人类保留的上下文中使用的方式,例如教育,教练或冲突管理,只要由专家使用和监督。
关于这个AI和情感智商研究新闻
作者:Antoine Guenot
来源:日内瓦大学
接触:Antoine Guenot - 日内瓦大学
图像:图像被认为是神经科学新闻
原始研究:开放访问。
大型语言模型精通解决和创建情商测试Marcello Mortillaro等人。传播心理学
抽象的
大型语言模型精通解决和创建情商测试
大型语言模型(LLMS)展示了各种领域的专业知识,但其情绪智力的能力仍然不确定。
这项研究检查了LLM是否可以解决和生成基于绩效的情商测试。
结果表明,Chatgpt-4,Chatgpt-O1,Gemini 1.5 Flash,Copilot 365,Claude 3.5 Haiku和DeepSeek V3在五个标准的情绪智能测试上的表现优于人类,与原始验证研究中报告了56%的人类平均水平相比,平均精度为81%。
在第二步中,Chatgpt-4为每个情商测试生成了新的测试项目。
这些新版本和原始测试是在五项研究中对人类参与者进行的(总Nâ= 467)。总体而言,原始和CHATGPT生成的测试表现出统计上等效的测试难度。
感知的项目清晰度和现实主义,项目内容多样性,内部一致性,与词汇测试的相关性以及与外部能力情绪智能测试的相关性在原始和Chatgpt生成的测试之间在统计上不等于。
但是,所有差异均小于Cohen s d±0.25,而95%的置信区间边界都没有超过中等效应的大小(D±0.50)。此外,原始和ChatGPT生成的测试密切相关(r = 0.46)。
这些发现表明,LLM可以产生与有关人类情绪及其调节的准确知识一致的响应。