人工智能 (AI) 能否判断您是快乐、悲伤、愤怒还是沮丧?
根据提供人工智能情绪识别软件的科技公司的说法,这个问题的答案是肯定的。
但这一说法并不能与越来越多的科学证据相抗衡。
此外,情绪识别技术会带来一系列法律和社会风险,尤其是在工作场所部署时。
出于这些原因,欧盟人工智能法, 哪个8月起生效,禁止在工作场所使用人工智能系统来推断人的情绪,除非出于“医疗”或“安全”原因。
然而,在澳大利亚,尚未对这些系统进行具体监管。正如我在我的文章中所说提交澳大利亚政府在最近一轮有关高风险人工智能系统的磋商中表示,这种情况迫切需要改变。
一股新的、不断增长的浪潮
基于人工智能的情绪识别系统的全球市场生长。2022年估值为340亿美元,预计到2027年将达到620亿美元。
这些技术的工作原理是根据生物识别数据预测一个人的情绪状态,例如心率、皮肤湿度、语气、手势或面部表情。
明年,澳大利亚科技初创公司真实科技计划推出一款腕戴式设备,声称可以通过佩戴者的情绪实时追踪佩戴者的情绪心率和其他生理指标。
inTruth Technologies 创始人 Nicole Gibson已经说过雇主可以使用这项技术来监控团队的“表现和精力”或他们的心理健康状况,以预测创伤后应激障碍等问题。
她还表示,inTruth 可以成为“人工智能情感教练,了解你的一切,包括你的感受以及你为什么会有这种感觉”。
澳大利亚工作场所的情绪识别技术
关于澳大利亚工作场所部署情绪识别技术的数据很少。
然而,我们确实知道一些澳大利亚公司使用了一家美国公司提供的视频面试系统租用Vue结合了基于面部的情绪分析。
该系统使用面部动作和表情来评估求职者的适合性。例如,评估申请人是否表现出兴奋或如何回应愤怒的顾客。
租用Vue2021 年从其系统中删除了情绪分析在美国提出正式投诉后。
随着澳大利亚雇主的情绪识别可能再次上升采用人工智能驱动的工作场所监控技术。
缺乏科学有效性
inTruth 等公司声称情绪识别系统是客观且可靠的植根于科学方法。
然而,学者们担心这些系统会回归到信誉不佳的领域。颅相学和相貌。也就是说,利用一个人的身体或行为特征来确定他们的能力和性格。
情绪识别技术是严重依赖理论他们声称内心的情感是可以测量的并且是普遍表达的。
然而,最近的证据表明,人们交流情感的方式在不同文化、背景和个人之间存在很大差异。
以2019年为例,专家组结论是——无论是单独的还是作为一种模式,都没有可靠、独特和可复制的客观衡量标准来识别情感类别。例如,当某人生气时,皮肤水分可能会上升、下降或保持不变。
inTruth Technologies 创始人 Nicole Gibson 在给 The Conversation 的一份声明中表示,“情绪识别技术确实在过去面临着重大挑战”,但“近年来,情况发生了巨大变化”。
侵犯基本权利
情绪识别技术还会在没有正当理由的情况下危及基本权利。
在一个案例,情绪识别系统认为黑人面孔比白人面孔更愤怒,即使两者都微笑到相同程度。这些技术对于不同人口群体的人来说也可能不太准确未在训练数据中体现。
吉布森承认对情绪识别技术存在偏见的担忧。但她补充说,“偏差并不是技术本身固有的,而是用于训练这些系统的数据集固有的”。她说,inTruth“致力于通过使用“多样化、包容性的数据集”来解决这些偏见。
作为一种监视工具,工作场所的情绪识别系统对隐私权构成严重威胁。如果在员工不知情的情况下收集敏感信息,这些权利可能会受到侵犯。
还将有一个不尊重隐私权如果此类数据的收集不是“合理必要的”或通过“公平手段”收集的。
工人的观点
一个今年早些时候发布的调查研究发现,只有 12.9% 的澳大利亚成年人支持在工作场所使用基于面部的情绪识别技术。研究人员得出的结论是,受访者认为面部分析具有侵入性。受访者还认为该技术不道德,并且很容易出现错误和偏见。
在一个美国留学今年也发表了《员工们担心情绪识别系统会损害他们的健康并影响工作表现》的担忧。
他们担心不准确的信息可能会给他们留下错误的印象。反过来,这些错误的印象可能会阻碍升职和加薪,甚至导致解雇。
正如一位与会者所说:
我只是看不出这实际上对工作场所的少数群体有什么破坏性。