情绪监控的兴起
作者:Ellen Cushing
至少对我来说,好消息是计算机认为我性格很好。根据一款名为 MorphCast 的应用程序,在最近一次与老板的会面中,我总体上“很有趣”、“很坚定”、“很有兴趣”,但“起诉我”,偶尔“不耐烦”。你看,MorphCast 旨在收集深入的见解以及使用人工智能变幻莫测的人类情感。它发现我的情感是“积极的”和“主动的”,而不是消极和/或被动的。我的注意力相当高。此外,人工智能还告诉我,我戴着眼镜——启示性的!
坏消息是,软件现在声称可以利用人工智能来洞察人类情感的深度和变幻莫测,而且它正在注视着你。如果还没有——例如,Morphcast 已将其技术授权给一家心理健康应用程序,一个监控学童的计划关注,以及麦当劳,该公司在葡萄牙发起了一项促销活动,扫描应用程序用户的面部和为他们提供个性化优惠券基于他们(假定的)心情。它是许多从事类似工作的此类公司之一——行业术语是情感人工智能或有时情感计算。
有些产品分析会议、工作面试或焦点小组的视频;其他人听音频以了解音调、语气和词语选择;还有一些人可以扫描聊天记录或电子邮件,并输出有关员工情绪的报告。有时,情感人工智能会作为多用途软件的一项功能融入其中,或者作为面向企业的昂贵分析包的一部分出售。但它也可以作为独立产品提供,并且进入门槛非常高:我免费使用 MorphCast,利用免费试用版,并且没有特殊软件。我从来没有被迫询问我的对话者是否同意以这种方式进行分析(尽管我确实问了,因为我的性格很好)。
每一项成功的技术都需要找到一个人们愿意花钱解决的问题。就情感人工智能而言,到目前为止,这个问题主要是工人的绩效和生产力,特别是在客户服务和蓝领劳动力方面。如果您曾经被警告说您的电话正在受到质量保证目的的监控,那么很可能电话另一端的人正在接受情感人工智能的评估:保险巨头大都会人寿和许多其他企业一样,用途用于监控呼叫中心代理的音调和语气的软件。货运公司使用眼球追踪器、高灵敏度记录设备和脑电波扫描仪来发现驾驶员痛苦或疲劳的迹象。汉堡王是驾驶嵌入员工耳机中的人工智能聊天机器人将评估他们的互动是否友善。她的名字叫帕蒂。
2022年,作家科里·多克托罗理论化的关于他所谓的“糟糕的技术采用曲线”:他写道,采掘技术首先出现在处于不稳定环境中的人们(比如低工资工作),然后才被完善和规范化并带给处于更高权力地位的人们。“每门学科技术,”他后来写道, – 从人们从梯子上往下开始,然后逐级爬上梯子。 –
情感人工智能的下一步是白领工作。Slack 集成 Aware 宣传其能够持续监控有关“情绪和毒性”的消息;Azure,微软的云计算软件,也允许雇主理论上,使用人工智能批量分析工人的聊天消息。MorphCast 的 Zoom 扩展曲目实时满足参与者的注意力、兴奋感和积极性。情感人工智能公司 Imentiv建议向客户介绍将情绪分析应用于求职面试过程,向雇主承诺对候选人的情绪参与度、强度和效价以及性格类型进行详细分析。多家人力资源公司正在转向将情绪分析应用于员工调查的人工智能。Framery,生产隔音手机盒和卖掉它们微软和欧莱雅等公司经测试为椅子配备了能够测量心率、呼吸频率和紧张程度的生物传感器。
去年,欧盟禁止情绪人工智能在工作场所中使用,除非出于医疗或安全原因使用。(该规定促使成立于佛罗伦萨的 MorphCast 迁至湾区。)但据报道,情况仍然如此一个估计随着技术变得更加复杂和更加可用,全球情感人工智能市场预计到 2030 年将增长两倍,达到 90 亿美元。对我来说,不难想象在不久的将来,所有行业的工人不仅会更加努力、更加努力地工作,而且会更加快乐、更加愉快地工作。这是员工监控的新时代:隐形、人工智能增强、始终在线。
从根本上来说,拥有一份工作就是用一定的自由换取一定的金钱。“管理者或公司想要密切关注员工的工作并不是一个新概念,”康奈尔大学信息科学副教授凯伦·利维 (Karen Levy) 告诉我。利用新技术追踪人们的情绪未经他们同意的做法也不是什么新鲜事——看看 2010 年代的 Facebook。对员工的隐私保护也普遍缺乏:尽管各州的规定有所不同,但美国联邦法律赋予雇主广泛的许可,可以监控员工在公司时间、财产和设备上的大部分行为,以扫描通信并记录视频和音频,即使员工下班时也是如此。
几十年来,工人受到的保护不是法律,而是现实:他们的信息可能是可以收集的,但分析如此大量的信息实际上是不可能的。不再。在过去的几年里,出现了一批公司使用位置跟踪器、击键记录器、摄像头和麦克风等技术来提取有关员工如何度过时间的复杂而细致的信息,有时甚至精确到分钟。(员工们反过来想出了一些解决方法,例如鼠标抖动器和击键模拟器。)但产品与其说是数据,不如说是这些公司将数据转化为叙述的能力:“人工智能驱动的系统现在可以分析 100% 的交互,而不是传统方法典型的 1-3% 的样本量,确保没有任何遗漏”,一家呼叫中心监控公司网站上的促销文案读。
随着广泛的员工监控的技术条件已经具备,文化和经济条件也已经具备。这场大流行迫使比以往任何时候都多的工人进行远程工作,远离老板的视线。雇主和雇员之间的信任是坦克。经济衰退已经被许诺了很多年,在我们等待的同时,人工智能正在颠覆就业市场:目前监视呼叫中心工作人员等工人的技术可能很快就会完全取代他们,与此同时,企业正在裁员数万人,并寻找其他方式用机器取代他们。数据的可用性以及用于检查此类信息的工具已将人力资源从曾经的定性学科转变为“人员分析. – 在遭受了多年来针对性强的广告和有关数据泄露的新闻报道的轰炸后,许多美国人已经陷入了一种状态隐私虚无主义,我们知道我们的所有数据都被收集和利用,即使我们不想过多考虑这一点。
销售数字监控的公司宣传各种用例:工人安全、心理健康、组织效率、减少医药和交通等高风险领域的倦怠。(在 First Horizon Bank,人工智能监控呼叫中心员工的压力和向他们展示图片蒙太奇当水平太高时,他们的家庭就会受到影响。)实际上,这些公司似乎也在出售对工人生产力的实证评估,精确到分钟。一个2022年纽约时报调查研究发现,美国 10 家最大的私人雇主中有 8 家跟踪个体工人的生产力。在一项民意调查,37% 的雇主表示他们曾使用存储的录音来解雇工人。
但其中许多工具的问题在于,它们并不擅长做他们声称可以做的事情。击键跟踪器不一定知道无意识打字和集中知识生产之间的区别;某人的应用程序使用情况的细分并不能明确告诉您他们在应用程序内所做的工作的类型和质量。在联合健康集团,时代研究发现,一个用于监控疗效(并帮助设定补偿)的程序会因键盘不活动而与社会工作者对接,即使他们离线的原因很充分:他们正在与患者进行咨询。(联合健康集团承认时代它监控员工,但指出绩效评估涉及多种因素。)
如果计算机是直接生产力的有缺陷的分析师,那么想象一下,现在将相同的技术应用于像人类可表达的情感星座这样复杂的事物。一项又一项的研究表明,人工智能会复制其训练数据的偏差。(2018 年,时任维克森林大学信息系统和分析学教授的 Lauren Rhue,研究过NBA 球员照片和情绪识别人工智能;她发现,技术发现黑人球员比他们的白人队友更愤怒——甚至在某些情况下,如果他们微笑的话。)许多情感人工智能产品的标准都以临床心理学家为基础保罗·埃克曼的理论基本情绪理论认为,所有人都会经历相同的六种核心情绪:愤怒、厌恶、恐惧、快乐、悲伤和惊讶。该理论已被受到广泛挑战自首次出版以来的几十年里,它过于简单化且在方法论上存在缺陷。
肢体语言这是一个已经成为陈词滥调的比喻,但任何一个花很多时间与其他人打交道的人都知道每个人都说着不同的方言。“你的动作,”神经科学家和心理学家丽莎·费尔德曼·巴雷特告诉我,“无论是在你的脸上、你的身体上,还是你发出的语气,都没有固有的情感意义。它们具有相关的意义。 – 它们根据对话的背景、对话者的相貌、文化、室温、氛围而有所不同。
巴雷特说,研究表明,在美国,大约 35% 的人在生气时会皱眉。这意味着皱眉相对可能是愤怒的表达。这也意味着,如果您只关注皱眉的情况,您会错过大约 65% 的生气案例。当人们皱起眉头时,有一半的时间他们根本没有生气。“想象一下你正在参加工作面试的情况,”她说。– 你非常仔细地听对方说话,你在听的时候皱着眉头,因为你非常非常密切地关注,人工智能将你标记为生气。你不会得到那份工作。”
医院呼叫中心员工在与患者谈论病情时口头表达悲伤,可能会被解读为表达了不恰当的缺乏温暖或欢乐的情绪。快餐店员工专心聆听某人的订单可能会被视为心烦意乱。尽管 MorphCast 应用程序喜欢我,但 2026 年我在一家新闻编辑室工作,很容易想象我的小情绪旋钮会因为与我个人愉悦感无关的原因而漂入“消极”象限。
HireVue——一个职位筛选平台,其客户包括宜家、再生元制药公司和费城儿童医院使用人工智能来面试和分析求职者和寻求晋升的员工。在 2025 年的一份法律投诉中,美国公民自由联盟 (ACLU)据称HireVue 平台在金融软件公司 Intuit 无障碍团队的一名聋人面试中没有提供足够的字幕。该员工的晋升被拒绝;在她收到的解释这一决定的电子邮件中,建议她“练习积极倾听。”(HireVue 和 Intuit有争议这些主张。)
巴雷特多年来一直在研究情绪心理学。在我们的谈话即将结束时,我问她希望更多的人了解情感人工智能。首先她问是否允许她说脏话。“我已经谈论这个他妈的十年了,”她说。“我的意思是,从字面上看,目前有数百项涉及成千上万人的研究表明,当涉及到情绪时,变化是常态。”换句话说,认为情绪可以客观测量或分析的想法是幻想。
包装这项技术的公司以及购买该技术的其他公司确实提出了一些很好的观点。他们说,人类也有偏见。在采访中,一些公司的代表向我讲述了他们的算法能够揭示仅凭印象无法揭示的模式。技术会变得更好——这是人工智能的承诺:它从错误中吸取教训。
但如果情况好转了,那又怎样呢?大多数时候,关于情感人工智能和类似工具的讨论都集中在可能出错的地方——混乱的信号、不完美的分析、同理心的皱眉、被用来解雇员工的垃圾科学。我使用 MorphCast 的次数越多,我就越开始担心相反的情况:一个机器人嵌入我的收件箱和我的 Zoom 帐户的世界可以实际上说出一些关于我的情绪状态的有意义且真实的事情;一个除了我之外的世界工作工作中,我的工作是让情感机器人认为我足够开朗;在这个世界里,我的每一个无意识的面部表情都会影响我养活家人的能力。我一直都知道我的工作场所对我拥有广泛的影响力,但我不需要把它说得那么字面意思。“我的意思是,有很多关于这类事情的科幻故事是有原因的,”康奈尔大学信息科学家利维告诉我。
Levy 写了一本关于情感计算和其他形式的生物识别监控在卡车运输行业的部署方式的书,该行业由于其劳动力的流动性和分散性,长期以来一直不受监控。但在 2016 年,联邦政府开始强制要求进行电子记录,以减少过度劳累并避免发生事故。然而,持续的监视增加了其自身的压力,但并没有真正减少事故发生。利维说,从历史上看,卡车司机有一种“非常显着的自豪感”,并且“有很大的自主权,可以按照他们认为合适的方式完成工作。”她说,随着计算机开始观察,这种自豪感已经被剥夺了。“我认为,对于以某种相当亲密的方式或与人们的身体和空间有关的相当细化的方式被监视,确实有一种非常强烈的关注。”我很高兴计算机喜欢我,但我更希望它根本不认识我。