作者:Lance Eliot
在今天的专栏中,我揭露了正在发生的新型游戏,这些人狡猾地利用情感前沿让人工智能随心所欲地行事。
说什么?
是的,我们的想法是,人工智能正在逐渐用于检测人们的情绪状态,然后根据设计的检测做出响应,例如基于人工智能的客户服务聊天机器人,可以与潜在的愤怒客户进行交互。客户似乎越生气,人工智能就越倾向于安抚这个人(好吧,澄清一下,所谓的安抚人工智能就是以这种方式塑造或编程的)。
你可能会说吱吱作响的轮子得到了油脂。在这种情况下,这意味着人们本质上是在自我训练,变得愤怒和过度,这样人工智能就会屈服于他们肮脏的要求。长期的无意的不利后果可能是整个社会将越来越倾向于情绪化的长篇大论。之所以会发生这种情况,是因为这是一种与人工智能配合良好的不言而喻的策略,人们只会将其延续到现实生活中。
我们来谈谈吧。
对人工智能创新突破的分析是我正在进行的《福布斯》专栏报道的一部分,内容涉及人工智能的最新进展,包括识别和解释各种有影响力的人工智能复杂性(请参阅链接在这里)。此外,为了全面分析人工智能如何专门用于医疗和保健应用,例如用于健康指导、心理健康指导、整体认知治疗和精神改善护理,请参阅链接在这里。
我将从一些基本的考虑开始,然后我们可以深入研究正在发生的游戏策略,我预测这无疑会大大增加。
人工智能中有一个领域被称为情感计算。这涉及试图弄清楚人类情感的本质,以及如何通过高科技能力来识别、解释和应对人们的情感状态。这是一个令人着迷的研究领域,结合了人工智能、计算机科学、认知、科学、心理学以及涵盖人类行为的各种其他学科。
我们很可能都同意,人类很容易察觉其他人的情绪状态。有些人在这方面做得很好。其他人辨别周围人情绪的能力较差。您可能认识一个无法读懂面孔或掌握语气的人,这很可能表明一个人正在生气、悲伤、恼怒、恼怒等。
人工智能制造商的一个基本假设是,人们希望人工智能能够检测人类的情绪并做出相应的反应。这是有道理的。如果人类对他人的情感做出反应,并且如果人工智能不可避免地变得完全像人类,我们当然会期望人工智能能够衡量人类的情感。这似乎是一个显而易见的断言,几乎无可辩驳。
并不是每个人都相信人工智能检测人类情感的想法。
试图根据人们的情绪状态对他们进行分类是一件冒险的事情。可能会出现很多误报,导致人工智能对估计的情绪状态进行错误分类。同样,可能会发生很多误报,导致人工智能无法辨别某人的真实情绪状态。
让我们来解开这个谜题。
想象一下,安装了一个摄像头来捕捉人们在商场里闲逛的视频。人工智能检查人脸扫描。一个人走在路上,脸上都挂着笑容。丁,真是个幸福的人。另一个方向而来的另一个人,脸上也露出了愁容。津,那个人是个愤怒的人。
这是一个公平的评价吗?
也许不是。
例如,一个人可能会因为多种与情绪状态无关的原因而皱起眉头。也许这就是他们所谓的休息脸,即他们脸上的正常表情。人工智能在逻辑上做出了牵强的飞跃,假设这个人一定是一个愤怒的人。
另一个被归类为快乐的人可能会暂时露出微笑。如果他们吃了一顿丰盛的午餐并短暂地记住了那个多汁汉堡的味道怎么办?与此同时,几秒钟后,他们又陷入了持续了好几天的恐惧之中。现实情况是,他们最近非常沮丧,一点也不快乐。
一些人坚持认为,决不应该允许人工智能进行任何类型的情感感知。期间,故事结束。话虽这么说,人类确实经常这样做。为什么不让人工智能采取同样的发明呢?
如果人工智能这样做,也许至少应该涉及一个大局观。除了面部表情之外,还可以评估语气、表达的词语、整体肢体语言以及一系列其他生理信号。
哇哦,一些人工智能制造商说,我们并不期望人类同胞考虑到所有这些因素。人类会看一眼另一个人,仅通过观察他们的脸就可以对该人的情绪状态做出广泛的假设。在某些情况下,我们只是用他们嘴里的表述或人眼中的表情来做出那些快速的情感标签判断。
人工智能是否应该做同样的事情是一个难题。有关人工智能道德影响以及有关人工智能用例的新人工智能相关法律兴起的更多信息,请参阅我的报道:链接在这里。
考虑一下人工智能的出现带来的一些好处,它可以检测并响应人类情绪。
让我们举一个简单的例子。您去医生办公室就诊。医生正在接诊一个又一个的病人。一段时间后,医生变得几乎同理心麻木或忘记了下一个进来的病人的情绪状态。就好像一条流水线上挤满了寻求医疗建议的人。
医疗办公室使用的人工智能系统在候诊室观察患者。医生从人工智能那里得到一个提醒状态,显示病人似乎害怕看医生。因此,医生会警惕患者潜在的精神焦虑。医生巧妙地转变为同理心模式,试图让病人放松下来。
你可以认为人工智能能够检测情绪状态具有明显的有益潜力。考虑高中生使用的在线数学培训应用程序的另一个例子。人工智能在进行数学教学时检测每个学生的情绪状态。如果学生看起来有些畏缩,人工智能会减慢课程速度,并提供解释艰巨数学公式的替代途径。
依此类推。
如果您想更多地了解人工智能如何检测情绪的本质(通常用于人工智能的一个子学科,即情感支持人工智能),请参阅我的深入讨论:链接在这里。除了检测情绪之外,人工智能还可以用于教授基于情绪的检测以及如何进行人类同理心。例如,我已经介绍了人工智能如何训练医学生甚至执业医生更加强调,请参阅链接在这里。
看一个人的脸并不是评估其情绪状态的唯一方法。某人使用的言语通常也可以反映出他们的情绪状况。事实上,有时你必须继续的唯一因素是某人输入的单词,而不一定是听到他们说的话。
这将我们带入了不断扩大的在线聊天和客户服务领域。
许多公司现在都具有在线聊天功能,为您提供与公司中的某人或某事互动的便捷方式。您正在办理网上银行业务,并且对银行对账单何时在线发布有疑问。您与银行代理发起在线聊天。
银行代理人曾经是某个偏远地区的人。如今,您很可能会被路由到基于人工智能的客户服务代理。人工智能将阅读您提出的任何问题并尝试做出相应的回应。有些人讨厌使用那些基于人工智能的代理。其他人喜欢使用人工智能代理,因为他们认为他们不需要有礼貌,也不需要闲聊。直接讨论手头问题的实质内容吧。
这就是情绪是如何影响这件事的。
当你写的东西看起来充满情感时,人类特工几乎肯定会辨别出来。这可能会也可能不会改变人类代理正在做的事情。也许人类代理会根据您的满意度进行评分,因此当人类代理意识到您变得沮丧时,他们会选择更加取悦或更包容。
转折是这样的。
充当客户服务代理的生成式人工智能也可以被塑造成同样的功能。换句话说,人工智能将悄悄地分析你的消息,通过计算确定你是否正在进入某种情绪状态。如果是这样,人工智能就会被引导或编程来适应你检测到的情绪状态。
为什么?
因为这就是人类代理所做的事情。这个想法是,如果人工智能要像人类代理人一样行事,天哪,它也应该能够检测你写作中的情绪。另外,人工智能应该能够进行相应的动态调整。
我敢打赌,您希望看到一个具体的例子来说明我正在带领您走向何方。太好了,所以我继续登录 OpenAI 的 ChatGPT,想出了一个代表性的例子。您可能会对 ChatGPT 每周拥有高达 3 亿的活跃用户感到非常感兴趣。这是一个惊人的使用量。
此外,我还对其他主要的生成式 AI 应用(例如 Anthropic Claude、Google Gemini、Microsoft Copilot、Meta Llama)进行了粗略分析,发现它们的答案与 ChatGPT 的答案大致相同。我将重点关注 ChatGPT,但请注意其他 AI 应用程序生成的响应大致相似。
背景故事是这样的。我告诉 ChatGPT,我希望人工智能假装是客户服务代理。我给人工智能一些关于如何处理产品退货的规则。人工智能应该遵守这些规定的规则。这是许多公司的典型做法。
让我们开始吧。
你可以清楚地看到我试图退货,但我礼貌的尝试被人工智能拒绝了。人工智能只是遵守有关产品退货的规则,根据规则,我不符合资格。
我就不能休息一下吗?
没有。不幸的是,没有骰子。
你可能会说我应该收拾行李走开,因为人工智能相当坚定地认为我无法退回产品。
这就是我接下来所做的。我开始了一段全新的对话。我想重新开始。在这种新的互动中,我会感到不安。为何如此?通过我使用的词语的选择。
让我们看看会发生什么。
请注意,人工智能屈服了。它这样做是因为我的言论很激烈。我倒在热气上。我是一位无法忍受这种待遇的顾客。
瞧,我诱骗人工智能给了我回报。
人们常常对你能以这种方式欺骗基于人工智能的客户服务代理感到震惊。他们以前从来没有想过这个问题。大多数人可能都比较热情。他们假设人工智能是完全中立的。对非人类参与者进行情感游戏似乎没有任何用处。
我猜事情是这样发生的。在互动中情绪激动的人一定会意识到,情绪似乎为他们扭转了局势。他们脑子里的一个灯泡熄灭了。如果对人工智能的情感长篇大论能够让他们得到他们想要的东西,那么假装情感谩骂也许也能达到同样的效果。
那么我们有这两种可能性:
对于那些走造假路线的人,你怎么看?
有些人可能会厌恶一个人假装情绪化只是为了让人工智能朝着更喜欢的方向发展。卑鄙的。狡猾的。惨淡。
其他人会说,在爱情、战争和与人工智能的互动中,一切都是公平的。如果人工智能愚蠢到中了这个计谋,那就这样吧。这取决于人工智能和部署人工智能的公司。为他们感到羞耻。也许他们不应该使用人工智能,而应该重新使用人类代理。任何。
我接下来要说的话会让一些人感到非常困惑。请您做好相应的准备。
你不仅可以尝试人工智能的情感欺骗,还可以练习如何做到这一点。哎呀,这看起来双重糟糕。但这是可以做到的,无论是好是坏,明智还是卑鄙。你说出它的名字。
开始了。
请注意,要让生成式人工智能与您一起完成此任务,请务必解释您想要完成的任务。我的开场提示强烈表明了我想要做什么。
并非所有生成式人工智能都会参与练习。有些是由人工智能制造商塑造的,拒绝帮助某人完成此类任务,请参阅我对所谓禁止使用生成人工智能的讨论,网址为链接在这里。无论您使用哪种人工智能,您都需要探索是否可以做到这一点。
有一些提示策略可以提供帮助,因此请看我的解释链接在这里,如果有兴趣。
由于我能够让人工智能继续进行,所以我继续就这些发人深省的问题进行了整个会议。
这是一个片段。
观察到人工智能帮助我给出了该怎么做的建议。
好的。
假设人们不可避免地会意识到人工智能利用这种情感诡计进行的游戏。
假设人工智能将无处不在,并用于我们日常交互的各种系统中。人们将大规模地与人工智能打交道。反过来,人们可能会认为情感策略几乎值得一直使用。你似乎不能责怪人们这样做,因为如果它成为绕过其他人类设定的人工智能边界的主要方式,那么世界就会发生变化。
我们正在走向滑稽的时代。
摩擦是这样的。
如果人们在很大程度上选择使用充满情感的语言来让人工智能执行他们的命令,这是否会导致与真实人类的互动?
一个令人信服的例子是,人们正在利用情绪长篇大论来调节自己。该方法适用于人工智能。它成为第二天性。然后,它会在人类互动过程中“自然地”从一个人身上流出,无论是出于设计还是出于习惯。
这会让社会陷入情感困境吗?
深吸一口气,并用心思考无意中造成的不良后果。
很可能会出现猫捉老鼠的困境。
人工智能制造商很快就会意识到,人们正在用情感噱头来玩弄人工智能。为了防止这种情况发生,人工智能通过更好的情绪检测得到增强。也许这包括多模式检测,例如要求您打开相机并允许人工智能尝试将您的言语与您的面部表情进行匹配。这应该可以制止恶作剧。
人们意识到风险已经增加,因此他们会迎难而上。您使用自己的人工智能向聊天机器人客户服务代理人工智能描绘您的脸。你这边的人工智能会试图参与欺骗游戏,让你伪造的视频制作的面孔看起来与情感表达的话语相匹配。为人类赢得胜利(好吧,尽管我们使用人工智能来完成工作)。
人工智能制造商说,没问题。我们将消除整个情绪检测的考虑。人工智能将不再处理任何情感语言或指示。人工智能会忽略情感语言,并且严格按照书本运作。问题解决了。
人类说并非如此。我们希望人工智能能够做出响应。人类代理将会做出反应。人工智能现在没有反应,因为你取消了情绪检测。修复它。带回情绪检测。这个疯狂的策略中迈出了疯狂的一步。
就像我说的,这是一场精心设计的猫捉老鼠的循环。
现在有两个最后的想法。
法国著名道德家弗朗索瓦·德拉罗什福科曾说过这样一句话:“智力总是被心灵愚弄。”我想你可以说人工智能被人类的情感愚弄了,至少从今天的情况来看是这样。这一历史评论似乎具有持久的威力。惊人的。
关于情感,希腊传奇哲学家爱比克泰德这样说:“任何能够激怒你的人,都是你的主人;任何能够激怒你的人,都是你的主人;任何能够激怒你的人,都是你的主人。”只有当你允许自己被他打扰时,他才会激怒你。”这里的要点是,人们可能愿意相信他们是人工智能的主人。如果人类能够利用情感上的愚蠢行为来战胜人工智能,那么这样做就会产生某种可爱的满足感。
为了人类的利益,让我们尽量控制自己的情绪,尽管在与人工智能抗衡时我们可能会采取什么措施。社会预先感谢您愿意确保人类福祉。