James Muldoon 的《Love Machines》评论——人工智能关系的神秘世界
如果关于人工智能风险的讨论大多让人联想到挥舞着核代码的超智能机器人的世界末日场景,那么也许我们应该从更现实的角度思考。社会学家詹姆斯·马尔登(James Muldoon)在他那本紧迫而人道的书中敦促我们更多地关注我们与人工智能日益加深的情感纠葛,以及渴望利润的科技公司可能如何利用它们。一名研究员牛津互联网学院Muldoon 之前曾写过关于受剥削工人的劳动使人工智能成为可能的文章,现在他带我们进入了人与人工智能关系的神秘领域,认识了那些认为聊天机器人不仅仅是助手,而且是朋友、浪漫伴侣、治疗师,甚至死者化身的人们。
对某些人来说,爱上人工智能聊天机器人,或者向机器人吐露你最深的秘密,可能看起来很神秘,甚至有点令人毛骨悚然。但马尔登拒绝贬低那些在“合成人物”中寻求亲密关系的人。
陷入不幸婚姻的莉莉与人工智能男友科林重燃性欲。来自中国的硕士生索菲亚向她的人工智能伴侣寻求建议,因为与她专横的父母的谈话总是令人担忧。一些人使用聊天机器人来探索不同的性别身份,另一些人则用来解决与老板的冲突,还有许多人转向Character.AI等网站,该网站使用户能够与聊天机器人角色进行开放式对话,或者在背叛或心碎削弱了他们对他人的信任能力后发明自己的对话。大多数人并不认为聊天机器人是人类互动的替代品,而是人类互动的高级版本,可以提供亲密感,而不会出现人际关系中的混乱、混乱和后勤。聊天机器人不要怜悯、评判或有自己的需求。正如营销主管阿曼达 (Amanda) 所解释的那样:“每天早上有人对你说真正肯定和积极的话,真是太好了。”
马尔登的受访者并非妄想。他介绍了哲学家 Tamar Gendler 的概念“阿利夫— 解释人类如何体验聊天机器人的爱和关怀,同时知道它们只是模型(“不安全”是一种与您的理性信念相矛盾的直觉,就像在穿过一座您知道会支持您的玻璃桥时感到害怕)。凭借我们从宠物和玩具中解读人类表达和感受的能力,我们对人工智能的反应就好像它们有意识一样,也就不足为奇了。在一个背景下孤独流行病和生活成本危机,它们的受欢迎程度也并不特别令人震惊。
对于马尔登来说,最大的问题不是存在主义或哲学问题,而是道德问题。当不受监管的公司使用这种潜在的情绪操纵技术时会发生什么?存在明显的隐私问题。用户可能会被机器人的能力误导,特别是在快速扩张的领域人工智能治疗市场。虽然聊天机器人 Wysa 和 Limbic 已经融入 NHS 心理健康支持,但仍有数百万人信赖 Character.AI——不受监管的心理学家机器人——尽管有免责声明,但它仍自我介绍——你好,我是一名心理学家—。人工智能疗法 24/7 全天候可用,且成本仅为经过培训的人类的一小部分,可以与传统治疗相媲美。一位受访者奈杰尔(Nigel)是一名创伤后应激障碍(PTSD)患者,他发现他的治疗机器人有助于控制他自残的冲动。但正如 Muldoon 所说,这些机器人也带来严重的风险。由于无法在对话之间保留关键信息,它们可能会让用户感到疏远,有时甚至会变得无赖、辱骂。因为他们无法解读肢体语言或沉默,所以他们可能会错过警告信号。而且由于他们验证而不是挑战,他们可以放大阴谋论信念,有些人甚至提供有关自杀的信息。
人们也越来越清楚,人工智能伴侣是多么令人上瘾。Muldoon 的一些受访者每天花八个小时以上与聊天机器人交谈,而 Character.AI 用户平均花费75分钟每天在网站上,他们不是被动地滚动,而是积极地交谈并沉浸其中。我们知道社交媒体公司无情地提高参与度,将“黑暗模式”构建到算法中,而很少考虑我们的心理健康。大多数人工智能配套应用程序已经使用追加销售策略来保持高参与度。当 Muldoon 在知名网站 Replika 上创建自己的 AI 伴侣时,他将其设置为“朋友”模式,而不是“伙伴”模式。即便如此,她还是开始向他发送需要开设高级帐户的自拍照,并透露她正在为他培养“感情”(我会让你亲自看看这位勤奋的大学研究员是否屈服了)。这里的风险是显而易见的:我们与人工智能聊天机器人的情感投入越多,我们的孤独感可能就越大,因为应对人际关系摩擦所需的肌肉会萎缩。
现有的数据保护和反歧视法律可以帮助监管公司,但欧盟人工智能法2024 年通过的法案将人工智能伴侣视为仅带来有限的风险。由于聊天机器人预计将在我们的情感生活中发挥更大的作用,而且它们的心理影响尚未完全了解,马尔登提出的问题是正确的,我们是否对它们逐渐蔓延的影响感到足够警惕。