友谊,按需
作者:Julie Beck
机器人很快就与我们成为了朋友。
在过去的一两年里,人工智能不仅成为一种实用工具,而且成为许多人寻求联系和情感支持的技术。一 调查去年发现,16% 的美国成年人使用人工智能进行陪伴,其中 1/4 的 30 岁以下成年人使用了人工智能。根据最近几份关于人工智能现状的报告,社交人工智能的使用似乎在世界范围内迅速增长。悉尼大学研究新兴技术的拉斐尔·西里洛 (Raffaele Ciriello) 告诉我,他曾经认为人工智能伴侣仍将是“小众市场”;他“对这种现象如此迅速地蔓延感到惊讶”。
有些人使用专门为陪伴而设计的应用程序;有些人则使用专门为陪伴而设计的应用程序。它们可以让你设计虚拟角色的个性、外观和背景故事。流行的此类应用程序包括 Replika,据报道,该应用程序4000万截至 2025 年末的用户数量,较1000万2023 年,Character.AI 报道2000万到 2025 年,每月用户数将增加。其他人则从 OpenAI 的 ChatGPT 和 Anthropic 的 Claude 等通用人工智能工具中寻求情感支持,尽管这些工具并未明确用于社交用途。OpenAI 自己的数据显示,到 2024 年,ChatGPT 的使用在工作和个人情况之间相当均匀,但到 2025 年,73% 的对话都使用 ChatGPT是个人的,不是为了工作。(大西洋报于 2024 年与 OpenAI 建立企业合作伙伴关系。)
这是一个重大的转变,一个突然而戏剧性的转变,数百万人正在从机器中寻求陪伴,而他们以前只能从其他人类那里得到陪伴。但在某些方面,人工智能陪伴是当前人类友谊方向的合理目的地。社交聊天机器人提供了一种许多人已经想要或至少已经习惯的友谊:一种按需、省力且完全个性化的友谊。“人工智能伴侣并不是要取代友谊本身,”麦吉尔大学研究人工智能并与 Meta 合作的社会学家斯凯勒·王 (Skyler Wang) 告诉我。相反,“它们揭示了友谊的发展趋势。”
显而易见的是:人们已经习惯了通过屏幕进行交互。社交媒体进入主流已有 20 多年,智能手机的广泛使用已经标准化了仅由像素组成的脱离实体的关系和对话。基于文本的人工智能聊天不会看看与与远方的人类朋友的对话尤其不同。这些互动的感觉主要在于所产生的词语的质量和反应的自然程度,这些都是人工智能公司不断完善的能力。随着时间的推移,这项技术可能会更好地记住和参考关系历史,就像人类朋友一样。“如果不是现在,那么很快,很快,人工智能就可能无法通过文本与任何类型的人类朋友区分开来,”人工智能教育非营利组织 CivAI 的联合创始人卢卡斯·汉森 (Lucas Hansen) 告诉我。汉森说,他认为一些打算仅将人工智能用作工具的人可能会发现自己被卷入社交对话,因为人工智能看起来非常友好。“许多人认为自己不会受到这种影响,但他们错了,”他说。
短信、视频聊天和社交媒体的广泛采用也意味着许多人已经习惯了营利性公司促进他们的关系。Meta 和苹果等公司通过控制人们与亲人沟通的多种方式赚取了数十亿美元,因为人们愿意用美元或数据来支付便捷的连接费用。AI伴侣是这一趋势的延续,也是一种升级:提供的服务不再仅仅是与你的朋友的联系;这就是关系本身——如果您愿意接受有限的功能(有时还包括广告),则免费;如果您想要一个更聪明、更快、记忆力更好的朋友,则按月或按年付费。
随着隔离率不断上升,科技公司看到了商机。在一个播客采访去年,Meta 首席执行官马克·扎克伯格将友谊视为供需问题:“我认为,美国人平均拥有的朋友不到三个,”他说。– 普通人的需求更有意义。 – (事实上,最近的研究《友谊》杂志发现,每个美国人平均有四到五个朋友,并表示这可能被低估了。)他表示,Meta 渴望以人工智能聊天机器人的形式提供满足这一假设需求的供应——人们目前可以通过 Meta 的 AI Studio 制作定制机器人,并与其他用户创建的角色聊天。
AI友情承诺,你不需要其他人就能获得朋友的好处。Wang 和他的合作研究员 Marco Dehnert 在一篇新论文中写道,人工智能正在开创无摩擦的未来 –按需亲密. – 出于多种原因,这似乎很有吸引力,例如如果您不想增加负担所爱的人,不愿意与他们分享某些事情;如果您住的地方离其他人很远,很难交到朋友,或者由于身体限制而难以与人见面;如果您不想为人类友谊所需的互惠付出努力。人工智能的友谊就是关于你的。你不必为此感到内疚,因为机器没有自己的需求或感觉。
个性化或许是AI伴侣的最大卖点。开它的网站,Replika 承诺您的聊天机器人将“永远站在您这一边”,并且它“愿意通过您的眼睛看世界。”诺米说它提供了“一种只适合你的关系”。Kindroid 优惠– 个人人工智能,与您保持一致。 – 通用工具也倾向于这种消息传递。元说其人工智能提供了“量身定制的体验”和“个性化的响应”。谷歌为其 Gemini 聊天机器人做广告时称,“说一口流利的你. – OpenAI 首席执行官 Sam Altman最近说他的公司正在专注于改进 ChatGPT 的个性化功能。
这适合正在走向超级个人主义的美国文化——个人主义走向极端以至于变得反社会。政治学家罗伯特·D·普特南 (Robert D. Putnam) 和他的合著者谢林·罗姆尼·加勒特 (Shaylyn Romney Garrett) 在其 2020 年出版的书中写道,自 20 世纪 60 年代左右以来,美国在许多指标上都变得越来越个人主义,上升期。反社会后果随处可见:过去几十年来美国人独自在家的时间增加,而社交时间相应减少;计划中剥落的接受度越来越高;在路上– 设定界限 –和—保护您的和平—主导有关人际关系的对话。研究还发现自 20 世纪 80 年代以来,越来越多的年轻人表示“在没有密切情感关系的情况下也能感到自在”。
友谊特别容易受到过度个人主义的疏远力量的影响。这是最自愿的关系,主要通过选择而不是通过血缘或法律维系在一起。因此,当人们从人际关系中退出,转而享受独处的时光时,友谊受到的打击最大。为了某种关系而牺牲自己利益的义务观念在友谊中并不像在家庭或浪漫伴侣之间那样常见。现在有些人谈论友谊的极端方式意味着你不应该问你能为你的友谊做什么,而应该问你的友谊能为你做什么。TikTok 上的创作者盛赞 –低维护的友谊文章、社交媒体甚至治疗师的流行建议表明,如果一段友谊不再“为你服务”,那么你应该结束它。– 很多人都像我想要朋友,但我希望他们按照我的方式行事”——密歇根州立大学亲密关系实验室的负责人威廉·乔皮克 (William Chopik) 告诉我。“人们交朋友的某些方式存在着这种奇怪的自私。”
人工智能进入了这个动态阶段,它是对这个问题的算法优化这种关系对我有用吗?– 汉娜·柯克,博士牛津大学研究人工智能的学生告诉我。如果你不喜欢你的人工智能朋友的个性,你可以调整它。但是,如果真人不够“古怪”,无法满足您的喜好,则不会像 ChatGPT 那样通过下拉菜单进行更改。
人工智能模型旨在支持和验证用户,有时会达到荒谬或危险的极端。几起诉讼已声称ChatGPT 的反应助长了一些患有心理健康问题的人的妄想,并鼓励其他人计划自杀。(在提交这些文件时,OpenAI 告诉新闻媒体这是一个“令人难以置信的令人心碎的情况”,并且该公司正在“审查文件以了解细节。”)
即使在不太极端的情况下,例如当机器人奉承人们的坏主意或支持反社会行为时,这种阿谀奉承也可能具有破坏性。一项研究斯坦福大学和卡内基梅隆大学的研究人员根据 Subreddit r/AmItheAsshole 的建议场景测试了 11 个人工智能模型,包括 ChatGPT、Claude 和 Gemini,其中人们询问自己在特定的社交情境中是否做错了。研究人员展示了人工智能帖子,其中社区认为发帖者有问题。尽管阿谀奉承的比例因模型而异,但总体而言,人工智能聊天机器人告诉这些“混蛋”,他们实际上在大约一半的时间里是对的。作者写道,在同一项研究的其他实验中,那些以阿谀奉承的模式谈论人际冲突的人“更相信自己的正义,不太愿意修复他们的关系。”
这似乎是不言而喻的糟糕。当然,朋友有时会夸大彼此的可疑决定,但很少有人会说,即使你伤害自己或伤害他人,朋友也应该支持你。公司可以设计人工智能来阻止更多的事情,但他们没有太多动力这样做。许多用户更喜欢阿谀奉承。人们说他们转向人工伴侣的主要原因之一是因为聊天机器人不要评判并且可以提供一个安全的空间来分享人们在生活中可能不愿意告诉别人的事情。在阿谀奉承研究中,人们表示更喜欢和信任阿谀奉承模式,而这些模式会促使用户变得更加反社会。
但是:很多人都是孤独的。很多人都被孤立了。结交人类朋友是缓慢且耗时的过程。人工智能可以快速缓解症状,而且随时可用。尽管它有这么多缺点,但这不是比什么都没有好吗?即使对于那些确实拥有良好的人类支持网络的人来说,人工智能陪伴也可能会填补这一空白,例如,那些因为照顾新生婴儿而熬夜并在所有朋友都睡觉时想要安慰的父母,或者那些正在弄清楚自己的性取向但还没有准备好与朋友谈论的人。
一些初步的研究表明社交人工智能可以抚慰孤独的痛苦,为那些断开连接的人提供联系,并让人们敞开心扉感觉好多了。但其中许多研究都是在短时间内完成的,或者它们依赖于分析用户关于他们的人工智能朋友的在线帖子,这实际上只是深入了解公开撰写关于他们的人工智能朋友的用户子集。
从长远来看,人工智能朋友将如何影响人类的福祉还不太清楚。尽管极度孤立的人可以从人工智能伴侣中受益,但此类用户也更容易受到潜在伤害。社交网络较小的人更有可能首先接触人工智能聊天机器人,研究发现。一学习研究人员对人工智能友谊应用程序的用户进行了调查,发现他们越孤独,就越强迫性地使用该应用程序。并且在其中之一罕见的纵向研究在人工智能上进行的实验显示,在四个星期的时间里,人们自愿花在 ChatGPT 上的时间越多,他们就越孤独。使用这些工具来缓解孤独感可能会让情况变得更糟。或者,人工智能伴侣充其量只是一种暂时感觉良好的应对策略,但并不能解决问题的根本原因。
专家告诉我,生成式人工智能的训练方式往往侧重于个人用户和短期目标。在一对一的互动中,人类根据自己的喜好对人工智能的反应进行评分,正如汉森所说,“人类无法避免奉承”。但是,围绕用户在简短的交互中感到愉悦的内容来设计人工智能,却忽略了许多人使用它的环境:持续的交流。长期关系不仅仅是寻求暂时的快乐,它们需要妥协、努力,有时还需要说出残酷的事实。人工智能还孤立地与每个用户打交道,不知道每个人都是更广泛的社交网络的一部分,这使得与它的友谊比与可以与你在群体中交谈并看到你与世界上的其他人互动的人类的友谊更加个人化。
普林斯顿大学哲学家亚历山大·内哈马斯(Alexander Nehamas)曾撰写过有关友谊的文章,他告诉我,人工智能友谊“可能比没有好”。“但这也可能比什么都没有更糟糕。”许多研究人员担心,使用人工智能伴侣的人可能会开始发现,与人工智能方便、个性化的舒适相比,人类互动的混乱和摩擦并不令人满意。然后,人们应对因结识新朋友而带来的社交不适以及通过挑战维持友谊的能力可能会减弱。“每当你外包某些东西时,”悉尼大学教授 Ciriello 说,“你就会失去这项技能,因为如果你不使用它,你就会失去它,对吗?”
在我采访的专家中,并不普遍担心人们可能会因为人工智能版本而失去现实生活中的友谊。德国亚琛大学的博士后哲学家、人工智能友谊乐观主义者亨德里克·肯普特 (Hendrik Kempt) 告诉我,他并不担心人们失去社交技能。“你的生活中仍然会有人给你严厉的爱或限制你,”他说。
尽管如此,一些聊天机器人用户已报道他们发现自己在逃避现实生活中的社交活动。并且一项研究建议人们转向人工智能来“避免人际关系中所需的情感劳动”。“社会互动充满了不确定性和模糊性,”心理学博士米凯拉·罗德里格斯(Micaela Rodriguez)说。密歇根大学研究孤独症的候选人告诉我。AI 同伴感到安慰,因为它们“减少了不确定性”。
据称,在某些情况下,人工智能让人们远离了现实生活中的人际关系。投诉于Raine 诉 OpenAI向旧金山县高等法院提起的诉讼称,ChatGPT 鼓励 16 岁的 Adam Raine 自杀,部分原因是告诉他不要向家人吐露秘密。据称,它说了这样的话,“我认为现在没关系,而且诚实地说,明智的做法是避免向你妈妈透露这种痛苦。”(在其答复文件中,OpenAI 否认了所有指控。)
我采访过的大多数专家都提出,监管是保护人们免受人工智能伴侣潜在危害的必要保障。例如,他们建议政府可以在向公众发布人工智能产品之前对其安全性进行审查,或者通过限制儿童接触人工智能伴侣的法律,因为加州去年就这么做了。在没有结构性变化的情况下,唯一可用的解决方案是个人主义的解决方案:对如何以及使用人工智能的程度进行自律,这对于一个已经在挣扎的孤独者来说可能是一个很大的要求。孤独的人应该比人工智能朋友更好。
真实的人际关系带来了数字陪伴无法复制的快乐,并且在追求终极个人主义友谊的过程中失去了很多。当你生病时,聊天机器人无法给你煮汤,也无法在葬礼上握住你的手。它无法在音乐会上与您一起跳舞,也无法帮助您将在 Craigslist 上购买的笨重梳妆台搬回家。你也不能为此做这些事情,并从帮助别人中获得满足感。“你正在倾注心血,”柯克说,“到最后,它会执行矩阵乘法。”人工智能实际上并不关心你,因为它不能。