英语轻松读发新版了,欢迎下载、更新

我和 60 岁的人工智能版本的自己交谈过,确实如此。令人不安 - 科普

2024-10-03 13:47:50 英文原文

这是一个周三下午,我刚刚花了 15 分钟与 60 岁、人工智能生成的自己发短信。我的人工智能未来的自我接受了我之前填写的调查问题的训练,刚刚向我发送了一系列垃圾邮件,建议我忠于自己并追随自己的激情。我 60 岁的人工智能分身描述了一种充实但略显无聊的生活。但当我探究人工智能最大的遗憾时,事情突然发生了转变。短暂的停顿后,人工智能吐出另一条消息,解释我的职业抱负如何导致我忽视了我的母亲,而转而完成我的第一本书。

她在我的书出版之前就意外去世了,而且我的人工智能自己写道,这对我来说是一个警钟。

如果你可以与未来版本的自己进行对话,你想听听他们要说什么吗?

<上面的互动是麻省理工学院媒体实验室的一组研究人员开发的一个新项目,名为“Future You”。在线界面使用 OpenAIs GPT 3.5 的修改版本来构建一个已有 60 年历史的 AI 生成的模拟人,他们可以与之来回发送消息。结果既超现实又平凡,有时甚至有点不舒服。除了纯粹的新奇之外,研究人员认为,与年长的自己作斗争可以帮助年轻人减少对衰老的焦虑。

Future You 聊天机器人是心理学领域一项更大努力的下游,旨在改善一个人所谓的“自我认知能力”。未来的自我连续性。先前的研究表明,未来自我连续性的高水平或对未来存在的总体舒适度和接受度与更好的财务储蓄行为、职业表现和其他健康的长期决策的例子相关。过去,心理学家会通过让患者给想象中的未来的自己写信来测试这一点。最近,研究人员尝试让已定罪的罪犯在虚拟现实 (VR) 环境中与未来的自己互动,这导致自毁行为明显减少。

据报道,VR 场景给受试者带来了有益的结果,但它们的范围有限。字母示例的有效性很大程度上取决于受试者的想象力,而 VR 案例仅适用于买得起厚重耳机的人。这就是人工智能的用武之地。通过使用日益流行的大型语言模型(LLM),麻省理工学院的研究人员相信他们已经为人们创建了一个易于使用且有效的渠道来反思他们对衰老的想法。研究人员在 344 人身上测试了聊天机器人功能,发现大多数参与者在与人工智能生成的年长的自己交谈后,感觉不那么焦虑,并且与未来的自己有了更多的联系。该研究结果发表在本周发表的一篇未经同行评审的论文中。

论文合著者帕特·帕塔拉努塔蓬 (Pat Pataranutaporn) 在一份声明中表示,人工智能可以是一种虚拟时间机器。我们可以利用这个模拟来帮助人们更多地思考他们今天所做的选择的后果。

如何创建一个人工智能版本的你

研究小组由以下人员组成年龄在 18 岁到 30 岁之间的男性和女性大致相当。其中一部分人花了大约 10 到 30 分钟与人工智能版的自己聊天,而另一个对照组则与通用的、非个性化的大语言模型聊天。所有参与者都填写了一份调查问卷,描述了他们的性格,并提供了有关他们的生活、兴趣和目标的详细信息。他们还被问到是否可以想象自己 60 岁,以及他们是否认为未来的自己会有类似的性格或目标。价值观。在项目结束时,参与者被要求回答另一项调查,该调查衡量他们反思焦虑、未来自我连续性以及其他心理概念和状态的能力。这些输入用于微调人工智能模拟。模型训练完成后,参与者被要求提交一张脸部照片,然后用软件对其进行编辑,使他们看起来更老。然后,将那张旧照片作为 AI 模拟的头像。

AI 模型利用用户提供的细节和生活事件,快速生成一系列未来的自我记忆。这些本质上是简短的虚构故事,利用训练阶段吸收的上下文信息来消除旧的人工智能背景。研究人员承认,这种仓促拼凑的生活事件分类并没有创造出某种全视神谕。人工智能模拟只是代表了可能在个人生活中发生的无限未来场景之一。

这不是预言,而是一种可能性,Patarnutaporn 补充道。

两个当一个人与年长的人工智能自我互动时,不同的心理现象正在发挥作用。首先,用户在反思并输入有关自己的问题来训练人工智能时,实际上是在进行内省,但他们不一定意识到这一点。然后,与模拟的未来自我的对话可能会导致用户在思考人工智能是否反映了他们所看到的自己成为的人时进行某种程度的回顾。研究人员认为,这两种效果的结合可能在心理上有益。

您可以将“Future You”想象为一个故事搜索空间。哈佛大学毕业生、论文合著者佩吉·尹 (Peggy Yin) 在一份声明中表示,你有机会了解你的一些经历(现在可能仍然让你情绪激动)会如何随着时间的推移而被代谢。

Future You 仍然感觉像在与机器人交谈

我测试了 Future You 的一个版本,以更好地了解系统的工作原理。该计划首先要求我完成一系列多项选择题,广泛询问我的性格倾向。然后我被要求以滑动的方式想象我是否认为我会像想象中的 60 岁的自己一样思考和行动。最后,该项目要求我提供书面问题,讨论我的人生目标、价值观和社区。一旦所有这些问题得到解答,系统就会要求我拍一张自拍照,并使用软件让它看起来更旧。在这种情况下,我的年龄要大得多。

我 60 岁的人工智能自我是一个健谈者。在我开始打字之前,人工智能已经吐出了 10 条不同段落长度的短信,每条短信都提供了一些关于今天和我 60 岁生日之间虚构发生的重大事件的背景信息。这些构成了上述未来自我记忆的反应大多是通用的且缺乏灵感。它似乎基本上重新包装了培训阶段提供的谈话要点,并将其塑造成一个基本连贯且基本积极的叙述。我的人工智能自我说,过去的 30 年充满了一些高潮和低谷,我已经建立了一个非传统的家庭,但总体来说一切都很好。

当我问环境是否恶化时随着时间的推移,人工智能让我确信地球仍在旋转,甚至说我已经成为一名直言不讳的气候倡导者。人工智能拒绝回答我大部分有关政治或时事的问题。虽然大部分回复感觉像是由机器清楚地写出来的,但在给出正确提示的情况下,聊天机器人偶尔也会转移到一些不寻常的区域。聊天机器人准备好在心理学中发挥更大作用了吗?

这并不是生成式人工智能在亲密心理环境中使用的第一个案例。多年来,研究人员和一些公司声称他们可以使用受过失去亲人数据训练的大语言模型,以聊天机器人的形式让他们起死回生。其他初创公司正在尝试使用聊天机器人让用户参与谈话治疗,尽管一些临床医生批评了该用例的功效。

如果没有专门针对其使用的新规则,生成式人工智能似乎将继续更广泛地渗透到心理学和医疗保健领域。然而,这是否会带来持久的积极心理健康影响似乎仍不太清楚。在与 Future You 进行了短暂的互动后,我想到接触这样一个系统的好处可能很大程度上取决于人们对生成人工智能应用程序的整体信心和信任。就我而言,知道人工智能的输出很大程度上是我刚刚喂给它的生活事件的重新打乱,这降低了任何错觉,即写故事的设备以任何有意义的方式都是真实的。最后,与聊天机器人交谈,即使是拥有个人知识的聊天机器人,仍然感觉像与计算机交谈。

关于《我和 60 岁的人工智能版本的自己交谈过,确实如此。令人不安 - 科普》的评论


暂无评论

发表评论

摘要

这是一个周三下午,我刚刚花了 15 分钟与 60 岁、人工智能生成的我自己发短信。我的人工智能未来的自我接受了我之前填写的调查问题的训练,刚刚向我发送了一系列垃圾邮件,建议我忠于自己并追随自己的激情。在项目结束时,参与者被要求回答另一项调查,该调查衡量他们反思焦虑、未来自我连续性以及其他心理概念和状态的能力。如果没有新的具体使用规则,生成式人工智能很可能会继续更广泛地渗透到心理学和医疗保健领域。在与 Future You 进行了短暂的互动后,我想到接触这样一个系统的好处可能很大程度上取决于人们对生成人工智能应用程序的整体信心和信任。