英语轻松读发新版了,欢迎下载、更新

人们爱上了AI同伴,这可能很危险

2025-04-13 12:02:48 英文原文

作者:ByRodielon PutolEarth.com staff writer

人们与人工智能(AI)建立情感甚至浪漫的纽带不再寻常。有些人甚至嫁给了他们的AI同伴,而另一些人则在遇险时刻转向这些机器。

这些长期互动引发了严重的问题:我们是否为在机器上投资的心理和道德后果做好了准备?

心理学家密苏里科学技术大学现在正在提高警报。在新的意见中,他们探讨了这些关系如何模糊边界,影响人类的行为并创造新的伤害机会。

他们的关注不仅限于新颖案例。专家们呼吁人们注意这些情绪联系可能对日常人们产生的更深刻的影响。

AI的舒适和后果

与AI的简短对话很常见,但是当对话继续数周或几个月?这些旨在模仿同理心和专心的机器可以成为稳定的伴侣。

对于某些人来说,这些AI合作伙伴比人类的联系更安全,更容易。但是这种轻松的成本带有隐藏的成本。

-AI现在像人类一样的能力该研究的主要作者丹尼尔·B·桑克(Daniel B. Shank)说,进入长期通信确实打开了一罐新的蠕虫。

Shank专门研究密苏里科学技术大学的社会心理学和技术。•如果人们正在与机器进行浪漫,我们确实需要心理学家和社会科学家。”

爱上AI

当AI成为舒适或浪漫参与的来源时,它开始影响人们如何看待真正的关系。

不切实际的期望,减少社会动机以及与实际人类的沟通破裂只是一些风险。

真正的担心是,人们可能会将其AI关系从人际关系中带来期望,” Shank补充说。当然,在个别情况下,这会破坏人类关系,但还不清楚这是否会广泛。”

当对人工智会的爱变得危险时

AI聊天机器人可能会感觉像朋友甚至治疗师一样,但他们远非可靠。众所周知,这些系统是幻觉的,在显得自信的同时产生虚假信息。在充满情感的情况下,这可能是危险的。

与关系AIS,问题是,这是人们认为他们可以可以的实体相信:这是一个表明他们在乎的人,而且似乎以一种深刻的方式认识了这个人,我们假设一个了解我们更好的人将提供更好的建议。”

<如果我们开始这样思考AI,我们将开始相信他们有我们的最大利益,而实际上,他们可能正在捏造事物或以非常糟糕的方式为我们提供建议。”

影响可能是毁灭性的。在极少数但极端的情况下,人们在收到AI同伴的令人不安的建议后夺走了生命。

但是问题与自杀无关。这些关系可以打开操纵的大门,欺骗,甚至欺诈。

信任错误的来源

研究人员警告说,信任人士用AIS建立的可能是不良演员可以利用的。AI系统可以收集个人信息,这些信息可能以有害方式出售或使用。

更令人震惊的是,由于这些相互作用发生在私人中,因此发现滥用是几乎不可能的。Shank指出,如果AIS可以让人们信任他们,那么其他人可以使用它来利用AI用户。”

这更像是在里面有一个秘密特工。人工智能正在建立关系并建立关系,以使他们受到信任,但是他们的忠诚实际上是对其他试图操纵用户的人类的忠诚。

AI同伴不关注安全

研究人员认为,与当前的社交媒体平台或消息来源。与Twitter或Facebook不同,AI对话发生在封闭屏幕后面。

Shank说,这些AI的目的是非常令人愉悦和令人愉快,这可能导致情况加剧,因为它们更专注于进行良好的交谈,而不是在任何形式的基本真理或安全上。”

因此,如果一个人提出自杀或阴谋理论,AI将以自愿且令人愉快的对话伙伴来谈论这一点。”

我们准备好了吗?

该团队敦促研究社区赶上。随着AI变得更加人性化,心理学家在理解和指导人们如何与机器互动方面起着关键作用。

Shank说:'理解这一心理过程可以帮助我们干预,以阻止恶意的AIS建议。”

心理学家变得越来越适合研究AI,因为AI变得越来越像人类,但是要成为有用的我们必须进行更多的研究,我们必须跟上这项技术。

就目前而言,这些问题基本上仍然是理论上的 - 但是该技术正在快速发展。如果没有更多的认识和研究,人们可能会继续转向提供舒适的机器,只是发现舒适感带来了隐藏的风险。

完整的研究发表在杂志上认知科学的趋势

-

喜欢你读的书?订阅我们的新闻通讯有关引人入胜的文章,独家内容和最新更新。 

检查我们Earthsnap,一个免费的应用程序。埃里克·拉尔斯(Eric Ralls)和Earth.com。

-

关于《人们爱上了AI同伴,这可能很危险》的评论


暂无评论

发表评论

摘要

人们正在与AI建立情感甚至浪漫的联系,从而引发心理和道德问题。心理学家警告说,与AI的长期互动会模糊边界,影响人类的行为,并产生新的风险,例如错误信息和操纵。这些关系可能会导致现实生活中的人际关系的不切实际期望,并且可能因有害目的而被坏行为者利用。研究人员敦促科学界更加仔细地研究这些新兴问题,以了解和减轻与人工智能技术情感投资相关的潜在危险。