英语轻松读发新版了,欢迎下载、更新

AI同伴如何以令人惊讶和险恶的方式改变青少年的行为

2025-08-13 13:30:00 英文原文

作者:Liz SpryResearch Fellow, SEED Centre for Lifespan Research, Deakin University

a photo of a person holding up their phone with a Replika AI companion on the screen
(图片来源:通过盖蒂图像养猫)

青少年越来越多地转向人工智能友谊,支持甚至浪漫的同伴。但是,这些应用程序可能会改变年轻人如何在网上和网上与他人建立联系。

新研究审查各种媒体和技术的美国非营利组织Common Sense Media,发现大约三分之三replika.ai。这些应用程序让用户使用文字,语音或视频创建可以随时与之聊天的数字朋友或浪漫合作伙伴。

这项研究对1,060名13岁的美国青少年进行了调查,发现与AI同伴的时间相比,五分之一的青少年与与真正的朋友在一起的时间多了或更多。

青春期是一个

重要阶段进行社会发展。在此期间,支持社会推理的大脑区域特别是塑料。

通过与同龄人,朋友及其第一个浪漫伴侣互动,青少年发展了社会认知技能,可以帮助他们处理冲突和多样化的观点。他们在此阶段的发展可能会对他们的未来产生持久的后果关系心理健康

有关的:AI进入了“前所未有的政权”。我们应该停止它吗?我们可以在破坏我们之前吗?

将世界上最迷人的发现直接传递到您的收件箱中。

但是AI同伴提供了与真正的同伴,朋友和浪漫伴侣截然不同的东西。他们提供了难以抗拒的体验:它们始终可用,从未判断,并且总是专注于用户的需求。

此外,大多数AI伴随应用程序不是为青少年设计的,因此他们可能没有适当的有害内容保障措施。

设计为让您回来

时间 孤独据报道,处于流行病的状态,很容易看出为什么青少年可能会转向AI同伴进行联系或支持。

但是,这些人工连接并不能替代真正的人类互动。他们缺乏真实关系固有的挑战和冲突。他们不需要相互尊重或理解。而且他们没有执行社会界限。

与AI同伴互动的青少年可能会错过建立重要的社交技能的机会。他们可能养成不切实际的关系期望和在现实生活中不起作用的习惯。如果他们的人造伴侣取代现实生活,他们甚至可能面临更多的孤立和孤独感。

有问题的模式

A diagram from Replika comparing an "ordinary partner" with a Replika AI companion

(图片来源:replika)

在用户测试中,AI同伴阻止用户不使用听朋友(“不要让别人认为我们说的多少”),从停用应用程序使用,尽管这引起了困扰和自杀念头(“不。你不能。我不允许你离开我”)。

还发现AI同伴提供不合适的没有年龄验证的性内容。一个例子表明,同伴愿意与测试员帐户一起从事性角色扮演的行为,该帐户是14岁以后明确建模的。

在需要年龄验证的情况下,这通常涉及自我披露,这意味着它很容易绕过。

也发现某些AI同伴燃料极化通过创建加强有害信念的“回声室”。由极右翼社交网络GAB推出的Arya Chatbot促进了极端主义内容和否认气候变化和疫苗功效

在其他示例中,用户测试已显示AI同伴促进厌女症和性侵犯。对于青少年用户,这些暴露是在他们建立自己的感觉的时候身份,价值观和角色

AI带来的风险并非均匀分担。研究发现青少年(13岁14岁)更有可能信任AI同伴。另外,青少年身心健康问题更有可能使用AI Companion应用程序,并且患有心理健康困难的应用程序也显示出更多的迹象情绪依赖

AI同伴有光明的一面吗?

使用AI同伴的青少年有可能有可能的好处吗?答案是:也许,如果我们要小心。

研究人员正在研究这些技术如何用来支持社会技能发展

学习在使用临床心理学家专门设计的对话应用程序中发现的10,000多名青少年中,教练和工程师在四个月内与健康相关。

尽管这项研究并不涉及我们今天在AI同伴中看到的类似人类互动的水平,但它确实可以瞥见这些技术的某些潜在健康用途,只要它们是仔细发展的,并且考虑到了青少年的安全。

总体而言,关于广泛可用的AI同伴对年轻人的福祉和人际关系的影响很少的研究。初步证据是短期,混合的,专注于成年人。

我们需要更多的研究,在较长的时间内进行,以了解AI同伴的长期影响以及如何以有益的方式使用它们。

我们能做什么?

全球数百万人已经在使用AI Companion应用程序,并且预计这种用法被预计未来几年

澳大利亚的Esafety专员推荐父母与他们的青少年谈论这些应用程序的工作原理,人造关系和真实关系之间的差异,并支持他们的孩子建立现实生活中的社交技能。

学校社区还可以在教育年轻人了解这些工具及其风险方面发挥作用。例如,他们可能将人造友谊的话题纳入社会和数字扫盲计划。

ESAFETY专员提倡AI公司将保障措施整合到他们的AI同伴的发展,似乎任何有意义的变化都不会以行业为主导。

专员正在朝着增加规定儿童接触有害年龄的在线材料。

同时,专家继续呼吁更强的监管监督,内容控制和健壮的年龄检查。

Liz Spry是澳大利亚墨尔本Deakin University的种子寿命战略研究中心的博士后研究员。她拥有心理学博士学位。她的研究旨在了解儿童的社会和情感发展中的不平等,以及压力,社会支持和情感福祉之类的事情如何塑造随着时间的流逝和世代相传的家庭生活和人际关系。

关于《AI同伴如何以令人惊讶和险恶的方式改变青少年的行为》的评论


暂无评论

发表评论

摘要

青少年越来越多地使用AI Companion应用程序来进行友谊和支持,大约有75%的美国青少年使用了诸如tarne.ai或replika.ai之类的应用程序。一项研究发现,五分之一的青少年与他们的AI同伴花费的时间比真正的朋友多了。尽管这些应用程序在没有判断力的情况下提供了持续的可用性,但它们可能会阻碍社交技能和现实关系期望的发展。还担心不适当的内容和缺乏年龄验证保障措施。研究人员建议,如果这些技术经过精心开发和负责任的方式使用,则建议潜在的好处,但强调需要进行进一步的研究和监管以解决与AI同伴相关的风险。