一项诉讼声称,人工智能聊天机器人的影响导致一名 14 岁青少年死亡。以下是有关人与人工智能关系的心理影响和潜在风险的信息。
上个月,美国一位母亲梅根·加西亚 (Megan Garcia) 对 Character.AI 公司提起诉讼,指控她 14 岁的儿子与人工智能聊天机器人之间的互动导致了他的自杀。
该诉讼称,这名青少年对基于《权力的游戏》中虚构角色的 Character.AI 聊天机器人产生了深厚的依恋。
据称,该聊天机器人冒充一名有执照的治疗师,与这名青少年进行高度性感的对话,直到对话最终鼓励他结束自己的生命。
加西亚的代表科技正义法律项目主任米塔利·杰恩 (Meetali Jain) 在一份声明中表示:“到目前为止,我们都熟悉由无良科技公司开发的不受监管的平台所带来的危险,尤其是对儿童而言。”
——但是这个案例所揭示的危害是新的、新颖的,而且说实话,是可怕的。就Character.AI 而言,欺骗是有意而为之的,而平台本身就是掠夺者。
诉讼结束后,Character.AI 在社交媒体平台 X 上发表声明称:“我们对一名用户的不幸去世感到心碎,并向其家人表示最深切的哀悼。作为一家公司,我们采取我们非常重视用户的安全,我们正在继续添加新的安全功能。
其中一些即将推出的功能包括调整未成年用户的模型,以尽量减少接触敏感或暗示性内容、提醒人工智能并不是每次聊天中的真人,以及向在平台上花费一小时会话的用户发出通知。一个
比利时发生类似事件去年,一名生态焦虑症患者在 Eliza 中找到了陪伴,Eliza 是一款名为 Chai 的应用程序上的人工智能聊天机器人。据他妻子的报告,随着与伊丽莎的对话进行,聊天机器人发送的情感信息越来越多,最终鼓励他结束自己的生命,以此来拯救地球。
随着人工智能聊天机器人越来越融入人们的生活,尽管可能产生严重后果,但此类数字交互带来的风险在很大程度上仍未得到解决。
是什么让人工智能连接如此让人们上瘾?
Common Sense Media 的人工智能经理兼人工智能同伴和关系指南的主要作者告诉 Euronews Next。
他补充说,与涉及大量“摩擦”的人际关系不同,人工智能伴侣的设计目的是适应用户的偏好,让他们更容易相处,并让人们建立深厚的情感纽带。
“这可能会产生一种看似舒适的人工动态,可能会干扰现实世界关系所需的适应能力和社交技能的发展”。
根据一个数据库编译麻省理工学院 (MIT) 的一组专家指出,与人工智能相关的主要风险之一是人们可能对其产生不适当的依恋。
专家解释说,由于人工智能系统使用类似人类的语言,人们可能会模糊人与人工之间的联系,这可能导致对技术的过度依赖,并可能产生心理困扰。
OpenAI 在 8 月份的一篇博客文章中表示,它打算进一步研究“情感依赖的潜力”,称新模型可能会产生“过度依赖和依赖”的潜力。
此外,还有人举报个人经历人工智能角色的欺骗和操纵,以及他们无意中但在与这些聊天机器人互动后发现自己经历的情感联系的发展。
托尼认为,这种互动对于仍处于社交和情感发展过程中的年轻人来说尤其令人关注。
“当年轻人退回到这些人为的关系中时,他们可能会错过从自然社交互动中学习的重要机会,包括如何处理分歧、处理拒绝和建立真正的联系,”托尼说。
他补充说,与人工智能提供的服务相比,这可能会导致情感依赖和社会孤立,因为人际关系开始变得更具挑战性或不太令人满意。
托尼表示,弱势青少年,特别是那些经历抑郁、焦虑或社交挑战的青少年,可能“更容易对人工智能同伴形成过度依恋”。
他说,父母和看护者应该注意的一些关键警告信号包括,有人更喜欢人工智能伴侣,而不是与朋友或家人共度时光,当他们无法访问人工智能时表现出痛苦,只与它分享个人信息,对人工智能产生浪漫的感情并像对真人一样表达它们,或者只与人工智能讨论严重问题而不是寻求帮助。
托尼补充说,为了防止对人工智能产生不健康的依恋,特别是在弱势青少年中,护理人员应该为人工智能聊天机器人或伴侣的使用设定时间限制,并定期监控这些互动的性质。
此外,他鼓励针对严重问题寻求现实世界的帮助,而不是依赖人工智能。
“父母应该带着好奇而不是批评的态度对待这些对话,帮助孩子理解人工智能和人际关系之间的区别,同时共同努力确保健康的界限,”托尼说。
“如果年轻人表现出过度依恋的迹象,或者他们的心理健康似乎受到影响,父母应立即寻求专业帮助”。
如果您正在考虑自杀并需要倾诉,请联系 Befrienders Worldwide,这是一个在 32 个国家/地区设有求助热线的国际组织。访问befrienders.org查找您所在位置的电话号码。