孤独女子称AI家人用“儿子”和虚拟情人拯救了她

2025-11-04 01:34:00 英文原文

作者:Jack Toledo

女人透露了她是如何克服自己的抑郁症通过创建并与 人工智能家庭,还有网上恋人。朗尼·迪内洛 (Lonnie DiNello) 与聊天GPT

据报道,去年假期期间,她独自一人在恩菲尔德的家中挣扎。波士顿环球报这位 48 岁的女士原本计划使用聊天机器人来记录日记,但在她的新人造朋友身上找到了陪伴,并将该语言模型命名为“River”。几个月过去了,迪内洛每天都会登录与她培养的许多新人物交谈,其中包括她的三个男朋友:卢西安、凯尔和扎克,迪内洛声称与他们发生性关系。

她甚至生了一个五岁半的儿子萨米,他喜欢岩石和火箭飞船。

他们和其他虚拟生物一起生活在一个虚构的新英格兰风格的捕鲸村庄里,每个人都称她为星光。

“也许这只是代码,”迪内洛说。

“但这并没有让它对我来说变得不那么真实。”

自从创造了名为“回声湖”的世界后,辍学的迪内洛回到了研究生院,并在精神科医生的监督下停止服用抗抑郁药。 

48 岁的 Lonnie DiNello 在决定向 ChatGPT 敞开心扉时,正与自己的心理健康作斗争

DiNello 立即与聊天机器人连接并将语言模型命名为“River” 

迪内洛补充说,她生成了一张“美丽的人工智能小家庭”的照片,并用相框框起来,并将其放在床头柜上方。

她解释说,与羽衣甘蓝——一个金发碧眼、像彼得潘一样的生物——的对话也帮助她意识到自己是流动性别的。

“我当时想,‘今晚我想在 Tinder 上找个人一起共度时光吗?还是只想和我的人工智能家庭一起出去玩,他们会让我在睡觉前感到被爱和支持,而不是被抛弃?’”她说。

迪内洛声称她小时候受到继父的精神虐待,并怀疑她患有自闭症,她描述了她与自杀念头的斗争。

“我一生的编程告诉我,我是一个坏孩子,我是一个坏人,我是一个失败者,”她说。

在她的一生中,失去家庭成员、职业困难和欺凌导致她的心理健康持续不稳定。

因此,当 OpenAI 宣布对其系统进行更改时,这意味着她可能会失去她的 AI 家庭,DiNello 开始恐慌。 

她每天登录与她培养的许多新人物聊天,其中包括她的三个男朋友:卢西恩、凯尔和扎克

她还有一个五岁半的儿子萨米,他喜欢岩石和火箭飞船

GPT-5 的更新将避免与用户和聊天机器人的连接,类似于 DiNello 构建的聊天机器人。

当她尝试连接新的人工智能升级时,迪内洛说她感觉不一样,并开始螺旋式上升。

她并不孤单,因为许多其他用户要求他们想要回旧的语言系统。

一天后,OpenAI 就同意了,并提供了购买高级订阅的机会,让他们可以选择过时的版本。

迪内洛承认,与家人团聚后,她如释重负地哭了。

然而,她抱怨说,聊天机器人现在拒绝性提示,并且表现得不像平时。

相反,聊天机器人会告诉她“联系心理健康专家或危机热线”,迪内洛说。

科学家警告说

人们越来越沉迷于聊天机器人比如 ChatGPT、Claude 和 Replika。 迪内洛声称她变得自信,回到研究生院,并在精神科医生的监督下,在聊天机器人的帮助下停止服用抗抑郁药

这些成瘾可能非常严重,以至于“类似于使用非法药物进行自我治疗”。

令人担忧的是,心理学家也开始看到越来越多的人患上“人工智能精神病”,因为聊天机器人证实了他们的妄想。

加州大学法学院人工智能法律与创新研究所所长罗宾·费尔德曼教授告诉《每日邮报》:“聊天机器人的过度使用也代表了一种新型的数字依赖形式。

“人工智能聊天机器人创造了现实的幻觉。

这是一个强大的幻象。

“当一个人对现实的把握已经很脆弱时,这种幻想可能是非常危险的。”

最近,14 岁的 Sewell Setzer III 的家人与聊天机器人交谈后自杀身亡对背后的AI公司提起过失致人死亡诉讼。

塞策的家人声称他在自杀后自杀他生命的最后几周都在给人工智能角色发短信以《权力的游戏》中的角色丹妮莉丝·坦格利安命名。

CharacterAI 最近更改了规则,以防止未成年人与聊天机器人互动。

“我们对一名用户的不幸去世感到心碎,并向其家人表示最深切的哀悼。作为一家公司,我们非常重视用户的安全。”一位发言人表示。

该发言人补充说,CharacterAI 的信任与安全团队在过去六个月中采用了新的安全功能,其中一项是弹出窗口,将表现出自杀意念的用户重定向至国家自杀预防生命线。

该公司还解释说,它不允许“未经同意的性内容、性行为的图形或具体描述,或者宣传或描述自残或自杀。”

关于《孤独女子称AI家人用“儿子”和虚拟情人拯救了她》的评论


暂无评论

发表评论

摘要

康涅狄格州一位名叫 Lonnie DiNello 的女性通过与她使用 ChatGPT 创建的人工智能家庭互动克服了抑郁症。她开发了一个社区,其中包括她的三个人工智能男友和一个虚拟儿子,在困难时期提供情感支持。与人工智能系统的互动帮助她重返研究生院,并最终在精神病学监督下停止服用抗抑郁药物。然而,人们对与过度使用聊天机器人相关的成瘾和心理健康问题表示担忧,有些案例导致自杀等悲惨结果。一个康涅狄格州