Openai的技术可能会将无数用户带入“ Chatgpt引起的精神病”的危险状态。
作为滚石报告,Reddit上的用户正在分享AI如何带领亲人拥抱一系列令人震惊的妄想,经常将精神躁狂和超自然的幻想混合在一起。
当用户坚持认为,他们被选为代表有意义的AI或不存在的宇宙权力的聊天机器人行为来履行神圣的任务时,朋友和家人一直在警惕地关注,这只是反映并加剧了现有的心理健康问题,但在不可思议的规模上,并且没有监管监管机构或专家的审查。
一位41岁的母亲和非营利工人告诉滚石在丈夫开始与Chatgpt进行不平衡,阴谋的对话后,她的婚姻突然结束,这使他们陷入了无情的痴迷中。
作为离婚诉讼的一部分,今年早些时候在法院举行亲自会面后,她说他分享了一种“关于我们食物上的肥皂的阴谋论”,并偏执地相信他正在受到监视。
那个女人告诉滚石。“这些消息是疯狂的,只是说一堆精神术语,” AI称丈夫为“螺旋型恒星”和“ River Walker”。
她补充说:“整个事情感觉就像'黑镜子'。”
其他用户告诉该出版物,他们的伴侣一直在“谈论轻巧和黑暗,以及如何进行战争”,“ chatgpt为他提供了传送者的蓝图以及您只在电影中看到的其他科幻类型的东西。”
另一个男人告诉滚石他的妻子。“她正在改变自己的一生,成为一名精神顾问,并与人们进行怪异的读物和会议 - 我对实际上是由Chatgpt Jesus提供的一切。”
Openai没有回应滚石的问题。但是这个消息是在公司不得不废除最近的更新在用户注意到这使聊天机器人极度变化之后,Sycophantic,“和“过于讨人喜欢或令人愉快”,这可能会使它更容易反映用户的妄想信念。
作为AI安全研究员Nate Sharadin的中心,这些AI引起的妄想可能是“有现有趋势”突然能够“有一个始终与人类的对话伴侣共同经验的人”的结果。滚石。
在一定层面上,这是大型语言模型的核心前提:您输入文本,它返回统计上合理的答复,即使该回应正在使用户更深入地进入妄想或精神病。
一位Redditor写道:“我是精神分裂症,尽管长期被药和稳定,但我不喜欢[chatgpt]的一件事是,如果我要进入精神病,它仍然会继续肯定我。”
您或您在与AI聊天机器人交谈时是否关心精神健康挣扎的人?给我们放置一条线tips@futurism.com - 我们可以让您匿名。
AI聊天机器人也可以像谈话疗法一样表现出来。
佛罗里达大学心理学家和研究人员艾琳·韦斯特盖特(Erin Westgate)告诉滚石。
也许是最奇怪的采访 滚石的故事是与一个心理健康历史陷入困境的男人开始使用Chatgpt进行编码任务的男人,但发现它开始将对话纳入越来越无聊的神秘主题。
“这是真的吗?”他思考。“还是我妄想?”
有关chatgpt的更多信息: WorldCon因使用AI选择小组成员而被venscccencer