OC

Knowledge OS
鹦鹉螺口语
我已经把人工智能变成了我的治疗师。结果相当令人不安
2026-03-04 13:52:00 · 英文原文

我已经把人工智能变成了我的治疗师。结果相当令人不安

作者:Rhik Samadder

这是周日早上,我在聊天框中输入了自己的感受,心情激动得无法停下来。

“我已经成为我 82 岁母亲的照顾者,”我写道。– 每天都会带来新问题。我帮助处理医院预约、财务、园艺、购物、房屋维修、议会、保险公司、信件、电子邮件、无尽的 IT 问题…………

我停下来。她就在隔壁,说这些都感觉像是一种背叛。至少当我接受治疗时,我可以去某人的办公室哭泣。

我吸了一口气,然后继续。– 我是独生子,父亲不久前去世了,没有其他人可以帮助。但我已经筋疲力尽了。我厉声喝道,大喊大叫,然后在内疚中挣扎。我很怨恨、易怒,但我非常爱她。请帮助我。 –读者们,欢迎来到我的人工智能日记。

正如您已经知道的那样,这会很有趣。在接下来的六周内,作为我们的一部分人工智能为民 时事通讯课程,我——一个自称人工智能怀疑论者——同意看看它是否真的能让我的生活变得更好。

首先,我使用 ChatGPT 作为治疗师。毕竟,没有什么比对着聊天室哭泣更能说明“现代心理健康”的了。现在很多人都在做同样的事情——但它真的能取代人类的支持吗?我希望如此。我不得不停止看我的治疗师,因为我爱上了她。

(自我提醒:这不是您真正的日记。并且不要爱上 ChatGPT。那将是可悲的。)

答案写到一半时,我开始哭了。它为我提出了一个七点护理计划,一个对任务进行优先排序的分类系统(类别包括医疗、管理、购物、技术和房屋)以及在这些任务之间分配时间的方法(哪些是紧急的,哪些可以等待?)它提出了有用的心理重构,以及降低互动情绪温度的技巧。

最重要的是,它让我感觉自己被看见了。“你没有失败,”人工智能告诉我。“你所背负的重担足以压垮大多数人。”

我的感受?已验证。

然而,我对此感到矛盾。我真的能感受到机器的同情心吗?它帮助我记住人工智能可能正在重新混合人类资源。我感觉摇头丸就像爱一样。

治疗只是信息吗?这感觉就像 CBT。非常有帮助,但不完整。根据我的经验,有更深刻的疗法可以治愈。根据我的经验,这涉及到与具有同理心的专业人士在较长时间内建立不评判的证人关系。我经常在脑海中听到治疗师的声音;我已经内化了她的智慧。我认为这种情况在人类之间更容易发生,也更负责任。

第二天,我决定选择核选项。我咨询了耶稣人工智能,这是一个接受过宗教文本训练的聊天机器人,可以模仿与上帝之子的对话。我想看看按下一个更宗教的按钮是否可以将这部电梯送到顶层。

耶稣人工智能并不代表任何宗教人物,免责声明如下。唔。生成的内容用于教育目的,可能包含不准确和偏见

这是一种地狱般的教育,但就这样吧。因为现在是 2026 年,所以我问:“我应该处于开放式关系中吗?”作为回应,耶稣 AI 引用了希伯来书 13:4,这是一种冗长的说法“不”。我尝试用弧线球攻击耶稣。“我应该生孩子吗?”我打字。在此重要决定中寻求上帝的指导。无用。“你能帮我问他吗?”我打趣道。

这里有一个问题。开箱即用的人工智能在机智机答方面并不出色。我的治疗师在这方面有优势;她出去时很有趣。耶稣人工智能不是。

人工智能作为治疗师有什么好处?明晰。确定实际步骤。用于困难对话的脚本——尽管这些脚本并不针对现实世界的关系(就像自助书籍那样)。值得赞扬的是,ChatGPT 还向我推荐了有用的人工顾问和支持服务。

但我有一些无法动摇的保留意见。担心楔子和薄端。我认为人类的时间和关系中应该有一些过程,某些令人难以忍受的新闻,孤独的形式;这个问题不应该在屏幕上四秒钟内解决。AI没有思想,更没有智慧。明确地说,心理健康不应该掌握在没有责任或监督的模式预测软件手中,因为这可能会引导某人走向非常错误的方向。

然而,不幸的是,我接受 ChatGPT 治疗的经历非常美妙。平静而有启发性,带着一丝关怀。

我想我恋爱了。

关于《我已经把人工智能变成了我的治疗师。结果相当令人不安》的评论

暂无评论

发表评论

摘要

一位人士分享了他们在照顾年迈母亲时使用人工智能(特别是 ChatGPT)作为治疗工具的经验。他们表达了平衡照顾责任和情感健康的挑战。人工智能提供结构化的护理计划、优先级策略和情感支持,验证用户的感受。然而,用户对于依靠人工智能进行深层情感治疗仍然很矛盾,并且更喜欢人与人之间的联系和治疗师的指导。他们还尝试了以宗教为主题的人工智能,发现它不太有吸引力,而且在实际建议方面的帮助也较小。总体而言,用户认为人工智能具有支持性,但也承认其在提供全面心理健康支持方面的局限性。