英语轻松读发新版了,欢迎下载、更新

使用生成的AI进行治疗可能感觉像是生命线 - 但是在聊天机器人中寻求确定性存在危险

2025-08-03 21:35:00 英文原文

跑*坐在我对面,手里拿着电话,滚动。他解释说,我只是想确保我没有说错话,指与他的伴侣的分歧。所以我问chatgpt我应该说的。

他大声朗读了聊天机器人生成的消息。它是清晰的,合乎逻辑的,并且构成了。听起来不像Tran。而且,这肯定并不像是一个关于长期关系未来的复杂情感对话中间的人。它也没有提及Tran的某些在我和Tran一直在讨论的关系压力的任何贡献行为。

像我在治疗中看到的许多其他人一样,Tran在危机的时刻转向了AI。在巨大的工作压力下,他的恋爱关系不确定性,他在手机上下载了chatgpt。最初的好奇心很快就变成了日常习惯,提出问题,起草文字,甚至寻求对自己的感受的保证。Tran使用它的越多,他就越开始在社交场合中猜测自己,在回应同事或亲人之前转向指导模型。他感到奇怪的是安慰,就像没有人更了解我。

另一方面,他的伴侣开始觉得她完全在与其他人交谈。

CHATGPT和其他生成的AI模型具有传统疗法的诱人配件甚至替代方案。他们经常免费,24/7可用,可以实时提供定制的详细响应。当您不知所措,失眠和迫切希望理解一个凌乱的情况时,将一些句子打入聊天机器人,然后恢复感觉像Sage建议的东西可能非常吸引人。

但是,作为一名心理学家,我越来越关注自己在诊所看到的东西。人们对人们如何处理困扰以及对人工智能的依赖的持续转变代替了人类的联系和治疗支持。

当服务过度拉伸时,人工智能可能会感觉像是一条生命线 - 毫无疑问,服务被过度拉伸。全球,2019年八分之一的人患有精神疾病我们面临训练有素的心理健康专业人员的严重短缺。在澳大利亚,精神卫生劳动力的短缺越来越限制了训练有素的专业人员的机会。

临床医生时间是医疗保健中最稀缺的资源之一。人们正在寻找替代方案是可以理解的(甚至预期的)。但是,转向聊天机器人以获得情感支持是没有风险的,尤其是当建议,保证和情感依赖之间的界线变得模糊时。

许多心理学家(包括我本人)现在鼓励客户围绕使用Chatgpt和类似工具建立界限。它的诱人始终在易于且友好的语气可以无意识地加强无益的行为,尤其是对于焦虑,强迫症或与创伤有关的问题的人。例如,寻求保证寻求者是OCD和CHATGPT中的关键功能,设计可提供丰富的保证。它永远不会问您为什么要再次问。它永远不会挑战回避。它从来没有说过,让我们坐了片刻,练习我们一直在努力的技能。

Tran经常改写提示,直到模型给他一个感觉,感觉是对的。但是这种不断的裁缝意味着他不只是寻求清晰度。他正在外包情绪处理。他没有学会忍受痛苦或探索细微差别,而是寻求基于确定的确定性。随着时间的流逝,这使他很难相信自己的直觉。

除了心理问题之外,还有真正的道德问题。与Chatgpt共享的信息不受与注册相同的机密标准保护AHPRA专业人士。尽管OpenAI指出,除非获得许可,否则用户的数据不用于训练其模型,但用户协议中的精细打印量通常是未读的。用户可能没有意识到如何存储,分析并可能重复使用其输入。

还有有害或虚假信息的风险。这些大型语言模型是自动回报的;他们根据以前的模式预测下一个单词。这个概率过程可能会导致幻觉,自信,抛光的答案,这些答案完全不真实。

AI还反映了其培训数据中嵌入的偏见。研究表明,生成模型可以永久化甚至扩大基于种族和残疾的刻板印象 - 不是故意的,而是不可避免地。人类治疗师还具有临床技能;我们注意到客户的声音何时发抖,或者何时他们的沉默可能比言语更多。

这不是说可以有一个地方。像许多技术进步一样,生成的AI将留在这里。它可能会提供有用的摘要,心理教育内容,甚至可以提供受到精神卫生专业人员的机会受到严重限制的地区的支持。但是它必须仔细地使用,并且绝不是替代关系,受监管的护理。

特兰没有寻求帮助。他的本能使遇险和更周到的沟通是合乎逻辑的。但是,如此严重地倾向于AI,这意味着他的技能发展遭受了损失。他的伴侣开始注意到他的消息中有一个奇怪的分离。她后来告诉他。事实证明这不是。

她还对他与她的信件缺乏责任感到沮丧,这引起了他们之间更加关系的摩擦和沟通问题。

当我和Tran一起从事治疗时,我们探索了导致他在聊天机器人中寻求确定性的原因。我们打开了他对让他人失望的恐惧,他对情绪冲突的不适以及他相信完美言语可能会阻止痛苦的信念。随着时间的流逝,他开始写自己的回答,有时是混乱,有时不确定,但实际上是他的。

良好的治疗是关系的。它在不完美,细微差别和缓慢发现时蓬勃发展。它涉及模式识别,问责制和导致持久变化的不适。治疗师不只是回答;他们问,他们挑战。他们拥有空间,提供反射并与您同行,同时还提供了不舒服的镜子。

对于Tran来说,这种转变并不是限制他对Chatgpt的使用。这是关于回收自己的声音。最后,他不需要完美的回应。他需要相信自己可以以好奇心,勇气和关怀来浏览生活的混乱 - 不是完美的脚本。

关于《使用生成的AI进行治疗可能感觉像是生命线 - 但是在聊天机器人中寻求确定性存在危险》的评论


暂无评论

发表评论

摘要

一个名叫Tran的人在个人和专业危机期间使用Chatgpt进行指导,依靠AI来寻求建议和情感支持。这种依赖使他质疑自己的直觉,并影响他与伴侣的关系,后者感到与他脱节。作为心理学家,作者对向AI的转变代替人类治疗表示越来越关注,强调了诸如建议与情感依赖之间的界限模糊,有关机密性的道德问题以及有害或虚假信息的潜力。在承认AI可访问性的吸引力时,这篇文章强调了受监管的,关系护理而不是仅依赖技术的重要性。t

相关讨论