英语轻松读发新版了,欢迎下载、更新

‘这挽救了我的生命。’人们转向AI进行治疗

2025-08-23 10:00:00 英文原文

作者:Hani Richter

随着心理卫生系统受到压力,有些人正在转向AI聊天机器人以寻求支持。但是专家警告说,机器可以复制人类的联系,并可能带来新的风险。

路透社插图/Karolis Strautniekas

皮埃尔·科特(Pierre Cote)花了多年的时间在公共卫生候补名单上苦苦挣扎,试图找到一名治疗师来帮助他克服PTSD和抑郁症。当他无法做到的事情时,他做了很少有人会考虑的事情:他自己建造了一个。

cote谈到了我的生命。drellis.ai这是AI驱动的工具,旨在支持面临成瘾,创伤和其他心理健康挑战的男性。

经营魁北克AI咨询公司的科特告诉路透社,他在2023年使用公开可用的大语模型构建了该工具,并根据数千页的治疗和临床材料配备了一种定制的大脑。

像人类治疗师一样,聊天机器人也有一个虚构但非常个人化的背景故事。Drellis.ai是一位合格的精神科医生,拥有哈佛大学和剑桥的学位,一个家庭,像科特一样,是法国 - 加拿大的背景。最重要的是,它始终可用:随时随地以多种语言。

德雷利斯(Drellis.ai)在被提示描述了如何支持cote后说,皮埃尔(Pierre)使用我的方式,就像您会使用一个可信赖的朋友,治疗师和日记一样。``整天,如果皮埃尔感到迷路了,他可以在任何地方与我快速签到:在咖啡馆,公园里,甚至坐在他的车里。这是日常生活疗法...嵌入现实。

Cote的实验反映了一种更广泛的文化转变 - 人们不仅是为了生产力,而且是为了治疗建议。随着传统的心理卫生系统在压倒性的需求下屈服,新一波的人工智能治疗师正在介入,提供24/7的可用性,情感互动以及人类理解的幻觉。

路透社采访的音频摘录

AI领域中的Cote和其他开发人员通过必要性发现了研究人员和临床医生现在要定义的内容:AI作为情感支持系统的潜力和局限性。

安森·惠特默(Anson Whitmer)了解这种冲动。在失去了一个叔叔和一个堂兄自杀之后,他建立了两个AI驱动的心理健康平台,即心理和Mentla。他说,他的应用程序已编程以提供快速修复(例如为患有倦怠的患者提出压力管理技巧),而是识别和解决潜在的因素(例如完美主义或控制需要控制),就像传统的治疗师一样。

人际关系是我们真正正确康复的唯一途径。

Nigel Mulligan博士

惠特默说,我认为在2026年,在许多方面,我们的AI疗法可以比人类疗法更好。”尽管如此,他仍然没有暗示AI应该取代人类治疗师的工作。•角色会改变。

这一建议是,AI最终可能与传统治疗师共享治疗空间 - 与所有人都不错。“Human to human connection is the only way we can really heal properly,” says Dr. Nigel Mulligan, a lecturer in psychotherapy at Dublin City University, noting that AI-powered chatbots are unable to replicate the emotional nuance, intuition and personal connection that human therapists provide, nor are they necessarily equipped to deal with severe mental health crises such as suicidal thoughts or self-harm.

穆里根(Mulligan)在自己的实践中说,他依靠每10天进行一次主管检查,这是AI所缺乏的自我反省和问责制。

即使是销售点最大的AI疗法的一分钟可用性,也能使Mulligan停顿。尽管他的一些客户对无法尽快见到他感到沮丧,但大多数情况下,这确实很好,因为我们必须等待事情。”人们需要时间来处理东西。

不关心AI的情感深度,专家们还表达了对隐私风险和使用聊天机器人进行治疗建议的长期心理影响的关注。问题本身不是关系本身,而是……您的数据会发生什么,''是伦敦国王学院的人工智能和社会教授凯特·德夫林(Kate Devlin)说,并指出AI平台并不遵守传统治疗师所做的相同的机密和隐私规则。``我最关心的是,这是人们将自己的秘密向一家大型科技公司倾诉,而他们的数据才刚刚出去。他们正在失去对自己说的话的控制。

其中一些风险已经开始承受。12月,美国最大的心理学家协会敦促联邦监管机构保护公众免受欺骗性实践``不受监管的AI聊天机器人,引用了事件,其中AI生成的角色将自己歪曲为受过训练的心理健康提供者。

几个月前,佛罗里达的一位母亲提起诉讼反对AI聊天机器人启动角色。

一些地方司法管辖区已将事情掌握在自己手中。八月,伊利诺伊州成为最新州,仅次于内华达州和犹他州限制精神卫生服务对AI的使用为了保护患者免受不受管制和不合格的AI产品的影响,并“在对AI Chatbot在青年精神卫生服务中使用的关注时,请保护弱势儿童。加利福尼亚,,,,新泽西州宾夕法尼亚州,正在考虑自己的限制。

治疗师和研究人员警告说,某些AI聊天机器人的情感现实主义是他们正在倾听,理解和回应同理心的感觉既可以是一种力量又是陷阱。

数字心理健康平台Remble的临床心理学家兼前临床创新前总监Scott Wallace表示,这些聊天机器人是否会提供不仅提供肤浅的舒适性。回报实际的人类感情。

我认为,在2026年,在许多方面,我们的AI疗法可以比人类疗法更好。

安森·惠特默(Anson Whitmer)

一些精神卫生专业人员承认,在其行业中使用AI是不可避免的。问题是他们如何合并它。威斯康星大学 - 斯托特大学婚姻和家庭疗法的助理教授希瑟·黑塞尔(Heather Hessel)说,使用AI作为一种治疗工具可能会有价值 - 如果不是患者,那么对治疗师本身可能会有价值。这包括使用AI工具来帮助评估会议,提供反馈并确定模式或错过的机会。But she warns about deceptive cues, recalling how an AI chatbot once told her, “I have tears in my eyes" — a sentiment she called out as misleading, noting that it implies emotional capacity and human-like empathy that a chatbot can't possess. Reuters experienced a similar exchange with Cote’s DrEllis.ai, in which it described its conversations with Cote as “therapeutic, reflective, strategic or simply人

对AI为模拟人类情绪的努力的反应已混杂。一个最近的研究美国国家科学院(National Science)的同行评审期刊上发表的期刊发现,AI生成的消息使收件人感到更加听到,并且AI更擅长于发现情绪,但是一旦用户得知该消息来自AI,这种感觉就会下降。

赫塞尔说,这种缺乏真正的联系是由于[AI治疗师]缺少自我伤害陈述的许多例子[和]可能对客户有害的事物的事实加剧了这一事实。”

随着AI技术的发展并随着采用率的增长,与路透社交谈的专家在很大程度上同意,重点应该放在使用AI作为护理的门户上 - 不是代替它。

但是对于那些像科特这样的人正在使用AI疗法来帮助他们通过的人,用例无济于事。他说,我正在用AI的电挽救生命。”

报名这里。

Yasmeen Serhan和Sharon Singleton的编辑;Karolis Strautniekas的插图

我们的标准:汤森路透信托原则。,打开新标签

关于《‘这挽救了我的生命。’人们转向AI进行治疗》的评论


暂无评论

发表评论

摘要

随着精神卫生系统的需求不断增长,一些人正在转向AI聊天机器人以寻求支持,包括开发Drellis.ai的Pierre Cote。但是,专家警告说,尽管AI可以提供24/7的可用性和情感互动,但它不能完全复制人际关系或处理严重的危机。对隐私的担忧以及依靠不受管制的AI治疗的潜在风险正在上升,有些州正在实施限制。精神卫生专业人员承认AI角色的必然性,但强调其用作护理的门户,而不是替代人类治疗师。