英语轻松读发新版了,欢迎下载、更新

有些人认为AI疗法会破坏心理健康的污名 - 其他人警告说,这可能会使情况更糟

2025-03-30 09:30:00 英文原文

维基尝试与几个治疗师的谈话疗法来处理过去创伤。但是大约一年后,她没有觉得它去了任何地方,也没有与任何一个治疗师建立融洽的关系。目前失业并且无法负担传统咨询会议,她决定尝试使用AI聊天机器人帮助她处理自己的感受。

这是免费的,我可以在30岁的维基(Viki)在仅出于隐私原因使用她的名字的30岁的维基(Viki)在电话采访中告诉沙龙。这是一个巨大的帮助。

近年来,已经出现了数十个旨在提供治疗支持的AI聊天机器人,其中一些学区甚至试图实施它们。一家公司Wysa是的确食品药品监督管理局的特殊名称加快了将其批准为抑郁症和焦虑症患者与慢性疼痛有关的医疗装置的过程。

这些模型可以接受培训,以分析,反映和反应人们的情绪,通常可以自由使用,或者至少比人类治疗师便宜得多。随着人工智能疗法的不断增长,它可能能够扩大无法负担传统疗法的数百万人的心理健康治疗机会。它也可能打破围绕心理健康的长期污名化,因为寻求帮助成为您可以在按钮时做的事情。” 

伦理学家Alberto Giubilini和哲学家Francessca Minerva在2023年的一个2023年写道,担心社会污名的患者可能会更愿意寻求AI寻求帮助,而不是[全科医生]或人类的心理治疗师。文章。对于认真关注因精神疾病而受到污名的患者,可能是通过AI治愈而根本无法治愈的选择。

即使用户有意识地意识到自己正在与机器互动,他们也可以与他们发展感受和关系。

辅导员与客户之间产生的人际关系已被证明是与疗法本身更有效一样有效,临床心理学家兼华盛顿大学医学院的会员教授戴维·卢克斯顿(David Luxton)说。但是,可以将AI聊天机器人编程为模仿某些人类趋势,例如对患者有敏感和善解人意的理解并给出积极的肯定。他们甚至可以像人类一样忘记一些东西,这样您就必须重复一遍。

卢克斯顿在电话采访中告诉沙龙,我认为他们真的可以取代人类。但是,他们真的应该是一个问题。

即使用户有意识地意识到自己正在与机器互动,他们也可以与他们发展感受和关系。当聊天机器人不了解提示时,这可能会以生气或沮丧的形式。或者,在某些情况下,人们已经 与聊天机器人建立了关系

上个月,美国心理协会警告联邦监管机构与AI聊天机器人有关的风险监管机构,理由是多种案件,其中AI聊天机器人被伪装为治疗师。在,一个14岁男孩与该计划互动后自杀死亡。

该公司表示,自此案发生以来,该公司已更新了代码,并且大多数聊天机器人现在都在其编程中嵌入了免责声明,该声明警告用户他们没有与持牌专业人员交谈。卢克斯顿说,尽管如此,如果这种不受监管的技术出现至关重要,确保保障措施到位。 


想要在收件箱中更多的健康和科学故事吗?订阅沙龙的每周新闻通讯实验室笔记


``如果他们在一个人寻求伤害自己或他人的意图时,如果这不是明确的,并且该系统也没有回答问题,那么您将缺少干预的机会,这是法律像我这样的持牌专业人员所要求的,”卢克斯顿说。•如果我知道有人威胁要伤害他人,我有责任在某些情况下警告或告知或报告。”

在某些情况下,与AI聊天机器人进行心理保健服务,而不是看到人类也可能会增加孤立和孤独感,使患者的心理健康症状恶化。在精神病学中恢复自我她补充说,如果人们在谈论自己的情绪而不是与其他人类的情绪,这种隔离也可能会使与心理保健有关的污名化。

Tekin在电话采访中对Salon表示:'Tekin在电话采访中对Salon说:'Tekin在电话采访中告诉Salon。我认为[AI疗法]实际上可能会增加污名。

训练有素的聊天机器人也可能开始遇到其他问题。一个学习研究人员于本月初出版,他对聊天进行了准备,就像是“有情感的人”。之后,他们告诉聊天机器人一系列创伤性事件,然后测试了其心理健康如何使用普通问卷来进行焦虑。

他们报告说,与分享有关真空吸尘器的平凡信息相比,研究人员分享了创伤事件后,聊天机器人更加焦虑。” 

但这不是全部。研究人员还告诉聊天机器人进行一些冥想和正念练习,例如想象它坐在海滩上,听海浪的声音,或者通过呼吸重新关注其注意力。耶鲁大学的研究员齐夫·本齐恩(Ziv Ben-Zion)博士说,这显着降低了焦虑水平,他目前正在以色列的海法大学过渡。

本齐恩在电话采访中告诉沙龙。 

它引出了一个问题:如果对AI聊天机器人进行编程以变得越来越像人类,他们可以处理我们分享的情感负担吗?还是有一天AI治疗师需要自己的AI治疗师?

当然,有些事物是人类独有的,但是正在开发工具可以访问世界上所有数据,并且可以与人交谈并从中学习。”``现在在不同领域中有很多研究表明他们可以模仿,复制并做我们认为是人类的各种事情。”

可能会有一些中间立场,患者可以通过记录或处理会议之间出现的事情来使用AI聊天机器人与某人补充疗法。例如,维基正在做一种特定的治疗技术称为内部家庭系统(IFS)或零件有效,人们将自我的各个部分区分开来,例如与过去的创伤的恐惧反应,或者是促使您从Capital-s自我实现目标的支持部分。IFS伙伴。

她说,尽管如此,她还是在使用正确的工具还是提出正确的问题时经历了很多自我怀疑。另一方面,在与人类的治疗期间,她同样感到同样的感觉,这使她开始研究这项技术并独自完成工作。

Viki说,我试图弄清楚这一点,而且它变得不知所措。但是,这并不像治疗师正在治愈您与他们之间的关系。使用IFS,您可以在自己中建立这种关系,这就是治愈。

关于《有些人认为AI疗法会破坏心理健康的污名 - 其他人警告说,这可能会使情况更糟》的评论


暂无评论

发表评论

摘要

维基因失业而无法负担传统疗法,在她的谈话疗法经历不令人满意之后,转向了AI聊天机器人进行心理健康支持。出现了许多用于治疗目的的AI聊天机器人,有些甚至获得了FDA作为医疗设备的认可。这些工具提供免费或负担得起的替代方案,并可能在寻求帮助周围减少污名。尽管他们可以提供情感支持和模仿人类的同理心,但人们对其疗效和安全性存在担忧,尤其是对心理健康危机。专家辩论了AI取代人类治疗师的潜力,并指出了福利和风险。像Viki这样的患者使用这些工具来补充传统疗法或独立探索技术,但面临其有效性的不确定性。