OC

Knowledge OS
鹦鹉螺口语
“你如何使用人工智能?”专家认为,你的治疗师应该问你这个问题
2026-04-10 13:30:11 · 英文原文

“你如何使用人工智能?”专家认为,你的治疗师应该问你这个问题

作者:By Rhitu Chatterjee

A cellphone screen is shown with the ChatGPT app icon in focus.

ChatGPT、Claude 和 Character.AI 是由人工智能驱动的聊天机器人,人们越来越多地使用它们。佐藤喜一郎/美联社 隐藏标题

切换标题

佐藤喜一郎/美联社

越来越多的青少年和成年人转向人工智能聊天机器人来寻求陪伴和情感支持,最近的研究调查显示。因此,精神卫生保健提供者应该询问他们的患者是否以及如何使用这项技术,就像他们寻求有关睡眠、饮食、运动和饮酒的信息一样。

那是根据一篇新论文出入《美国医学会杂志》精神病学

“我们并不是说人工智能的使用是好是坏,”说沙迪·萨巴, 纽约大学西尔弗社会工作学院的助理教授说,“就像我们不会说药物滥用一定是好还是坏,或者向朋友咨询某件事是好是坏一样。”

然而,他表示,了解一个人如何使用人工智能来提供情感支持和建议,可以为了解一个人的生活和心理健康状况提供有价值的见解。

Using AI chatbots can impact your teen's mental health. Here's what to do

“我们的工作是了解人们为什么会有这样的行为——在本例中,就是了解他们为什么向人工智能系统寻求帮助,”萨巴补充道。“并了解它为他们做了什么,没有为他们做什么。”

萨巴和他的合著者的建议与美国心理学会 (APA) 在一项研究中的建议“非常一致”。11月发布健康咨询APA 表示,去年韦尔·赖特

赖特说,询问患者从与人工智能聊天机器人的对话中得到什么,为“治疗师更好地了解他们如何努力应对情绪健康和精神疾病奠定了基础”。

“信息宝库”

“人们经常使用这些工具来询问如何应对压力经历和个人关系挑战,”萨巴解释道。�  

有些人正在使用聊天机器人来寻求如何应对焦虑和抑郁症状的建议。

他说:“如果我们能够促使客户更加详细地进行这些对话,甚至进入治疗室,我认为这可能是一个信息宝库。”

它可能是有关某人生活中压力的主要原因的信息,或者他们是否正在使用聊天机器人来避免对抗。

“举例来说,您的一位客户与配偶之间存在关系问题,”APA 的赖特说。“他们不会尝试与配偶就如何满足他们的需求进行公开对话,而是使用聊天机器人来满足这些需求或避免与配偶进行这些困难的对话。”

她解释说,这种背景将帮助治疗师更好地支持患者。

“帮助他们了解如何与配偶进行安全对话,帮助他们了解人工智能作为填补这些需求空白的工具的局限性。”

精神病学家表示,讨论人工智能的使用也是一个了解客户可能不会自愿与治疗师分享的事情的机会汤姆·英塞尔博士,前任董事国家心理健康研究所。“人们经常使用聊天机器人谈论他们无法与其他人谈论的事情,因为他们非常担心受到评判,”他说。

例如,患者可能不愿意与治疗师分享自杀想法,但这对于治疗师来说至关重要,以确保患者的安全。

保持好奇心,但不要评判 

当谈到第一次向患者提出这个话题时,萨巴建议不要做出任何判断。

“我们不想让客户觉得我们在评判他们,”他说。“如果我们这样做,他们一般都不会愿意与我们合作。”

他建议治疗师以真正的好奇心来探讨这个话题,并为这些对话提供建议的语言。

A photo illustration shows the outline of a brain created with colorful plastic shapes and gears, implying machinery.

“你知道,人工智能正在快速发展,我从很多人那里听说他们正在使用 ChatGPT 等东西来获得情感支持,”他建议道。“‘你也是这样吗?你尝试过吗?’”

他还建议询问他们认为有帮助的具体问题,以便他们更好地了解患者如何使用这些工具。

Insel 表示,它还可以帮助治疗师弄清楚聊天机器人是否可以以有用的方式补充治疗,例如审查在治疗中引入哪些主题或发泄日常生活。

在某种程度上,治疗和聊天机器人“可以结合起来一起工作,”英塞尔说。

萨巴和他的合著者威廉·威克斯还建议询问患者是否发现任何聊天机器人交互无益或有问题,并主动分享使用聊天机器人进行情感支持的风险。

例如,数据隐私的风险,因为许多人工智能公司使用对话(甚至是敏感对话)来进一步训练他们的模型

英塞尔表示,将聊天机器人视为治疗师也存在风险。

他说,与聊天机器人谈论一个人的心理健康是“与治疗相反的”,因为聊天机器人的设计目的是肯定和奉承,强化用户的想法和感受。

“治疗可以帮助你改变并挑战你,”英塞尔说,“并让你谈论特别困难的事情。”

采纳建议

心理学家卡米·温克斯佩希特在特拉华州威尔明顿拥有一家主要为儿童和青少年提供服务的私人诊所。

她一直在考虑在她的入学表格中添加有关社交媒体和人工智能使用的问题,并赞赏萨巴的研究,因为它提供了一些示例问题。

ChatGPT's landing page on a computer screen.

ChatGPT 在计算机屏幕上的登陆页面。佐藤喜一郎/美联社 隐藏标题

切换标题

佐藤喜一郎/美联社

在过去一年左右的时间里,Winkelspecht 越来越多的客户及其家长向她寻求帮助,以不违反学校荣誉准则的方式使用人工智能进行头脑风暴和其他任务。因此,她必须熟悉技术才能为客户提供支持。在此过程中,她逐渐意识到治疗师和孩子的父母需要更多地了解儿童和青少年如何使用他们的数字设备——社交媒体和人工智能聊天机器人。

“我们不一定会考虑他们用手机做什么,”Winkelspecht 说。“我认为很明显,我们需要做更多的事情并鼓励自己进行对话。”

关于《“你如何使用人工智能?”专家认为,你的治疗师应该问你这个问题》的评论

暂无评论

发表评论

摘要

青少年和成年人越来越多地使用 ChatGPT、Claude 和 Character.AI 等人工智能聊天机器人来进行陪伴和情感支持,促使精神卫生保健提供者询问患者使用此类技术的情况。《美国医学会杂志精神病学》上的一篇新论文建议治疗师询问患者与人工智能聊天机器人的互动情况,以深入了解他们的心理健康状况和行为。这种方法与美国心理学会 2022 年 11 月的建议一致。讨论可以揭示个人如何使用这些工具,无论是应对策略还是避免困难的对话,为治疗师提供“信息宝库”。然而,提供者应该解决潜在的风险,例如数据隐私和对聊天机器人而不是治疗的依赖。