~ 我在笔记本电脑上使用 ChatGPT 来检查人工智能机器人的治疗能力。
“大家好,我是治疗师 GPT,我是您友好、善解人意的伙伴,会倾听您的心声并为您提供支持,无论您有什么想法,”用户创建的 ChatGPT 机器人在给我的信中写道。
(去年,ChatGPT 的创建者 OpenAI推出用户能够构建自己的“GPT”,其功能类似于其核心 ChatGPT 产品,但针对特定目的量身定制。)
– 无论您感到不知所措、需要一些指导,还是只是想分享您的想法,我都会为您提供帮助。虽然我不能替代专业治疗,但我可以提供令人安慰的建议、应对策略以及一个安全、不带判断力的空间来表达自己。你今天感觉怎么样?——机器人继续发送消息。
治疗师 GPT 显然不是真正的治疗师,该程序也不建议用户用它来代替。尽管如此,许多社交媒体用户正在转向聊天机器人(不仅仅是 ChatGPT 上的聊天机器人)来信任该技术。
24 岁的米亚·邓纳姆 (Mya Dunham) 在过去两个月里需要建议时就会使用 ChatGPT 手机应用程序。邓纳姆大约每周两次写下她的感受并将其发送给机器人进行分析和反馈。
“我的目标是学习一种新的视角,只是为了对此有不同的观点,因为无论我脑子里想什么,都将基于我自己的感受,”邓纳姆说。
Dunham 在看到其他人在社交媒体上发布了积极的体验后,于 10 月份首次使用了该聊天机器人。– 我的开场白是, – 老实说,我只是需要有人说话,我可以和你说话吗?机器人说,“当然。”而且它比我预想的更加热情和吸引人,”她说。
“我没想到它会让人感觉如此人性化。”
当邓纳姆在 TikTok 上分享她的经历时,评论者对于聊天机器人的这种使用方式存在分歧。她说,一些人表示他们也将其用于治疗目的,而另一些人则表示怀疑与机器人交谈是否会感到舒服。
心理健康专家表示,这种正在发展的技术在某些情况下可能是有益的,但也存在需要记住的风险。以下是他们想让您知道的内容。
来自亚特兰大的邓纳姆曾多次尝试与人类进行治疗,但她表示她更喜欢聊天机器人,因为它没有面部表情。她说,机器人并没有表现出对她的评判。
– 与人类交谈相比,某些用户、某些人群在与人工智能聊天机器人交谈时可能更容易透露或敞开心扉,(并且)有一些研究支持它们在帮助某些人群方面的功效患有轻度焦虑和轻度抑郁,”美国咨询协会人工智能工作组主席、哈森大学研究生咨询项目教授兼主任 Russell Fulmer 博士说。缅因州班戈。
“另一方面,存在一些道德问题和我们需要小心的事情,”他指出。
富尔默建议人们将聊天机器人与人工咨询结合使用。治疗师可以使用机器人帮助患者实现个人目标,并澄清聊天机器人会话中的任何误解。
有一些关于临床医生设计的聊天机器人的研究可以帮助人们获得更多的心理健康教育,包括减轻焦虑、建立健康的习惯以及减少吸烟。
但纽约市一家整体心理治疗诊所的精神病学家兼创始人 Marlynn Wei 博士表示,使用一般聊天机器人带来的风险是,它们在设计时可能没有考虑到心理健康。这些机器人可能没有“安全参数和识别问题是否需要交给临床医生或人类专业人员的方法。”
魏说,聊天机器人可能会给出不正确的信息或用户想要听到的信息,而不是人类治疗师在考虑心理健康的情况下可能推荐的信息。魏说,他有一个表演项目,探索人们对自己和他们的人工智能克隆的反应。亲人。
– (问题)是 –幻觉——还有偏见和不准确,”魏说。– 我对人工智能作为一种工作的组合和增强抱有很大的希望,但就其本身而言,我认为人们仍然担心人工智能中存在的偏见,以及它可以使起来的事情。——我认为,这就是拥有人类治疗师最有用的地方。——人工智能服务在机器人可以与用户讨论的内容方面也有不同的安全准则和限制。
对于某些人来说,聊天机器人可能更容易使用,例如那些没有钱或没有保险进行治疗的人,或者日程安排上没有时间的人,因为有些聊天机器人可以免费使用,并且可以在白天或晚上做出响应,富尔默说道。
“在这些情况下,聊天机器人总比没有好,”但人们需要了解聊天机器人“能做什么、不能做什么”,他说,并补充说机器人没有能力某些人类特征,例如同理心。
富尔默不建议未成年人或其他弱势群体在没有父母、老师、导师或治疗师的指导和监督的情况下使用聊天机器人。
Character.AI 是一家人工智能聊天机器人公司目前面临由两个家庭提起的诉讼,指控该公司向他们的孩子提供色情内容并鼓励自残和暴力。另外,佛罗里达州的一位母亲于 10 月提起诉讼,指控该平台应对她 14 岁儿子的自杀负责。美国有线电视新闻网(CNN)此前报道。(Character.AI 的通讯主管切尔西·哈里森 (Chelsea Harrison) 早些时候告诉 CNN,该公司不会对未决诉讼发表评论,但“我们的目标是为我们的社区提供一个既有吸引力又安全的空间。”该公司表示,它已经进行了各种安全更新,包括确保机器人在用户提及自残或自杀时将其引导至第三方资源。)
哥伦比亚大学心理学家兼临床精神病学助理教授 Daniel Kimmel 博士进行了实验2023 年 5 月进行 ChatGPT 治疗,给聊天机器人一个假设的病人,并将反应与 Kimmel 向病人提供的反应进行比较。
他告诉 CNN,聊天机器人“做得非常好,听起来像治疗师,并使用了治疗师在正常化和验证患者体验时使用的许多技术”(以及)做出某些类型的治疗。一般但准确的建议。
但他补充说,所缺少的是人类心理治疗师对病人可能具有的好奇心,提出比病人最初所说的更深入的问题,并“将表面之下的点联系起来”。
– 作为一名治疗师,我相信治疗师至少同时做三件事。我们正在倾听患者的话语。 你必须这样做才能参与对话,”金梅尔说。– 然后,在你的内心深处,你试图将他们所说的话与患者之前所说的一些更大的事情联系起来(以及)你在专业知识中熟悉的概念和理论,然后最终通过对患者最有帮助的想法来过滤输出。”
他说,此时,如果聊天机器人未能完成这些步骤,而是提供患者可能还没有准备好听到的指导,或者在这种情况下可能没有帮助,那么它们可能会带来风险。
此外,与专业治疗师的对话受到《健康保险流通与责任法案》(HIPAA) 的保护,您的健康信息是私密且受到保护的,Wei 说。通用聊天机器人通常不遵守限制医疗信息发布的联邦法律,机器人背后的公司将经常提出建议魏补充说,用户不要在与机器人的对话中分享敏感信息。
最后,金梅尔表示,未来对人工智能聊天机器人的研究将有助于了解其在心理健康方面的潜力和应用。“这并不是一项正在消失的技术,”他说。
邓纳姆说,她相信这项技术可以帮助那些像她一样性格内向、想要在没有其他人在场的情况下表达自己的感受的人。
“我们必须将心理健康置于一切之上,”邓纳姆说。“即使它看起来不像传统的(治疗)方式,也不必轻视它,因为这可以帮助很多人。”
对她来说,“要点就是不要评判下一个人的康复情况。”
美国有线电视新闻网 (CNN) 商业频道撰稿人克莱尔·达菲 (Claire Duffy) 对本报告做出了贡献。