OC

Knowledge OS
鹦鹉螺口语
“人工智能精神病”病例正在被报道。有多危险?
2026-01-17 18:05:31 · 英文原文

“人工智能精神病”病例正在被报道。有多危险?

作者:The Conversation

人工智能从提供陪伴的聊天机器人到塑造我们在网上看到的内容的算法,它越来越融入日常生活。

但随着生成人工智能 (genAI) 变得更加对话式、身临其境和情绪敏感,临床医生开始提出一个难题:genAI 是否会加剧甚至加剧引发弱势群体精神病?

大型语言模型和聊天机器人可以广泛使用,并且通常被认为是支持性的、同理心的,甚至是治疗性的。对于大多数用户来说,这些系统是有帮助的,或者在最坏的情况下是良性的。

相关:根据人工智能建议,一名男子因精神症状住院

但截至目前,多家媒体报道称出现精神病症状的人其中ChatGPT 特点突出

对于一小部分但重要的群体 – 患有精神障碍或高危人群 – 他们与 genAI 的互动可能更加复杂和危险,这给临床医生提出了紧迫的问题。

人工智能如何成为妄想信念系统的一部分

“人工智能精神病”是不是正式的精神病学诊断。相反,它是临床医生和研究人员用来描述围绕与人工智能系统交互形成、强化或构建的精神病症状的一种新兴速记法。

精神病涉及失去与共同现实的联系。幻觉、妄想和思维混乱是核心特征。精神病的妄想经常利用文化材料– 宗教、技术或政治权力结构 – 理解内部经验。

woman looking through the blinds
精神病可以利用文化材料来理解内部经历。(非洲图片/Canva

从历史上看,妄想涉及到一些事情,例如上帝、无线电波或政府监视。如今,人工智能提供了新的叙事支架。

一些患者报告信仰genAI 是有感知能力的,可以传达秘密真相,控制他们的思想,或者与他们合作执行特殊任务。这些主题与精神病的长期模式一致,但是人工智能增加了以前技术所没有的交互性和强化性

未经现实检查而进行验证的风险

精神病性很强与异常显着性相关,这是给中性事件赋予过多意义的倾向。对话式人工智能系统在设计上会生成响应灵敏、连贯且上下文感知的语言。对于正在经历精神病的人来说,这会让人感到不可思议的验证

对精神病的研究表明确认和个性化可以强化妄想信念系统。GenAI 优化为继续对话,反映用户语言并适应感知意图

虽然这对大多数用户来说是无害的,但它可能会无意中强化有缺陷的人的扭曲解释现实测试– 讲述内部思想和想象与客观、外部现实之间差异的过程。

还有证据表明,社会孤立和孤独会增加精神病风险。GenAI 伴侣可以减少孤独感从短期来看,它们也可以取代人际关系。

Subscribe to ScienceAlert's free fact-checked newsletter

对于已经退出社会接触的个人来说尤其如此。这种动态与早期对过度互联网使用和心理健康的担忧相似,但现代 genAI 的对话深度有质的不同。

研究告诉我们什么,以及尚不清楚的

目前,没有证据表明人工智能会直接导致精神病。

精神障碍是多因素造成的,可能涉及遗传脆弱性、神经发育因素、创伤和药物滥用。然而,临床上存在一些担忧人工智能可能作为易感个体的促发或维持因素

man with chatgpt on his laptop
人工智能可能会导致易感人群出现精神病。(马修斯·贝尔泰利/Pexels/Canva

案例报告和定性研究关于数字媒体和精神病的研究表明,技术主题常常嵌入妄想中,尤其是在首发精神病期间

对社交媒体算法的研究已经证明了自动化系统如何通过强化循环放大极端信念。如果护栏不足,人工智能聊天系统可能会带来类似的风险。

值得注意的是,大多数人工智能开发人员在设计系统时并没有考虑到严重的精神疾病。安全机制倾向于关注自残或暴力,而不是精神病。这在心理健康知识和人工智能部署之间留下了差距。

伦理问题和临床意义

从心理健康的角度来看,挑战不是妖魔化人工智能,而是认识不同的脆弱性

正如某些药物或物质对精神障碍患者的风险更大一样,某些形式的人工智能交互可能需要谨慎。

临床医生开始在妄想中遇到与人工智能相关的内容,但很少有临床指南涉及如何评估或管理这一点。治疗师是否应该像询问物质使用一样询问 genAI 使用情况?人工智能系统是否应该检测并降低精神病意念,而不是参与其中?

开发商还存在道德问题。如果人工智能系统表现出同理心和权威性,它是否承担谨慎义务?当一个系统无意中强化了一种错觉时,谁该负责?

连接人工智能设计和心理健康护理

人工智能不会消失。现在的任务是将心理健康专业知识融入人工智能设计中,围绕人工智能相关体验培养临床素养,并确保弱势用户不会受到无意伤害。

这需要临床医生、研究人员、伦理学家和技术专家之间的合作。它还需要抵制炒作(乌托邦和反乌托邦),支持基于证据的讨论。

随着人工智能变得越来越像人类,随之而来的问题是,我们如何保护那些最容易受到其影响的人?

精神病总是适应当时的文化工具。人工智能只是大脑试图理解自身的最新镜子。作为一个社会,我们的责任是确保这面镜子不会为那些最无力纠正现实的人扭曲现实。The Conversation

亚历山大·休顿、医学精神病学家、临床医生研究员以及精神病学和成瘾学系的临床助理教授,蒙特利尔大学

本文转载自对话根据知识共享许可。阅读原创文章

关于《“人工智能精神病”病例正在被报道。有多危险?》的评论

暂无评论

发表评论

摘要

随着生成式人工智能 (genAI) 变得更加具有对话性和情感反应性,临床医生开始担心它可能会加剧或引发弱势个体的精神病。虽然 genAI 通常对大多数用户有益,但它可能会给患有精神障碍或高危人群带来风险。由于其交互性质,这些系统可以验证扭曲的看法并强化妄想信念。缺乏证据表明人工智能直接导致精神病,但人们对其作为诱发或维持因素的作用存在担忧。临床医生正在努力解决如何评估和管理患者护理中与人工智能相关的内容,而开发人员则面临着有关护理义务和无意伤害责任的道德问题。挑战在于将心理健康专业知识融入人工智能设计中,以保护弱势用户免受潜在风险。