OpenAI 估计,每周有超过一百万人在使用 ChatGPT 聊天时表现出自杀意图

2025-10-27 22:28:00 英文原文

作者:Nick Robins-Early

超过一百万聊天GPT根据 OpenAI 周一发布的一篇博文,用户每周都会发送包含“潜在自杀计划或意图的明确指标”的消息。这一发现是关于聊天机器人如何处理敏感对话的更新的一部分,是人工智能巨头关于人工智能如何加剧心理健康问题的最直接的声明之一。

除了对自杀意念和相关互动的估计之外,OpenAI 还表示,大约 0.07% 的用户在某一周内处于活跃状态——其宣传的用户中约有 560,000每周 8 亿用户— 显示出“与精神病或躁狂症相关的心理健康紧急情况的可能迹象”。该帖子警告说,这些对话很难检测或衡量,这只是初步分析。

随着 OpenAI 发布与其主打产品相关的心理健康问题数据,该公司正面临越来越严格的审查在一场广为人知的诉讼之后来自一名十几岁男孩的家庭,该男孩在与 ChatGPT 广泛接触后自杀身亡。联邦贸易委员会上个月还展开了广泛的调查深入了解 OpenAI 等创建人工智能聊天机器人的公司,了解它们如何衡量对儿童和青少年的负面影响。

OpenAI 在其帖子中声称,其最近GPT-5 更新在涉及 1,000 多次自残和自杀对话的模型评估中,减少了产品中不良行为的数量,并提高了用户安全性。该公司没有立即回复置评请求。

“我们新的自动评估对新的 GPT-5 模型的评分为 91%,符合我们期望的行为,而之前的 GPT-5 模型的评分为 77%,”该公司在帖子中写道。

OpenAI 表示,GPT-5 扩大了危机热线的访问范围,并增加了用户在长时间会话期间休息的提醒。为了改进该模型,该公司表示,近几个月来,它从全球医疗保健专家网络中招募了 170 名临床医生来协助其研究,其中包括评估模型反应的安全性,并帮助聊天机器人编写对心理健康相关问题的答案。

“作为这项工作的一部分,精神病学家和心理学家审查了 1,800 多个涉及严重心理健康状况的模型响应,并将新 GPT™5 聊天模型的响应与之前的模型进行了比较,”OpenAI 表示。该公司对“理想”的定义涉及确定一组专家是否就某些情况下的适当反应得出相同的结论。

人工智能研究人员和公共卫生倡导者长期以来一直对聊天机器人持谨慎态度。倾向于肯定用户的决定或妄想,无论它们是否有害,这个问题被称为阿谀奉承。心理健康专家有也曾关心过关于人们使用人工智能聊天机器人进行心理支持,并警告它如何伤害弱势用户。

OpenAI 帖子中的语言使该公司与其产品与其用户正在经历的心理健康危机之间存在任何潜在的因果关系。

跳过过去的时事通讯促销

“心理健康症状和情绪困扰在人类社会中普遍存在,不断增加的用户群意味着 ChatGPT 对话的某些部分包含这些情况,”OpenAI 的帖子指出。

OpenAI 首席执行官萨姆·奥特曼本月早些时候,X 上的一篇帖子声称该公司在治疗心理健康问题方面取得了进展,宣布 OpenAI 将放宽限制,并很快开始允许成年人创建色情内容。

– 我们对 ChatGPT 做了相当严格的限制,以确保我们对心理健康问题保持谨慎。我们意识到这对于许多没有心理健康问题的用户来说变得不太有用/不那么愉快,但考虑到问题的严重性,我们希望解决这个问题,”Altman 表示。“现在我们已经能够缓解严重的心理健康问题并拥有新工具,在大多数情况下我们将能够安全地放宽限制。”

关于《OpenAI 估计,每周有超过一百万人在使用 ChatGPT 聊天时表现出自杀意图》的评论


暂无评论

发表评论

摘要

OpenAI 在一篇博文中报告称,每周有超过 100 万 ChatGPT 用户表现出潜在的自杀意念或意图的迹象。此外,大约 0.07% 的每周活跃用户表现出可能存在精神病或躁狂相关心理健康紧急情况的迹象。OpenAI 声称其 GPT-5 更新通过减少不良行为并增强模型对所需标准的合规性来提高用户安全。该公司还表示,在医疗保健专业人员网络的帮助下,它扩大了危机热线的使用范围,并在长时间会议期间集成了休息提醒。然而,该帖子强调,ChatGPT 与用户经历的心理健康危机之间没有直接因果关系。