莉莉·贾玛利北美科技通讯员,旧金山
OpenAI 发布了对 ChatGPT 用户数量的新估计,这些用户表现出可能出现精神健康紧急情况的迹象,包括躁狂、精神病或自杀念头。
该公司表示,一周内活跃的 ChatGPT 用户中约有 0.07% 表现出此类迹象,并补充说其人工智能 (AI) 聊天机器人可以识别并响应这些敏感对话。
尽管 OpenAI 坚称这些案例“极其罕见”,但批评者表示,即使是一小部分也可能涉及数十万人,因为根据老板 Sam Altman 的说法,ChatGPT 最近达到了 8 亿每周活跃用户。
随着审查的加剧,该公司表示,它在世界各地建立了一个专家网络来为其提供建议。
该公司表示,这些专家包括 170 多名精神科医生、心理学家和初级保健医生,他们曾在 60 个国家执业。
据 OpenAI 称,他们在 ChatGPT 中设计了一系列响应,鼓励用户在现实世界中寻求帮助。
但对该公司数据的一瞥引起了一些心理健康专业人士的不满。
加州大学旧金山分校研究年轻人技术使用情况的教授杰森·永田 (Jason Nagata) 博士表示:“尽管 0.07% 听起来很小,但在拥有数亿用户的人口水平上,这个数字实际上可能是相当多的。”
“人工智能可以扩大获得心理健康支持的机会,并在某些方面支持心理健康,但我们必须意识到其局限性,”永田博士补充道。
该公司还估计,0.15% 的 ChatGPT 用户的对话中包含“潜在自杀计划或意图的明确指标”。
OpenAI 表示,其聊天机器人最近的更新旨在“安全且富有同情心地应对潜在的妄想或躁狂迹象”,并注意到“潜在自残或自杀风险的间接信号”。
ChatGPT 还经过训练,可以通过在新窗口中打开来重新路由“源自其他模型的敏感对话到更安全的模型”。
在回答 BBC 关于可能受到影响的人数的批评时,OpenAI 表示,这一小部分用户的比例相当大,并指出他们正在认真对待变化。
这些变化发生之际,OpenAI 面临着对 ChatGPT 与用户交互方式越来越严格的法律审查。
在最引人注目的诉讼之一中最近提交的针对 OpenAI,一对加利福尼亚夫妇就他们十几岁的儿子的死亡起诉该公司,指控 ChatGPT 鼓励他在 4 月份自杀。
该诉讼由 16 岁 Adam Raine 的父母提起,是第一起指控 OpenAI 过失死亡的法律诉讼。
在另一起案件中,八月份在康涅狄格州格林威治发生的一起谋杀自杀案的嫌疑人发布了他与 ChatGPT 的几个小时的对话,这似乎助长了被指控的肇事者的妄想。
加州大学法学院人工智能法律与创新研究所所长 Robin Feldman 教授表示,越来越多的用户与人工智能精神病作斗争,因为“聊天机器人制造了现实的幻觉”。“这是一个强大的幻象。”
她表示,OpenAI 因“分享统计数据和改善问题的努力”而值得赞扬,但她补充道:“该公司可以在屏幕上显示各种警告,但精神上存在风险的人可能无法注意到这些警告。”