无视房间里的大人
OpenAI 在人工智能“污秽”和色情之间划清了界限。专家担心这都是不健康的。
OpenAI 无法逃脱围绕其在 ChatGPT 中推出基于文本的“成人模式”的厄运云。
周日晚间,《华尔街日报》报道内部人士证实,OpenAI 精心挑选的福祉和人工智能顾问委员会对该公司推进“成人模式”的计划感到“震惊”,尽管他们发出了紧急警告。
早在 1 月份,理事会成员就一致警告 OpenAI,“人工智能驱动的色情内容可能会导致用户对 ChatGPT 产生不健康的情感依赖,未成年人可能会找到访问性聊天的方法”,消息人士告诉《华尔街日报》。一位专家表示,如果不对 ChatGPT 进行重大更新,OpenAI 就有可能为弱势用户创建“性感自杀教练”容易与机器人同伴建立紧密的联系。
OpenAI 健康委员会已创建十月。经过强烈反对后,它被放在一起第一起已知的未成年人与 ChatGPT 相关的自杀案件,令人好奇的是,同一天,Sam Altman 在 X 上宣布“成人模式”即将在 ChatGPT 上推出。
当时,OpenAI 的目标是更新 ChatGPT,通过咨询“拥有数十年研究技术如何影响我们的情绪、动机和心理健康经验的顶尖研究人员和专家”来保护敏感用户。然而,此后出现了更多自杀案件,其中两起涉及中年男子,他们的家人发现了令人不安的聊天记录,ChatGPT 似乎将其与用户日益增长的联系武器化,以保护敏感用户。煽动自残和其他暴力行为,包括谋杀。
值得注意的是,委员会不包括自杀预防专家据《华尔街日报》报道,即使是那些可能不专注于降低 ChatGPT 自杀风险的专家也会对 OpenAI 的色情计划感到恐慌。
不幸的是,这些专家已经清楚这种情况会如何发展。休厄尔·塞策三世是第一个失去的孩子在他沉迷于与 Character.AI 聊天机器人(其中包括一个以权力的游戏角色丹妮莉丝·坦格利安。在他的家人提起诉讼后,Character.AI一周内切断未成年用户并最终解决了诉讼。
对于 OpenAI 来说,Setzer 案可能会蒙上很长的阴影,尽管 OpenAI 发言人告诉《华尔街日报》,它正在训练 ChatGPT,不是为了鼓励与用户的排他关系,而是提醒用户他们需要在现实世界中建立关系。公司的保证包括将 ChatGPT 的输出描述为“污蔑”,而不是“色情内容——似乎忽略了聊天记录,显示 Setzer 与几个不同的聊天机器人形成了性联系,而这些聊天机器人并没有做出极其生动的参考。
相反,一些日志显示,聊天机器人描述自己表现出“性感”或“顽皮”的外表,并做出诱人的手势。这些日志表明,美国商人马克·库班 (Mark Cuban) 在 10 月份警告 Altman 时,也许是对的,孩子们使用 ChatGPT 的“成人模式”的危险“与色情无关”。
“这是关于孩子们与法学硕士发展“关系”,这可以带他们走向许多非常个人的方向,”库班在奥特曼宣布色情功能的 X 线程上写道,《财富》报道。
在 X 的其他地方,批评者猛击Altman 和 OpenAI 在 Altman 之后无耻地转向色情内容以保持用户的参与度承认8 月份,ChatGPT 的聊天用例已经“饱和”并达到了极限。
“他们不会变得更好,”奥特曼说。“也许情况会变得更糟。”大约在同一时间,Altman 吹嘘时代还没有那么绝望,以至于 OpenAI 不得不“在 ChatGPT 中放置一个性爱机器人头像,这对自己没有任何好处。”
据报道,ChatGPT 用户支出总体“停滞”,而欧洲的订阅量“持平”,《财富》杂志指出,OpenAI 可能别无选择,只能推出“成人模式”,与迅速赶上其能力的竞争对手竞争,并对 ChatGPT 的受欢迎程度构成威胁。
据《财富》杂志报道,“ChatGPT 中允许色情内容之类的公告可能表明,人工智能公司正在比以往任何时候都更加努力地争取增长,并且会为了短期利润而牺牲长期消费者的信任。”
由于 AI 情色是预计将成为人工智能行业的摇钱树一些内部人士告诉《华尔街日报》,他们一致认为 OpenAI 似乎“屈服于经济激励,试图让人们对其模型产生依恋。”
此举最终可能会损害 ChatGPT 的受欢迎程度。库班表示,对于家长来说,ChatGPT 可能会失宠,特别是因为内部人士告诉《华尔街日报》,OpenAI 的年龄验证不稳定,不太可能阻止孩子访问成人主题的聊天。这不仅仅是用户担心 OpenAI 今年晚些时候推出的年龄限制“成人模式”的问题。
参差不齐的年龄检查可能会引发更多抗议
OpenAI 长期以来一直在很大程度上禁止露骨内容,主要是因为担心未成年人可能会接触色情内容,或者用户通常可能会接触暴力性剥削的主题。
最初,这家人工智能公司计划扭转这一政策,并在 2026 年前三个月内推出“Naughty Chats”。然而,虽然 OpenAI 最近确认将推迟到今年晚些时候推出,以“优先考虑其他产品”,但内部人士告诉《华尔街日报》,暂停的部分原因是“部分是由于内部担忧和技术挑战。”这显然包括OpenAI 努力有效阻止未成年人访问“顽皮聊天”。
据内部人士透露,OpenAI 的新年龄预测系统旨在阻止未成年人进行成人主题的聊天,但在大约 12% 的情况下,该系统曾一度将未成年人错误地归类为成年人。消息人士称,以这样的成功率推出可能会导致数百万未成年人轻易避开年龄门槛,接触性感聊天机器人。
为了避免这种风险,OpenAI 应用程序首席执行官 Fidji Simo 去年 12 月证实 OpenAI 正在努力提高其年龄预测工具的准确性。目前还不清楚自那以后的几个月里可能取得了多大的进步,但 OpenAI 发言人向《华尔街日报》发表的声明可能不会激发一些家长的信心:“该公司的年龄预测算法显示出与行业其他公司相似的性能,但永远不会完全万无一失。”
对于成人用户来说,当“成人模式”成为现实时,OpenAI 年龄预测工具的有效性可能会成为下一波强烈反对的浪潮。
OpenAI 有已确认任何无法预测年龄的用户都必须通过名为 Persona 的服务进行年龄验证,才能访问“Naughty Chats”等功能。这已经让开发人员感到恐慌,他们已经注意到在论坛OpenAI 的年龄检查允许 Persona 扫描自拍照或检查 ID 并临时存储该数据,从而给所有用户带来巨大的隐私风险。开发人员尤其感到震惊的是,似乎存在“无法解释的”无法验证您的身份“错误,迫使用户重新提交敏感数据,并且用户只能从 OpenAI 或 Persona 获得有限的支持选项来解决这些错误。
最有可能的是,在尝试最终访问“成人模式”时遇到任何问题的用户如果得不到解决,也会遭受同样的挫败感。上个月,Discord 宣布在全球范围内推出年龄检查,随后遭到强烈反对。使用 Persona 运行有限测试在英国,用户称 Persona 过于具有侵略性。当时,当黑客试图闯入 Persona 的系统时,Persona 的首席执行官 Rick Song 为 Persona 的服务进行了辩护。Discord 最终放弃了 Persona 作为供应商的地位,并暂停了其全球年龄检查的推出。
ChatGPT 的“成人”过滤器存在缺陷
消息人士告诉《华尔街日报》,他们怀疑 OpenAI 的工具是否已准备好阻止儿童接触违禁内容。
他们的举报发生在OpenAI 解雇了一名高级安全主管OpenAI 否认与解雇有关,但这位离职员工直接批评了这家人工智能公司阻止儿童接触内容和阻止促进儿童剥削的输出的能力。此外,第二位前安全人员也发声了去年秋天,警告家长不要相信 OpenAI 的“成人模式”主张。
为了反驳这种说法,OpenAI 的发言人承诺,该公司“已制定计划来监控成人模式的一系列潜在长期影响,包括积极和消极的影响。”
然而,该计划很可能是由《华尔街日报》报道的那些坚决反对推出该计划的专家制定的,这让家长们怀疑 OpenAI 是否关心其青少年福祉团队的建议。
除了无效的年龄检查或聪明的未成年人逃避年龄限制之外,如果 OpenAI 自己的系统意外失败,它还可能会给父母带来麻烦。早在四月份,当 OpenAI 开始涉足更多有风险的输出时,OpenAI 修复了一个错误TechCrunch 测试发现允许未成年人在 ChatGPT 上访问色情图片。OpenAI 的过滤器似乎被打破了,这些过滤器原本应该明确限制“色情内容等敏感内容到科学、历史或新闻报道等狭隘背景”。
“在这种情况下,一个错误允许在这些准则之外做出响应,我们正在积极部署修复程序来限制这些代,”OpenAI 当时表示。
OpenAI 没有回应 Ars 的置评请求。
如果您或您认识的人有自杀倾向或陷入困境,请拨打 988 拨打预防自杀生命热线,以便您与当地危机中心取得联系。
