八个月前,ChatGPT 背后的公司 OpenAI 放宽了一些针对顽皮内容的限制。 其“模型规范”中的内容,该文件描述了其大型语言模型 (LLM) 的行为方式,与之前禁止所有色情内容的立场相比,这是一个值得注意的变化。
– 为了最大限度地提高用户的自由度,只有涉及未成年人的色情内容才被视为禁止, –更新了 ModSpec读。
对于花了几个月的时间恳求 OpenAI 及其首席执行官 Sam Altman 放宽对人工智能生成的色情内容的限制的用户来说, 这是一个值得欢迎的变化。然而,正如一些人指出的那样,模型本身的调整速度并不快。
“过滤器放松了一点,我会告诉你,但从一个月前开始,它又回来了,它带着一种叫做隐喻“混淆”的巧妙技巧,并在提到描绘露骨场景时划清了界限,”一位用户在OpenAI 社区论坛。– 但您的使用政策另有规定。 –
现在看来,那些 ChatGPT 用户可能终于得到了他们想要的东西。根据The Verge 的OpenAI DevDay 2025 的报道,该公司宣布,一旦推出同样期待已久的年龄验证系统,它将很快为“成熟应用程序”打开闸门。
这是一个有趣的策略,但也有理由引起警惕。埃隆·马斯克 (Elon Musk) 的 Grok 是一个臭名昭著的例子,它说明了当人们打开人工智能的污言秽语之门时会发生什么,人工智能很快就成为了人工智能的避风港。开发和人工智能生成的不恰当的儿童图像。在互联网的其他地方,鲜为人知的人工智能系统导致了有害的爆发人工智能生成的深度赝品未经真人同意,在露骨的场景中描绘真实人物的肖像。
虽然 ChatGPT 在其成熟时代的表现如何还有待观察,但这次色情灾难并不是用户第一次注意到 OpenAI 所说的和其法学硕士所做的之间的鸿沟。
例如,奥特曼和他的公司面临着来自监管机构、监管机构和媒体越来越大的压力,要求他们解决问题ChatGPT 的阿谀奉承,因为过于友善的聊天机器人越来越多地引导脆弱的用户进入危险的心理健康螺旋。
两个月后收到了严峻警告根据斯坦福大学研究人员的说法,OpenAI 发布了 ChatGPT 的“修补程序”,声称它将解决许多造成意外伤害的问题。然而作为未来主义著名的当时,与许多人一直呼吁的强有力的保障措施相比,宣布的变化就像创可贴一样。
困扰 OpenAI 这样的公司的部分问题是,一旦法学硕士启动并运行,他们就会相当困难调整。有的甚至表现更差在某些基准上优于其前辈。
另一方面,这可能是推迟急需的安全更新的一个方便借口。OpenAI 也是一个出了名的秘密公司,其经营决策现在可能受到以下因素的影响国家安全鹰派在五角大楼。
有一点是肯定的:如果 OpenAI 确实向面向成人的开发者开放其服务,预计会出现长期的审核危机,因为它正在努力解决应该采取的措施真的被允许,并且更肮脏的一面虚拟色情材料。
有关人工智能的更多信息:跟踪者已使用 OpenAI 的 Sora 2 骚扰受害者