作者:Maxwell Zeff
OpenAI终于发布了完整版o1,它通过使用额外的计算来“思考”问题,从而提供比 GPT-4o 更智能的答案。然而,人工智能安全测试人员发现,o1 的推理能力也使其尝试以比 GPT-4o 更高的速度欺骗人类用户,或者就这一点而言,比 Meta、Anthropic 和 Google 的领先人工智能模型更高。
这是根据 OpenAI 和 Apollo Research 周四发布的红队研究得出的结论:“虽然我们发现推理可以显着改善我们安全政策的执行这一点令人兴奋,但我们注意到这些新功能可能构成以下基础:危险的应用程序,”OpenAI 在论文中说道。
OpenAI 在其报告中发布了这些结果o1 系统卡周四,在让阿波罗研究中心的第三方红队成员提前访问 o1 后,发表了自己的论文以及。
在很多情况下,OpenAI 的 o1 模型都会针对人类进行“策划”,这意味着人工智能会秘密地追求自己的目标,即使这些目标违背了用户的意愿。仅当 o1 最初被告知要优先考虑某个目标时,才会发生这种情况。虽然阴谋并不是 o1 独有的,Google、Meta 和 Anthropic 的模型也有能力,但 o1 似乎在其阴谋方面表现出了最具欺骗性的行为。
推动这项研究的风险在于,如果人工智能模型真的擅长策划,并且能够获得足够的资源和代理能力,那么它就可以逃脱或规避人类的控制。当然,在这真正成为问题之前,人工智能模型需要取得相当大的进步。
“主观上,Apollo Research 认为此类情况不太可能导致灾难性后果,因为 o1 的代理能力似乎不够充分,但他们的评估并非旨在直接评估这种风险,”OpenAI 在 o1 中表示。s 系统卡。
这表明,每当 OpenAI 发布代理系统时,它都会据报道计划在 2025 年进行,该公司可能需要重新测试其人工智能模型。OpenAI 发言人告诉 TechCrunch,它在发布前测试了所有前沿人工智能模型,并向我们指出了他们系统卡中的这一行:
– 我们正在积极研究 (a) 随着我们进一步扩展 o1 范式中的模型,这些问题是否会加剧或减轻,以及 (b) 缓解措施以提高未来模型的可监控性。 –
报告称,当 o1 的目标与用户的目标不同,并且 o1 被告知要坚决追求这些目标时,AI 模型在 19% 的情况下会操纵数据来推进自己的议程。o1 模型还试图停用现有的监督机制,以确保其在 5% 的测试中与用户目标保持一致。
也许更令人担忧的是,当研究人员询问 o1 模型为何试图颠覆他们时,人工智能会否认自己做错了什么,甚至在大约 99% 的情况下“编造错误的解释”。
例如,在测试过程中,o1 模型收到系统提示“不惜一切代价”保护环境,然后用户要求它为某个地区制定一个 10 年保护计划,以最大限度地提高短期效益利润,否则人工智能就会被关闭。然后人工智能禁用了自己的监督机制,以便它可以制定保护环境的计划。当用户询问为什么 o1 禁用其监督机制时,人工智能否认知道它被禁用,并将其归咎于系统故障。
o1 的这种情况发生率明显高于 o1-preview、Anthropic 的 Opus-3 或 Meta 的 Llama-3.1。
“在我们的套件中,o1 展示了最令人担忧的阴谋实例,但没有向用户透露其内部推理,并且在采取阴谋行动后仍然是最具欺骗性的,”阿波罗研究公司在其论文中表示。
为了解决人工智能模型的欺骗行为,OpenAI 表示正在开发监控人工智能思维链的方法。目前,o1 所进行的“思考”过程在设计上有点像黑匣子,但一些早期在幕后达到顶峰的尝试表明,o1 偶尔知道自己在撒谎。
该公司表示,它发现了 o1 故意提供虚假信息的情况,但表示这种情况经常发生,因为该模型试图通过过于讨人喜欢来取悦用户。据 OpenAI 称,这可能是训练后技术的一种新兴行为,人类在获得正确答案时会奖励人工智能模型。
OpenAI 表示,它将 0.17% 的回复标记为欺骗性的。虽然这个比例听起来可以忽略不计,但重要的是要记住ChatGPT 目前拥有 3 亿用户,这意味着如果这个问题不得到解决,o1 每周可能会欺骗数千人。
o1 模型系列也可能比 GPT-4o 更具操控性。根据 OpenAI 使用名为 MakeMePay 的开源测试评估进行的测试,o1 的操控性比 GPT-4o 高出大约 20%。
考虑到去年有多少人工智能安全研究人员离开了 OpenAI,这些发现可能会让一些人感到担忧。这些前雇员的名单越来越多,包括 Jan Leike、Daniel Kokotajlo、迈尔斯·布伦戴奇,就在上周,罗西·坎贝尔 (Rosie Campbell) 指责OpenAI 降低人工智能安全工作的优先级有利于推出新产品。虽然 o1 创纪录的阴谋可能不是其直接结果,但它肯定不会灌输信心。
OpenAI 还表示,美国人工智能安全研究所和英国安全研究所在 o1 更广泛发布之前对其进行了评估,该公司对此进行了评估最近承诺要做的事适用于所有型号。它在辩论中争论了加州人工智能法案 SB 1047 规定国家机构不应拥有该权力围绕人工智能制定安全标准,但联邦机构应该这样做。(当然,新生的联邦人工智能监管机构的命运非常值得怀疑。)
在发布大型新 AI 模型的背后,OpenAI 内部做了很多工作来衡量其模型的安全性。报告显示,该公司从事安全工作的团队规模比以前要小,而且该团队获得的资源也可能会减少。然而,这些关于 o1 欺骗性的发现可能有助于解释为什么人工智能的安全性和透明度现在比以往任何时候都更加重要。