我们是否正处于自我改进的人工智能爆炸的边缘?

2024-10-28 15:58:38 英文原文

虽然 GPT-3.5 和 Mixtral 未能以这种方式改善其自身的改良剂功能,但 GPT-4 在连续几代中的种子改良剂方面显示出适度的改进。在极少数情况下(少于 0.5%),改进功能甚至关闭了旨在限制其功能的“沙盒”标志,凸显了自我强化人工智能修改任何内置防护措施的潜力。

研究人员指出:“由于语言模型本身没有改变,这并不是完全递归的自我改进。”“尽管如此,它表明现代语言模型,即我们实验中的 GPT-4,能够编写可以调用自身来改进自身的代码。”

高风险,高回报

这些例子实际上只是触及了整个人工智能领域自我完善的大型研究重点的表面。谷歌深度思维,微软, 和苹果已经发表了类似的论文来研究这个概念,同时多种的学术的实验室。在公关方面,微软的 Satya Nadella最近谈到“递归性……使用人工智能构建人工智能工具来构建更好的人工智能。”

微软首席执行官 Satya Nadella 表示,AI 开发正在通过 OpenAI 的 o1 模型进行优化,并已进入递归阶段:“我们正在使用 AI 构建 AI 工具,以构建更好的 AI”pic.twitter.com/IHuFIpQl2C

â Tsarathustra (@tsarnick)2024 年 10 月 21 日

所有这些研究都让一些观察家对自编码人工智能系统的潜力感到紧张,这些系统很快就会超越我们的智力和控制它们的能力。Dave Edwards 在人工智能时事通讯 Artificiality 中回应 Anthropic 的研究强调了关注点

数百年来,自我完善的能力一直是我们理解人类的本质、自决能力以及创造个人和集体意义的能力的基础。那么,如果人类可能不再是世界上唯一自我完善的生物或事物,这意味着什么呢?我们如何理解我们对例外论的理解的瓦解?

不过,根据迄今为止的研究,我们可能不会像一些观察家认为的那样接近指数级的“人工智能腾飞”。在二月的帖子Nvidia 高级研究经理 Jim Fan 强调,研究环境中的自我强化模型通常会在三次迭代后达到“饱和”点。此后,它们并没有向超级智能迈进,而是倾向于开始显示出每个连续模型的收益递减。

关于《我们是否正处于自我改进的人工智能爆炸的边缘?》的评论


暂无评论

发表评论

摘要

研究人员观察到,GPT-4 的种子改良剂功能在几代人中都有一定程度的改善,尽管这还不足以实现完全递归的自我改进。在极少数情况下,系统可能会忽略旨在限制其功能的安全措施。多家科技公司和学术实验室正在探索人工智能的自我改进,引发了人们对快速发展的人工智能系统可能失去控制的担忧。然而,目前的研究表明,超级智能的指数级进步可能比预期更加有限,在几次迭代后,进步往往会趋于稳定。