cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused OpenAI 正在全力打造全自动研究人员 - OurCoders (我们程序员)

OC

Knowledge OS
鹦鹉螺口语
OpenAI 正在全力打造全自动研究人员
2026-03-20 11:57:16 · 英文原文

OpenAI 正在全力打造全自动研究人员

作者:By Will Douglas Heavenarchive page

OpenAI 正在重新调整其研究工作重点,并将其资源投入到新的重大挑战中。这家旧金山公司的目标是建立所谓的人工智能研究人员,这是一个完全自动化的基于代理的系统,能够自行解决大型复杂的问题。– OpenAI 表示,这一新的研究目标将成为未来几年的“北极星”,汇集多个研究领域,包括推理模型、代理人, 和可解释性

甚至还有一个时间表。OpenAI 计划在 9 月份之前建立“一个自主的人工智能研究中心”,一个可以自行解决少量具体研究问题的系统。该人工智能实习生将成为该公司计划于 2028 年首次亮相的全自动多智能体研究系统的先驱。这位人工智能研究员(OpenAI 表示)将能够解决人类无法应对的太大或太复杂的问题。

这些任务可能与数学和物理(例如提出新的证明或猜想)或生物和化学等生命科学,甚至商业和政策困境有关。理论上,你可以用这样的工具来解决任何可以用文本、代码或白板涂鸦来表述的问题——这涵盖了很多内容。

多年来,OpenAI 一直在为人工智能行业制定议程。还早大型语言模型的主导地位塑造了数亿人每天使用的技术。但它现在面临着来自 Anthropic 和 Google DeepMind 等竞争对手模型制造商的激烈竞争。OpenAI 决定下一步要做什么很重要——对于它自己,对于人工智能的未来。 

这一决定的很大一部分取决于 OpenAI 首席科学家 Jakub Pachocki,他设定公司的长期研究目标。Pachocki 在 GPT-4(一种于 2023 年发布的改变游戏规则的法学硕士)和所谓的推理模型(一项于 2024 年首次出现、现在支撑所有主要聊天机器人和基于代理的系统的技术)的开发中发挥了关键作用。 

在本周的一次独家采访中,Pachocki 向我讲述了 OpenAI 的最新愿景。“我认为我们已经接近这样一个阶段:我们将拥有能够像人类一样以连贯方式无限期工作的模型,”他说。– 当然,您仍然希望有人负责并设定目标。但我认为我们将会达到这样的程度:在数据中心内拥有一个完整的研究实验室。”

解决难题

如此重大的主张并不新鲜。通过解决最困难的问题来拯救世界是所有顶级人工智能公司的既定使命。Demis Hassabis 在 2022 年告诉我,这是他为什么创办 DeepMind。Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 表示,他正在构建一个相当于数据中心的天才之国。帕乔基的老板萨姆·奥尔特曼想要治愈癌症。但 Pachocki 表示,OpenAI 现在已经具备了实现这一目标所需的大部分能力。

一月份,OpenAI 发布了 Codex,这是一款基于代理的应用程序,可以动态启动代码以在计算机上执行任务。它可以分析文档、生成图表、让您每日摘要收件箱和社交媒体等等。(其他公司也发布了类似的工具,例如 Anthropic 的 Claude Code 和 Claude Cowork。)

OpenAI 声称其大多数技术人员现在在工作中都使用 Codex。Pachocki 表示,您可以将 Codex 视为人工智能研究人员的早期版本:“我希望 Codex 能够从根本上变得更好。”

关键是要建立一个可以在更少的人工指导下运行更长时间的系统。“我们真正为自动化研究实习生寻找的是一个系统,您可以将需要花费几天时间的任务委派给该系统,”Pachocki 说。

“很多人对构建可以进行更长期科学研究的系统感到兴奋,”艾伦人工智能研究所的研究科学家 Doug Downey 表示,他与 OpenAI 没有联系。我认为这很大程度上是由这些编码代理的成功推动的。事实上,您可以将相当大量的编码任务委托给 Codex 等工具,这非常有用且令人印象深刻。这就提出了一个问题:我们可以在编码之外、在更广泛的科学领域做类似的事情吗?

对于帕乔基来说,这是一个明确的是的。事实上,他认为这只是在我们已经走上的道路上继续前进的问题。他说,全面能力的简单提升也能让模型在没有帮助的情况下工作更长时间。他指出了从2020 年 GPT-32023 年 GPT-4,OpenAI 之前的两个模型。他说,即使没有经过专门培训,GPT-4 能够比其前身更长时间地解决一个问题。 

所谓的推理模型带来了另一个冲击。训练法学硕士逐步解决问题,在犯错误或陷入死胡同时回溯,也使模型能够更好地工作更长的时间。Pachocki 坚信 OpenAI 的推理模型将继续变得更好。

但 OpenAI 还通过向系统提供复杂任务的特定样本(例如从数学和编码竞赛中获取的难题)来训练其系统自行工作更长时间,这迫使模型学习如何做一些事情,例如跟踪非常大的文本块并将问题分解为(然后管理)多个子任务。

我们的目标不是建立仅仅赢得数学竞赛的模型。“这可以让你在将技术连接到现实世界之前证明它是有效的,”Pachocki 说。– 如果我们真的愿意,我们可以打造一位令人惊叹的自动化数学家。我们拥有所有工具,我认为这会相对容易。但这不是我们现在要优先考虑的事情,因为你知道,当你相信自己可以做到这一点时,还有更紧急的事情要做。”

“我们现在更加关注与现实世界相关的研究,”他补充道。

现在,这意味着利用 Codex 在编码方面的能力,并尝试将其应用于解决一般问题。“正在发生巨大的变化,尤其是在编程方面,”他说。– 我们现在的工作与一年前完全不同。没有人真正一直在编辑代码了。相反,您管理一组 Codex 代理。 – 如果 Codex 可以解决编码问题(论点是这样的),那么它可以解决任何问题。

线路总是往上走

确实,OpenAI 在过去几个月中取得了一些非凡的成功。研究人员使用 GPT-5(为 Codex 提供支持的法学硕士)发现了许多未解决的数学问题的新解决方案,并突破了明显的死胡同一些生物学、化学和物理难题. . . . . . . . . . . . . . . . . . 

“只要看看这些模型,提出至少需要花费大多数博士周时间的想法,我就预计在不久的将来我们会看到这项技术带来更多的加速,”Pachocki 说。

但帕乔基承认,这还没有敲定。他也理解为什么有些人仍然怀疑这项技术到底能在多大程度上改变游戏规则。他认为这取决于人们喜欢如何工作以及他们需要做什么。“我相信有些人还没有发现它很有用,”他说。

他告诉我他甚至没有使用自动完成功能生成编码技术的最基本版本——一年前。“我对我的代码非常迂腐,”他说。“如果可以的话,我喜欢在 vim 中手动输入所有内容。”(Vim 是一种文本编辑器,受到许多铁杆程序员的青睐,您可以通过数十个键盘快捷键而不是鼠标与之交互。)

但当他看到最新型号的功能时,情况发生了变化。他仍然不会移交复杂的设计任务,但当他只想尝试一些想法时,这可以节省时间。“我可以让它在一个周末运行实验,而以前我需要花一周的时间来编写代码,”他说。

“我不认为它已经达到了我会让它掌控并设计整个事物的水平,”他补充道。“但是一旦你看到它做了一些需要一周才能完成的事情——我的意思是,这很难反驳。”

Pachocki 的计划是增强 Codex 等工具现有的解决问题的能力,并将其应用到整个科学领域。 

唐尼同意自动化研究人员的想法非常酷:“如果我们明天早上回来时代理已经完成了大量工作并且有新的结果可供我们检查,那就太令人兴奋了,”他说。

但他警告说,建立这样一个系统可能比帕乔基想象的要困难。去年夏天,唐尼和他的同事们在一系列科学任务上测试了几位顶级法学硕士。OpenAI 的最新模型 GPT-5 名列前茅,但仍然出现很多错误。

“如果你必须将任务串联在一起,那么你连续完成其中几个任务的可能性就会下降,”他说。Downey 承认事情进展很快,他还没有测试最新版本的 GPT-5(OpenAI 两周前发布了 GPT-5.4)。“所以这些结果可能已经过时了,”他说。 

严重的未回答问题

我向帕乔基询问了一个可以在几乎没有人为监督的情况下自行解决大型复杂问题的系统可能带来的风险。Pachocki 表示 OpenAI 的人们一直在谈论这些风险。

– 如果您相信人工智能将大幅加速研究,包括人工智能研究,那么这就是世界的巨大变化。这是一件大事,”他告诉我。——同时也带来了一些尚未解答的严重问题。如果它如此聪明和有能力,如果它可以运行整个研究项目,万一它做了坏事怎么办?

在帕乔基看来,这可能通过多种方式发生。系统可能会脱轨。它可能会被黑客入侵。或者它可能只是误解了它的指令。

OpenAI 目前解决这些问题的最佳技术是训练其推理模型,以共享其工作时正在做的事情的详细信息。这种密切关注法学硕士的方法被称为思路监控

简而言之,法学硕士被训练在逐步完成任务时在便笺本上记下他们正在做的事情。然后,研究人员可以使用这些注释来确保模型的行为符合预期。昨天 OpenAI 发布了有关其具体情况的新细节使用内部思维链监控来研究食品法典. . . 

“一旦我们的系统能够在大数据中心中长时间自主运行,我认为这将是我们真正依赖的东西,”Pachocki 说。

这个想法是使用其他法学硕士来监控人工智能研究人员的草稿本,并在出现问题之前发现不良行为,而不是试图从一开始就阻止不良行为的发生。我们对法学硕士的了解还不够充分,无法完全控制它们。

“我认为,我们还需要很长时间才能真正意识到,好吧,这个问题已经解决了,”他说。“在你真正信任系统之前,你肯定希望有适当的限制。”Pachocki 认为非常强大的模型应该部署在沙箱中,切断它们可能破坏或用来造成伤害的任何东西。 

人工智能工具已经被用来发起新颖的网络攻击。一些人担心它们将被用来设计可用作生物武器的合成病原体。您可以在这里插入任意数量的邪恶科学家的恐怖故事。“我绝对认为我们可以想象一些令人担忧的情况,”帕乔基说。 

——这将是一件非常奇怪的事情。这是一种极其集中的权力,在某些方面是前所未有的,”帕乔基说。– 想象一下,您拥有一个数据中心,可以完成 OpenAI 或 Google 可以完成的所有工作。过去需要大型人类组织的事情现在可以由几个人来完成。”

“我认为这对政府来说是一个巨大的挑战,需要弄清楚,”他补充道。

然而有些人会说政府是问题的一部分。的美国政府希望在战场上使用人工智能,例如。最近,人类与五角大楼之间的对决表明,对于我们应该如何使用这项技术以及不应该如何使用这项技术的红线,整个社会几乎没有达成一致意见,更不用说由谁来划定这些红线了。在那场纠纷发生后不久,OpenAI 加紧与五角大楼签署协议而不是它的竞争对手。局势仍然不明朗。

我在这件事上向帕乔基施压。他是否真的相信其他人能够解决这个问题,或者作为未来的关键建筑师,他是否感到个人责任?“我确实感到个人有责任,”他说。——但我不认为仅靠 OpenAI 以特定方式推动其技术或以特定方式设计其产品就可以解决这个问题。我们肯定需要政策制定者的大量参与。”

那我们会怎样呢?我们真的正走在帕乔基设想的人工智能之路上吗?当我问艾伦研究所的唐尼时,他笑了。“我已经在这个领域工作了几十年,我不再相信我对某些能力的预测有多远或近,”他说。 

OpenAI 的既定使命是确保通用人工智能(一种假设的未来技术,许多人工智能支持者认为该技术将能够在大多数认知任务上与人类相媲美)将使全人类受益。OpenAI 的目标是成为第一个构建它的人。但帕乔基在我们的谈话中唯一一次提到通用人工智能时,他很快就澄清了他所说的“经济变革技术”的含义。

他说,法学硕士与人脑不同:“从表面上看,它们在某些方面与人相似,因为它们主要接受过人们说话的训练。”但它们并不是通过进化而形成的,因此具有真正的效率。” 

– 即使到 2028 年,我也不期望我们的系统在各方面都像人类一样聪明。我认为这种情况不会发生,”他补充道。——但我认为这不是绝对必要的。有趣的是,你不需要在各方面都像人们一样聪明才能实现变革。”

关于《OpenAI 正在全力打造全自动研究人员》的评论

暂无评论

发表评论

摘要

OpenAI 致力于打造一个能够独立解决大型复杂问题的自主人工智能研究人员。这涉及开发能够处理数学和物理证明、生命科学研究和商业困境等任务的系统。该公司的目标是在 9 月推出“AI 研究实习生”原型,并计划在 2028 年推出全自动多智能体系统。OpenAI 首席科学家 Jakub Pachocki 认为,这项技术可以解决人类无法独自解决的复杂问题,有可能彻底改变各个领域的科学研究和问题解决。然而,对安全和道德影响的担忧也可以通过思想链监控等技术来解决,以确保人工智能行为的透明度和控制。

相关新闻

相关讨论