人工智能实验室的一项新测试:你想赚钱吗?|TechCrunch
作者:Russell Brandom
我们正处于人工智能公司构建自己的基础模型的独特时刻。
首先,有一整代行业资深人士曾在大型科技公司成名,但现在却单干了。还有经验丰富但商业抱负不明确的传奇研究人员。很明显,至少其中一些新实验室将成为 OpenAI 规模的庞然大物,但他们也有空间进行有趣的研究,而不必过多担心商业化。
最终结果是什么?很难判断谁真正想赚钱。
为了让事情变得更简单,我建议为任何制作基础模型的公司提供一种滑动尺度。这是一个五级尺度,如果你真的在赚钱,那并不重要——只有当你试图赚钱时。这里的想法是衡量野心,而不是成功。
用这些术语来思考:
- 5级:我们已经每天赚数百万美元,非常感谢。
- 4 级: 我们有一个详细的多阶段计划,旨在成为地球上最富有的人。
- 3级: 我们有许多有前途的产品创意,这些创意将在时机成熟时揭晓。
- 2 级: 我们已经有了计划概念的轮廓。�
- 1 级: 真正的财富是当你爱自己的时候。
大牌都在 5 级:OpenAI、Anthropic、Gemini 等等。随着新一代实验室的推出,规模变得更加有趣,它们有着远大的梦想,但野心可能更难以理解。
至关重要的是,参与这些实验室的人员通常可以选择他们想要的任何级别。现在人工智能领域的资金如此之多,以至于没有人会询问他们的商业计划。即使该实验室只是一个研究项目,投资者也会很乐意参与其中。如果你没有特别想成为亿万富翁的动力,那么你在第 2 级的生活可能会比在第 5 级的生活更幸福。
Techcrunch 活动
旧金山 | 2026年10月13-15日
问题的出现是因为人工智能实验室的规模始终不清楚,而当前人工智能行业的许多戏剧性事件都源于这种混乱。对 OpenAI 从非营利组织转型的担忧很大程度上来自于该实验室在 1 级上花费了数年时间,然后几乎一夜之间跃升至 5 级。另一方面,你可能会说 Meta 的早期人工智能研究坚定地处于第 2 级,而该公司真正想要的是第 4 级。
考虑到这一点,这里简要介绍了四个最大的当代人工智能实验室,以及它们的规模。
人类&�
人类&曾经本周人工智能重大新闻,也是提出整个量表的部分灵感。创始人对下一代人工智能模型提出了令人信服的主张,缩放法则让位于对通信和协调工具的强调。
但对于所有媒体的热烈报道,Humans& 一直对如何将其转化为实际的可盈利产品讳莫如深。看起来确实如此。 确实想要打造产品;团队只是不会承诺任何具体的事情。他们说的最多的是他们将构建某种人工智能工作场所工具,取代 Slack、Jira 和 Google Docs 等产品,同时也从根本上重新定义了这些其他工具的工作方式。适用于后软件工作场所的工作场所软件!
我的工作就是了解这些内容的含义,而且我对最后一部分仍然很困惑。但它足够具体,我认为我们可以将它们置于第 3 级。
思维机器实验室�
这是一个很难评价的问题!一般来说,如果您有一位前 CTO 和 ChatGPT 项目负责人筹集了 20 亿美元种子轮资金,您必须假设有一个非常具体的路线图。在我看来,Mira Murati 并不是一个没有计划就加入的人,因此进入 2026 年,我会感觉很好,将 TML 置于 4 级。
但后来 过去两周发生的事情。首席技术官兼联合创始人 Barret Zoph 的离职成为了大部分头条新闻,部分原因是 特殊情况参与。但至少还有其他五名员工离开了 Zoph,其中许多人表示对公司的发展方向感到担忧。仅仅一年后,TML 创始团队中近一半的高管就不再在那里工作。解读事件的一种方式是,他们认为自己有一个成为世界一流人工智能实验室的可靠计划,却发现该计划并不像他们想象的那么可靠。或者就规模而言,他们想要一个 4 级实验室,但意识到自己处于 2 级或 3 级实验室。
仍然没有足够的证据证明降级的合理性,但已经很接近了。
世界实验室�
李飞飞是人工智能研究领域最受尊敬的人物之一,因发起 ImageNet 挑战赛而闻名,该挑战赛启动了当代深度学习技术。她目前在斯坦福大学担任红杉资本资助的主席,共同领导两个不同的人工智能实验室。我不会让你厌烦地介绍所有不同的荣誉和学院职位,但足以说明,如果她愿意,她可以在余生中只接受奖项并被告知她有多么伟大。 她的书也很不错!
所以 2024年,当李宣布她为一家名为 World Labs 的空间人工智能公司筹集了 2.3 亿美元时,您可能会认为我们的运营水平为 2 级或更低。
但那已经是一年多前的事了,这对于人工智能世界来说已经是很长一段时间了。从那时起,世界实验室已经发货了 完整的世界生成模型和 商业化产品建立在它之上。在同一时期,我们看到了视频游戏和特效行业对世界建模需求的真实迹象,但没有一个主要实验室能够建造任何可以竞争的东西。结果看起来非常像一家 4 级公司,也许很快就会升级到 5 级。
安全超级智能(SSI)�
Safe Superintelligence (SSI) 由前 OpenAI 首席科学家 Ilya Sutskever 创立,似乎是 1 级初创公司的典型例子。Sutskever 竭尽全力使 SSI 免受商业压力,甚至达到了 拒绝 Meta 的收购尝试。没有产品周期,除了仍在酝酿的超级智能基础模型之外,似乎根本没有任何产品。通过这次推介,他筹集了 30 亿美元!Sutskever 一直对人工智能科学比对商业更感兴趣,一切迹象都表明这是一个真正的科学项目。
也就是说,人工智能世界发展很快,将 SSI 完全排除在商业领域之外是愚蠢的。开 他最近出现的矮人Sutskever 给出了 SSI 可能发生转变的两个原因,要么是“如果时间线被证明很长,它们可能会很长”,要么是因为“影响世界的最好、最强大的人工智能有很大的价值。”换句话说,如果研究进展得非常好或非常糟糕,我们可能会看到 SSI 迅速上升几个级别。
Russell Brandom 自 2012 年以来一直关注科技行业,重点关注平台政策和新兴技术。他此前曾在 The Verge 和 Rest of World 工作,并为《Wired》、《Awl》和《麻省理工学院技术评论》撰稿。您可以通过 russell.brandom@techcrunch.com 或拨打 Signal 电话 412-401-5489 联系他。