The ChatGPT logo displays on a smartphone screen in Athens, Greece, on September 16, 2024. (Photo by Nikolas Kokovlis/NurPhoto via Getty Images)

这个故事的一个版本出现在 CNN Business – Nightcap 时事通讯中。要将其放入您的收件箱,请免费注册,这里

纽约 美国有线电视新闻网~ 

自 OpenAI 将 ChatGPT 授予世界并掀起一场人工智能淘金热以来,已经过去两年了。数十亿美元正在涌入专注于人工智能和与人工智能相关的公司,因为它们承诺该技术将加速(或可能消除)现代生活的各个方面。

硅谷的说法是,人工智能列车已经离开车站,任何聪明的投资者最好在这些产品变得“超级智能”并开始解决世界上所有问题之前上车。(对于真正的信徒来说,这并不夸张,这些期望帮助芯片制造商英伟达等曾经的小众公司转变为地球上最有价值的资产,该公司将于周三公布财报。)

当然,这个叙述的关键 是像 ChatGPT 这样的大型语言模型 (LLM) 不断以指数速度改进的承诺。

多年来,一些人工智能怀疑论者一直对“扩展法则”发出警告,即只需向模型投入更多数据和计算能力,就可以不断改进模型的输出。不过,与其说这些是法律,不如说它们是有根据的猜测。事实是,即使是创建法学硕士的科学家也不能完全理解它们是如何运作的。

根据上周至少三份报告,现在一些领先的语言模型似乎遇到了障碍。参见这里:

  • 科技新闻媒体信息援引未透露姓名的 OpenAI 员工的话说,该公司的一些研究人员认为,其下一代旗舰人工智能模型 Orion“在处理某些任务方面并不比其前身更好。”
  • 彭博社报道还援引了两位未透露姓名的消息人士的话称,Orion“未能达到要求”,并且“到目前为止,与 OpenAI 现有模型相比,还没有像 GPT-4 相对于 GPT-3.5 那样有那么大的进步”。Ø
  • 路透社报道据三位熟悉情况的消息人士透露,主要人工智能实验室的研究人员在发布性能优于 OpenAI 的 GPT-4 模型的竞赛中遇到了延误和令人失望的结果,该模型已有近两年的历史。私人事务。 –
  • 它还引用了 OpenAI 联合创始人 Ilya Sutskever 的话,他于 5 月份离开了公司。– 2010 年代是扩展的时代,现在我们再次回到了奇迹和发现的时代。每个人都在寻找下一个目标,”Sutskever 说道。“扩大正确的规模现在比以往任何时候都更加重要。”
  • 就连曾经写过一篇文章的风险投资家马克·安德森 (Marc Andreessen)散文最近题为“为什么人工智能将拯救世界”在播客上说可用的模型“在功能上达到了相同的上限。”

OpenAI 首席执行官 Sam Altman 似乎反驳了这些报道,发帖上周 X 说“没有墙。”

无论是墙、山还是高原,或者无论你想怎么称呼它,即使是人工智能牛市也说,仅根据已发布的产品,我们就可能已经到达了一个转折点。

“我们已经有一段时间没有看到突破性的模式了,”投资集团 D.A. 的董事总经理吉尔·卢里亚 (Gil Luria)戴维森告诉我的。“部分原因是我们已经耗尽了所有的人类数据,因此仅仅对相同的数据投入更多的计算可能不会产生更好的结果。”

这是一个稍微有点技术性的问题,但了解模型的局限性很重要:为了让这些人工智能机器听起来像人类,你必须用人类数据来训练它们——基本上使用每一段文本或音频互联网。一旦模型吸收了所有这些,就没有什么“真实的”可以用来训练它了。

需要明确的是,平稳期并不一定是人工智能业务的丧钟。但这对于光学行业来说肯定不是好事,因为华尔街已经对投资者何时(或是否)可以期望看到这些闪亮的、非常昂贵的产品产生一些实际收入感到紧张。

Nvidia,备受重视的首选芯片制造商近3.5万亿美元,而其他主要人工智能参与者可能不必立即担心扩展问题。

“就 Nvidia 上季度和本季度的需求而言,毫无疑问,这种需求超出了他们的供应能力,”卢里亚说。

但如果我们确实遇到了规模扩张的障碍,“这可能意味着大型科技公司已经过度投资”,并且它们可能会在不久的将来缩减规模。

这就是人工智能乐观主义者/实用主义者的观点。

对于不那么乐观的前景,我转向了纽约大学名誉教授、对人工智能炒作直言不讳的批评者加里·马库斯(Gary Marcus)。

“经济形势可能会很严峻,”马库斯本月早些时候写道在他的子堆栈上。– 即使进步减弱,LLM 也不会消失,但其经济学可能永远没有意义……当每个人都意识到这一点时,金融泡沫可能会迅速破裂;当人们意识到其估值在多大程度上是基于错误的前提时,即使是英伟达也可能会受到打击。”