英语轻松读发新版了,欢迎下载、更新

独家:英伟达首席执行官称其人工智能芯片的改进速度快于摩尔定律

2025-01-07 23:45:00 英文原文

作者:Maxwell Zeff

英伟达首席执行官黄仁勋表示,该公司人工智能芯片的性能进步速度超过了摩尔定律设定的历史速度,摩尔定律几十年来一直推动计算进步。

“我们的系统的进步速度比摩尔定律快得多,”黄在周二接受 TechCrunch 采访时说道,就在他发表演讲的第二天早上。在 CES 上向 10,000 人发表主题演讲在拉斯维加斯。

摩尔定律由英特尔联合创始人戈登·摩尔 (Gordon Moore) 于 1965 年提出,预测计算机芯片上的晶体管数量每年大约会增加一倍,从而使这些芯片的性能基本上翻倍。这一预测基本实现了,并在几十年内实现了能力的快速进步和成本的直线下降。

近年来,摩尔定律的速度已经放缓。然而,黄仁勋声称,英伟达的人工智能芯片正在加速发展。该公司表示,其最新的数据中心超级芯片运行人工智能推理工作负载的速度比上一代快 30 倍以上。

“我们可以同时构建架构、芯片、系统、库和算法,”黄说。– 如果您这样做,那么您的行动速度将超过摩尔定律,因为您可以在整个堆栈中进行创新。 –

Nvidia 首席执行官提出这一大胆主张之际,许多人质疑人工智能的进步是否已经停滞。领先的人工智能实验室(例如 Google、OpenAI 和 Anthropic)使用 Nvidia 的人工智能芯片来训练和运行其人工智能模型,这些芯片的进步可能会转化为人工智能模型功能的进一步进步。

这并不是黄仁勋第一次暗示英伟达正在超越摩尔定律。在 11 月的播客上,黄建议人工智能世界正在朝着“超摩尔定律”迈进。

黄拒绝了人工智能进步正在放缓的观点。相反,他声称现在存在三种活跃的人工智能扩展法则:预训练,人工智能模型从大量数据中学习模式的初始训练阶段;训练后,使用人类反馈等方法微调人工智能模型的答案;以及测试时计算,它发生在推理阶段,并为人工智能模型在每个问题后提供更多的时间“思考”。

“摩尔定律在计算史上非常重要,因为它降低了计算成本,”黄告诉 TechCrunch。“同样的事情也会发生在我们提高性能的推理中,因此,推理的成本将会降低。”

(当然,Nvidia有成长为地球上最有价值的公司乘着人工智能热潮,所以黄这样说是有好处的。)

Nvidia CEO黄仁勋使用GB200 nvl72作为盾牌。图片来源:英伟达

Nvidia 的 H100 是希望训练人工智能模型的科技公司的首选芯片,但现在科技公司更加关注推理,一些人质疑英伟达昂贵的芯片是否仍能保持领先地位。

如今,使用测试时计算的人工智能模型的运行成本很高。人们担心 OpenAI 的 o3 模型使用测试时计算的放大版本,对于大多数人来说使用起来过于昂贵。例如,OpenAI 使用 o3 在每个任务上花费近 20 美元来达到人类水平的分数在一般智力测试中。ChatGPT Plus 订阅一整月的费用为 20 美元。

在周一的主题演讲中,黄在台上举起了 Nvidia 最新的数据中心超级芯片 GB200 NVL72,就像盾牌一样。该芯片运行 AI 推理工作负载的速度比 Nvidia 之前最畅销的芯片 H100 快 30 到 40 倍。Huang 表示,这种性能飞跃意味着像 OpenAI o3 这样在推理阶段使用大量计算的人工智能推理模型将随着时间的推移而变得更便宜。

黄仁勋表示,他总体上专注于创造性能更高的芯片,而从长远来看,性能更高的芯片会带来更低的价格。

“无论是在性能还是成本承受能力方面,测试时计算的直接解决方案是提高我们的计算能力,”黄告诉 TechCrunch。他指出,从长远来看,人工智能推理模型可以用来为人工智能模型的训练前和训练后创建更好的数据。

去年我们确实看到人工智能模型的价格暴跌,部分原因是英伟达等硬件公司在计算方面取得了突破。黄说,他预计人工智能推理模型将继续保持这一趋势,尽管我们从 OpenAI 看到的第一个版本相当昂贵。

更广泛地说,黄仁勋声称他现在的人工智能芯片比 10 年前制造的芯片好 1000 倍。这比摩尔定律设定的标准要快得多,一位黄说,他认为没有迹象表明会很快停止。

TechCrunch 有一份以人工智能为中心的时事通讯! 在这里注册每周三将其发送到您的收件箱。

Maxwell Zeff 是 TechCrunch 的高级记者,专门研究人工智能和新兴技术。此前,Zeff 曾在 Gizmodo、彭博社和 MSNBC 报道过人工智能的崛起和硅谷银行危机。他居住在旧金山。不报道的时候,他会徒步旅行、骑自行车,探索湾区的美食。

关于《独家:英伟达首席执行官称其人工智能芯片的改进速度快于摩尔定律》的评论


暂无评论

发表评论

摘要

Nvidia 首席执行官黄仁勋声称,该公司的 AI 芯片的发展速度比摩尔定律更快,最新的数据中心超级芯片运行 AI 推理工作负载的速度比上一代快了 30 倍以上。黄将这种快速进步归功于英伟达同时跨硬件和软件进行创新的能力。他还断言,随着时间的推移,测试时计算的进步将导致人工智能模型功能变得更便宜,从而消除了人们对运行此类模型成本高昂的担忧。