英语轻松读发新版了,欢迎下载、更新

NVIDIA推出了新的GPU,以推导AI推理,大型工作量

2025-09-09 15:22:45 英文原文

作者:by Andy Patrizio

NVIDIA的Rubin CPX Chip结合了Vera CPU,Rubin GPU,针对大规模的文化处理NVIDIA的Rubin CPX Chip结合了Vera CPU,Rubin GPU,针对大规模的文化处理

Nvidia拥有

取消包裹一个新的专用GPU以及专门针对大规模上下文处理以及令牌软件编码和生成视频的下一代平台。 -  

[有关的:一个 更多的NVIDIA新闻和见解] -  

Rubin CPX芯片是NVIDIA的下一代Vera CPU和Rubin GPU的组合(在新的NVIDIA RUBIN NVL144 CPX平台内的Grace CPU和Blackwell GPU的后继者。对于长篇小说用例,分解服务解决方案。

该公司称,该集成的MGX系统包装了8个FP4 AI的Exaflops计算功率,可提供比当前GB300 NVL72系统顶部的AI性能的7.5倍,以及100TB的快速存储器和1.7 pabyte and 1.7 pabyte and 1.7 pabyte and 1.7 pabytes每秒记忆带宽。

在实际使用方面,Rubin CPX专注于长期处理处理的最高绩效和令牌收入。为了处理视频,AI模型最多可以花费一百万个令牌,其中一个小时的内容可能需要花费数小时的时间才能产生。系统可以生成的令牌越多,它可以做的更大的规模处理。

Rubin CPX用NVFP4精度提供多达30 petaflops的计算。它具有128GB的GDDR7内存,而不是通常的HBM内存,该内存比GDDR贵。NVIDIA说,GDDR7具有足够的性能,与GB300 NVL72系统相比,Rubin CPX的注意力能力更快。

NVIDIA数据中心集团产品总监Shar Narasimhan表示,推断通常被认为是AI过程中的一步,但是这两个工作负载。它们是上下文或预填充阶段和解码阶段。这两个阶段中的每一个都对基础AI基础架构的要求不同。

预填充阶段是计算密集型的,而解码阶段是记忆密集型的,但是到现在为止,当它确实完成一个任务时,GPU被要求同时完成两者。Narasimhan说,鲁宾CPX已设计为改善记忆性能。

因此,Rubin CPX都是针对这两个阶段的专门建造,提供了处理能力以及高吞吐量和效率。Narasimhan说,它将大大提高AI工厂的生产率和绩效。”它通过大量的代币产生来实现这一目标。代币在AI中平等的工作单位,尤其是生成AI,因此产生的代币越多,产生的收入就越多。

NVIDIA还宣布了一个新的Vera Rubin NVL 144 CPX机架,提供了NVL72的7.5倍,即线系统的当前顶部。Narasimhan表示,NVL 144 CPX使AI服务提供商能够通过每次投资于基础设施的1亿美元提供50亿美元的收入来大大提高其盈利能力。

Rubin CPX提供多种配置,包括Vera Rubin NVL144 CPX,可以与NVIDIA Spectrum-XGS Ethernet Technology和Nvidia ConnectX-9超级NEVX-9超级NEPNICS结合使用量子X800 Infiniband缩放量表或Spectrum-XTM Ethernet网络平台。

Nvidia Rubin CPX预计将于2026年底提供。

订阅我们的新闻通讯

从我们的编辑直接到您的收件箱

通过在下面输入您的电子邮件地址开始。

关于《NVIDIA推出了新的GPU,以推导AI推理,大型工作量》的评论


暂无评论

发表评论

摘要

NVIDIA揭示了Rubin CPX芯片,整合Vera CPU和Rubin GPU,以进行大规模的秘密处理。该系统提供了8个Exaflops FP4 AI计算功率,提供的性能是当前顶部系统的7倍,具有100TB的快速内存和1.7 pb bet,每秒在单个机架中的内存带宽。Rubin CPX旨在有效地处理长篇小说用例,可支持生成视频处理,可提供NVFP4精度和128GB GDDR7内存的最多30 Petaflops的计算。新的Vera Rubin NVL 144 CPX机架提供了现有系统性能的七倍,目标是50亿美元的收入,每1亿美元投资于基础设施。预期可用性是在2026年底。