NVIDIA的Rubin CPX Chip结合了Vera CPU,Rubin GPU,针对大规模的文化处理NVIDIA的Rubin CPX Chip结合了Vera CPU,Rubin GPU,针对大规模的文化处理
Nvidia拥有
取消包裹一个新的专用GPU以及专门针对大规模上下文处理以及令牌软件编码和生成视频的下一代平台。 -
[有关的:一个 更多的NVIDIA新闻和见解] -
Rubin CPX芯片是NVIDIA的下一代Vera CPU和Rubin GPU的组合(在新的NVIDIA RUBIN NVL144 CPX平台内的Grace CPU和Blackwell GPU的后继者。对于长篇小说用例,分解服务解决方案。
该公司称,该集成的MGX系统包装了8个FP4 AI的Exaflops计算功率,可提供比当前GB300 NVL72系统顶部的AI性能的7.5倍,以及100TB的快速存储器和1.7 pabyte and 1.7 pabyte and 1.7 pabyte and 1.7 pabytes每秒记忆带宽。
在实际使用方面,Rubin CPX专注于长期处理处理的最高绩效和令牌收入。为了处理视频,AI模型最多可以花费一百万个令牌,其中一个小时的内容可能需要花费数小时的时间才能产生。系统可以生成的令牌越多,它可以做的更大的规模处理。
Rubin CPX用NVFP4精度提供多达30 petaflops的计算。它具有128GB的GDDR7内存,而不是通常的HBM内存,该内存比GDDR贵。NVIDIA说,GDDR7具有足够的性能,与GB300 NVL72系统相比,Rubin CPX的注意力能力更快。
NVIDIA数据中心集团产品总监Shar Narasimhan表示,推断通常被认为是AI过程中的一步,但是这两个工作负载。它们是上下文或预填充阶段和解码阶段。这两个阶段中的每一个都对基础AI基础架构的要求不同。
预填充阶段是计算密集型的,而解码阶段是记忆密集型的,但是到现在为止,当它确实完成一个任务时,GPU被要求同时完成两者。Narasimhan说,鲁宾CPX已设计为改善记忆性能。
因此,Rubin CPX都是针对这两个阶段的专门建造,提供了处理能力以及高吞吐量和效率。Narasimhan说,它将大大提高AI工厂的生产率和绩效。”它通过大量的代币产生来实现这一目标。代币在AI中平等的工作单位,尤其是生成AI,因此产生的代币越多,产生的收入就越多。
NVIDIA还宣布了一个新的Vera Rubin NVL 144 CPX机架,提供了NVL72的7.5倍,即线系统的当前顶部。Narasimhan表示,NVL 144 CPX使AI服务提供商能够通过每次投资于基础设施的1亿美元提供50亿美元的收入来大大提高其盈利能力。
Rubin CPX提供多种配置,包括Vera Rubin NVL144 CPX,可以与NVIDIA Spectrum-XGS Ethernet Technology和Nvidia ConnectX-9超级NEVX-9超级NEPNICS结合使用量子X800 Infiniband缩放量表或Spectrum-XTM Ethernet网络平台。
Nvidia Rubin CPX预计将于2026年底提供。
订阅我们的新闻通讯
从我们的编辑直接到您的收件箱
通过在下面输入您的电子邮件地址开始。