英语轻松读发新版了,欢迎下载、更新

有果汁?未来的AI处理器据说可以喝高达15,360瓦的功率 - 泰坦尼克号的需求需要异国情调和嵌入式冷却

2025-06-17 09:47:01 英文原文

作者:Anton ShilovSocial Links NavigationContributing Writer

Submer
(图片来源:Summer)

近年来,AI GPU的功耗已稳步增加,预计随着AI处理器融合了更多的计算机和HBM芯片,预计将继续上升。我们行业中的一些来源表明,NVIDIA的下一代GPU正在寻找6,000W至9,000W的热设计能力,但是来自领先的韩国研究所KAIST的专家认为,在未来10年中,AI GPU的TDP将一直提高到15,360W。结果,它们将需要相当极端的冷却方法,包括浸入冷却甚至嵌入式冷却。

KAIST

(图片来源:Kaist)

直到最近,涉及铜散热器和高压风扇的高性能空气冷却系统足以使Nvidia的H100 AI处理器冷却。但是,随着NVIDIA的Blackwell将其热量耗散增加到1200W,然后Blackwell Ultra将其TDP提高到1,400W,液体冷却溶液几乎是强制性的。鲁宾(Rubin)的情况变得更热,鲁宾(Rubin)将其TDP增加到1,800W,而Rubin Ultra则将GPU chiplets和HBM模块的数量增加一倍,以及TDP将一直延伸到3,600W。来自凯斯特相信Nvidia及其合作伙伴将使用直接芯片(D2C)液体冷却使用鲁宾Ultra,但是对于Feynman,他们将不得不使用更强大的东西。

根据KAIST和行业来源的说法,AI GPU的预期散热

滑动以水平滚动

一代

GPU包的总功率

冷却方法

布莱克韦尔超级

2025

1,400W

D2C

鲁宾

2026

1,800W

D2C

鲁宾Ultra

2027

3,600W

D2C

费曼

2028

4,400W

浸入冷却

Feynman Ultra

2029

6,000W*

浸入冷却

邮政

2030

5,920W

浸入冷却

近后超级超级

2031

9,000W*

浸入冷却

2032

15,360W

嵌入式冷却

*行业来源

KAIST的研究人员预测,AI GPU模块(尤其是NVIDIA的Feynman)将消散4,400W,而该行业的其他一些来源则认为,NVIDIA的Feynman Ultra将将其TDP提高到6,000W。这样的极端热量将需要使用浸入冷却,其中整个GPU-HBM模块被浸入热流体中。此外,预计此类处理器及其HBM模块将通过热VIA(TTVS),用于热量耗散的硅底物中的垂直通道引入。这些将与HBM模块底座中嵌入的热键层和温度传感器配对,以实时监测和反馈控制。

浸入式冷却预计到2032年,当近距离的GPU架构将每包TDP增加到5,920W(后脑后)甚至9000W(近9000W)时(后 - 远高)。

图1 of 3

KAIST
(图片来源:Kaist)

有必要注意的是,GPU模块中的主要消费者是计算芯片。但是,随着HBM堆栈的数量增加到16个,随着传染性后的数量,HBM6的每个堆栈功耗增加到120W,记忆的功耗大约为2,000W,大约是整个软件包的1/3。

来自Kaist的研究人员认为,到2035年,AI GPU的功耗将增加到15,360,这将要求嵌入式冷却结构用于计算和记忆chiplets。专家提到了两项关键创新:热传输线(TTL),它们从热点侧向移动热量到冷却界面,以及允许冷却液通过HBM堆栈垂直流动的流体TSV(F-TSV)。这些方法直接集成到插入器和硅中以维持热稳定性。

获取汤姆(Tom)的硬件的最佳新闻和深入的评论,直接进入收件箱。

到2038年,完全集成的热溶液将变得更加广泛和先进。他们将使用双面插入器在两侧进行垂直堆叠,并嵌入流体冷却。此外,GPU-ON-TOP架构将有助于优先从计算层中去除热量,同时TSV有助于平衡信号完整性和热流量。

KAIST

(图片来源:Kaist)

跟随汤姆在Google新闻上的硬件在您的提要中获取我们的最新新闻,分析和评论。确保单击“关注”按钮。

安东·希洛夫(Anton Shilov)是汤姆(Tom)硬件的撰稿人。在过去的几十年中,他涵盖了从CPU和GPU到超级计算机的所有内容,从现代流程技术和最新工厂工具到高科技行业的趋势。

关于《有果汁?未来的AI处理器据说可以喝高达15,360瓦的功率 - 泰坦尼克号的需求需要异国情调和嵌入式冷却》的评论


暂无评论

发表评论