据报道,OpenAI 首席执行官 Sam Altman 正试图说服拜登政府,庞大的人工智能数据中心网络(每个数据中心消耗高达 5 吉瓦的电力)对于确保美国国家安全并保持对中国的技术领先地位至关重要。
<彭博社本周审阅的一份文件详细介绍了该提案,概述了在美国各地建立多个此类数据中心的优点。就在这份报告发布几周前,Altman 和其他科技领袖在白宫会面,讨论人工智能技术和基础设施的扩散。彭博社还援引 Constellation Energy Corp. 的高管报道称,Altman 可能正在计划多达 5-7 个这样的数据中心,但将从一个开始。
但是,即使建设一个这样的设施也将是一项艰巨的任务。5 吉瓦是一个巨大的电力,每个数据中心所需的电力大致相当于五个压水核反应堆的电力。
维护这些设施所需的发电站将是美国最大的发电站之一,仅次于位于华盛顿州的 Grand Coulee 水力发电厂,该水力发电厂的额定容量为 6.8 吉瓦。
第二大的发电厂是佐治亚州的 Alvin W. Vogtle 和亚利桑那州的 Palo Verde 发电站,每个发电厂都是核电站包含四个反应堆,分别能够产生约 4.6 吉瓦和 3.9 吉瓦的电力。
此外,产能过剩已经成为许多数据中心发展的限制因素。世邦魏理仕上个月末的一份报告发现,电力和利用电力所需的设备短缺导致了延误。
由于电力需求如此之高,云提供商已经采取了极端措施,以确保他们不会出现延误。在人工智能竞赛中不要落后。上周,微软宣布与 Constellation Energy 签订为期 20 年的电力采购协议,以使 837 兆瓦的三哩岛 1 号核电站重新上线,成为最新一家拥抱核电的云提供商。
今年早些时候,亚马逊向拥有并运营萨斯奎哈纳核电站的 Talen Energy 示好,以 6.5 亿美元收购了其 Cumulus 数据中心设施。根据协议,亚马逊最终将获得高达 960 兆瓦的电力。
甲骨文创始人拉里·埃里森甚至正在谈论最终部署小型模块化反应堆,为这家数据库巨头的人工智能扩张提供动力。
即使美国能够克服电力挑战,仍然存在采购足够的加速器来填充这些数据中心的问题。假设电源使用效率 (PUE) 为 1.1,我们估计 5 吉瓦的设施可以支持超过 35,000 个 Nvidia 的 Grace-Blackwell NVL72 机架规模系统或大约 250 万个 Blackwell GPU。再次强调,这只是猜测,旨在强调这将是一项艰巨的任务。
就此而言,Uptime Institute 最近估计 Nvidia 在 2023 年出货了大约 600,000 台 H100,并预测这家 GPU 巨头的出货量将在 1.5 到 1.5 之间。今年将生产 200 万颗芯片。
在产业链的更下游,并不能保证台积电能够跟上,特别是考虑到制造这些芯片所需的 CoWoS 封装能力已经受到多么有限,完全是另一回事。
当然,滑稽,夸张了创意是奥特曼的招牌动作。今年早些时候,有报道称他提出了一个价值 7 万亿美元的项目,旨在建立一个芯片工厂网络,以推动他的人工智能野心。然而,在 2 月份的英特尔 Foundry 活动上发表讲话时,OpenAI 首席执行官提醒人们,并非您在互联网上读到的所有内容都是真实的。
因此,据我们所知,据报道 Altman 试图出售的数据中心计划拜登政府可能只是为了让美国政府考虑支持未来人工智能发展所需的长期投资。
The Register 联系了 OpenAI 征求意见;如果我们收到任何回复,我们会通知您。