Meta 与 NVIDIA 共同构建 AI 基础设施
Meta 的 AI 路线图由 NVIDIA CPU、网络和数百万个 NVIDIA Blackwell 和 Rubin GPU 的大规模部署提供支持
新闻摘要:
- Meta 扩展了 NVIDIA CPU 部署,并显着提高了数据中心的每瓦性能。
- Meta 通过 NVIDIA Spectrum-X 以太网横向扩展 AI 工作负载,支持网络效率和吞吐量。
- Meta采用了NVIDIA机密计算,在启用AI功能的同时保护用户隐私。
NVIDIA 今天宣布与 Meta 建立多年、多代的战略合作伙伴关系,涵盖本地、云和人工智能基础设施。
Meta 将建立针对训练和推理进行优化的超大规模数据中心,以支持公司的长期人工智能基础设施路线图。此次合作将实现 NVIDIA CPU 和数百万个 NVIDIA Blackwell 和 Rubin GPU 的大规模部署,以及集成NVIDIA Spectrum-X™ 以太网适用于 Meta 的 Facebook 开放交换系统平台的交换机。
NVIDIA 创始人兼首席执行官黄仁勋表示:“没有人能够以 Meta 的规模部署人工智能,将前沿研究与工业规模的基础设施相结合,为数十亿用户提供全球最大的个性化和推荐系统。”“通过跨 CPU、GPU、网络和软件的深度协同设计,我们将完整的 NVIDIA 平台提供给 Meta 的研究人员和工程师,帮助他们为下一个 AI 前沿奠定基础。”
Meta 创始人兼首席执行官马克·扎克伯格 (Mark Zuckerberg) 表示:“我们很高兴能够扩大与 NVIDIA 的合作伙伴关系,利用他们的 Vera Rubin 平台构建领先的集群,为世界上的每个人提供个人超级智能。”
扩展 NVIDIA CPU 部署以提升性能
Meta 和 NVIDIA 继续合作,为 Meta 的数据中心生产应用部署基于 Arm 的 NVIDIA Grace™ CPU,作为 Meta 长期基础设施战略的一部分,显着提高其数据中心的每瓦性能。
此次合作代表了首次大规模仅使用 NVIDIA Grace 的部署,并得到 CPU 生态系统库中的协同设计和软件优化投资的支持,以提高每一代的每瓦性能。
两家公司还合作部署 NVIDIA Vera CPU,有望在 2027 年进行大规模部署,进一步扩展 Meta 的节能 AI 计算足迹,并推进更广泛的 Arm 软件生态系统。
统一架构支持 Meta 的 AI 基础设施
Meta 将部署业界领先的基于 NVIDIA GB300 的系统,并创建一个跨越本地数据中心和NVIDIA 云合作伙伴部署以简化操作,同时最大限度地提高性能和可扩展性。
此外,Meta 在其基础设施范围内采用了 NVIDIA Spectrum-X 以太网网络平台,以提供 AI 规模的网络,提供可预测的低延迟性能,同时最大限度地提高利用率并提高运营和电源效率。
WhatsApp 的机密计算
元已经采用NVIDIA 机密计算用于 WhatsApp 私人处理,在整个消息平台上启用人工智能驱动的功能,同时确保用户数据的机密性和完整性。
NVIDIA 和 Meta 正在合作,将 NVIDIA 机密计算功能从 WhatsApp 扩展到 Meta 产品组合中的新兴用例,从而大规模支持隐私增强型 AI。
协同设计 Meta 的下一代 AI 模型
NVIDIA 和 Meta 的工程团队致力于深度协同设计,以优化和加速 Meta 核心工作负载中最先进的 AI 模型。这些努力将 NVIDIA 的全栈平台与 Meta 的大规模生产工作负载相结合,为全球数十亿人使用的新 AI 功能提供更高的性能和效率。