英特尔与谷歌深化合作推进人工智能基础设施
作者:Matt Hyatt
新闻亮点:
- 英特尔® 至强® 处理器将继续为人工智能、推理和通用工作负载的谷歌云基础设施提供支持
- 扩大基于 ASIC 的定制基础设施处理单元 (IPU) 的共同开发,以大规模提高效率、利用率和性能
- 协作强化了 CPU 和 IPU 在现代异构 AI 系统中的核心作用
加利福尼亚州圣克拉拉,2026 年 4 月 9 日– 英特尔公司(纳斯达克股票代码:INTC)和谷歌今天宣布开展多年合作,以推进下一代人工智能和云基础设施,强化 CPU 和定制基础设施处理单元 (IPU) 在扩展现代异构人工智能系统中的关键作用。
随着人工智能采用的加速,基础设施变得越来越复杂和异构,从而导致编排、数据处理和系统级性能对 CPU 的依赖日益增加。通过此次合作,英特尔和谷歌将在多代英特尔®至强®处理器上进行协调,以提高谷歌全球基础设施的性能、能源效率和总体拥有成本。
人工智能不仅仅运行在加速器上,它还运行在系统上。CPU 是这些系统的核心
Google Cloud 继续在其工作负载优化实例中部署 Intel Xeon 处理器,包括为 C4 和 N4 实例提供支持的最新 Intel Xeon 6 处理器。这些平台支持广泛的工作负载——从大规模人工智能训练协调到延迟敏感推理和通用计算。
与此同时,英特尔和谷歌正在扩大基于 ASIC 的定制 IPU 的联合开发。这些可编程加速器从主机 CPU 卸载网络、存储和安全功能,从而提高利用率、提高效率并在超大规模 AI 环境中实现更可预测的性能。
IPU 是现代数据中心架构的关键组件。通过处理传统上由 CPU 管理的基础设施任务,它们可以释放更大的有效计算能力,并允许云提供商更有效地扩展,而不会增加整体系统的复杂性。Xeon CPU 和 IPU 共同构成了一个紧密集成的平台,平衡通用计算与专用基础设施加速,以提供更高效、灵活和可扩展的 AI 系统。
大规模提高性能和效率
“人工智能正在重塑基础设施的构建和扩展方式,”英特尔首席执行官 Lip-Bu Tan 表示。– 扩展人工智能需要的不仅仅是加速器,还需要平衡的系统。CPU 和 IPU 是提供现代 AI 工作负载所需的性能、效率和灵活性的核心。
“CPU 和基础设施加速仍然是人工智能系统的基石——从训练编排到推理和部署,”Google 人工智能基础设施高级副总裁兼首席技术专家 Amin Vahdat 表示。“近二十年来,英特尔一直是值得信赖的合作伙伴,他们的至强路线图让我们有信心能够继续满足工作负载不断增长的性能和效率需求。”
为下一波人工智能浪潮奠定基础
扩大合作体现了对推进人工智能时代开放、可扩展基础设施的共同承诺。通过将通用计算与专用基础设施加速相结合,英特尔和谷歌正在为人工智能系统设计提供一种更加平衡的方法——一种提高利用率、降低复杂性并更有效地扩展的方法。
两家公司正在共同加强下一代人工智能驱动的云服务的基础,支持全球企业、开发者和用户的持续创新。