AMD发布第五代AMD EPYC处理器、AMD Instinct MI325X加速器和AMD Ryzen AI PRO处理器。

SAN FRANCISCO,CA,2024年10月14日——AMD发布了定义人工智能计算时代的最新高性能计算解决方案,包括5原文:th采用了AMD EPYC服务器CPU、AMD Instinct MI325X加速器、AMD Pensando Salina DPU、AMD Pensando Pollara 400网卡以及AMD Ryzen AI PRO 300系列处理器用于企业AI PC。AMD及其合作伙伴还展示了他们如何大规模部署AMD AI解决方案,AMD ROCm开源AI软件生态系统的持续增长,以及一系列基于AMD Instinct加速器、EPYC CPU和Ryzen PRO CPU的新解决方案。

“数据中心和人工智能为AMD带来了巨大的增长机会,我们正在不断壮大EPYC处理器和AMD Instinct处理器在日益增多的客户群体中的影响力,”AMD董事长兼首席执行官苏德碧博士说道。“凭借我们的新一代EPYC CPU、AMD Instinct GPU以及Pensando DPU,我们正向客户提供领先的计算能力以支持他们最重要的和最具挑战性的业务负载。展望未来,我们预计到2028年数据中心AI加速器市场规模将达到5000亿美元。我们将致力于通过扩大硅片、软件、网络及集群级解决方案的开放创新来实现规模化发展。”

定义人工智能时代的数据中心

AMD 宣布了一系列针对人工智能、企业、云和混合工作负载的数据中心解决方案:

  • 新的AMD EPYC 9005系列处理器提供了创纪录的性能,以满足数据中心多样化的计算需求。该系列产品基于最新的“Zen 5”架构,提供高达192个核心,并将于今日起在领先的原始设备制造商和原始设计制造商的各种平台上推出。
  • AMD继续执行其每年推出AI加速器的计划,发布了AMD Instinct MI325X,为最苛刻的人工智能工作负载提供领先的性能和内存能力。AMD还分享了下一代AMD Instinct MI350系列加速器的最新细节,该产品预计将于2025年下半年发布,进一步扩展了AMD Instinct在内存容量和生成式AI性能方面的领导地位。基于AMD CDNA Next架构的AMD Instinct MI400系列加速器的研发取得了重大进展,计划于2026年推出。
  • AMD持续改进其AMD ROCm软件堆栈,将AMD Instinct MI300X加速器在一系列最流行的AI模型中的推理和训练性能翻了一番。如今,超过一百万个模型可以在AMD Instinct上无缝运行,这一数量是MI300X发布时可用模型的三倍,并且这些模型从第一天开始就得到了广泛支持。
  • AMD还扩大了其高性能网络产品组合,以满足AI基础设施不断演变的系统网络需求,最大化CPU和GPU性能,从而在整个系统中提供性能、可扩展性和效率。AMD Pensando Salina DPU为AI系统提供了高性能前端网络,而AMD Pensando Pollara 400是第一个Ultra Ethernet Consortium准备好的NIC,它减少了性能调优的复杂性,并有助于缩短上市时间。

AMD合作伙伴详细介绍了他们如何利用AMD的数据中心解决方案来推动领先的生成式人工智能能力,提供每天被数百万人使用的云基础设施,并为领先的企业提供本地和混合数据中心的支持。

  • 自2023年12月发布以来,AMD Instinct MI300X加速器已由领先的云服务提供商、原始设备制造商和原始设计制造商大规模部署,并且每天为使用包括OpenAI的ChatGPT、Meta Llama以及Hugging Face平台上超过一百万个开源模型在内的流行人工智能模型的数百万用户提供服务。
  • 谷歌强调了AMD EPYC处理器如何为人工智能、高性能计算、通用计算和保密计算等多种实例提供支持,包括他们的AI超计算机,这是一种旨在最大化人工智能投资回报率的超级计算架构。谷歌还宣布基于EPYC 9005系列的虚拟机将于2025年初推出。
  • Oracle云基础设施介绍了它是如何利用AMD EPYC CPU、AMD Instinct加速器和Pensando DPU为像Uber、Red Bull Powertrains、PayPal和Fireworks AI这样的客户提供快速且节能的计算和网络基础设施的。OCI宣布推出由EPYC 9005处理器驱动的新E6计算平台。
  • Databricks强调了其模型和工作流如何在AMD Instinct和ROCm上无缝运行,并披露了他们的测试显示,AMD Instinct MI300X GPU的大容量内存和计算能力有助于Llama以及Databricks专有模型的性能提高超过50%。
  • 微软首席执行官萨蒂亚·纳德拉强调了微软与AMD在其产品供应和基础设施方面长期合作及共同创新的情况,MI300X在Microsoft Azure和GPT工作负载上表现出强劲的性能。纳德拉和苏还讨论了两家公司在AMD Instinct路线图上的深厚合作关系以及微软如何计划利用包括MI350系列及其以后未来的AMD Instinct加速器来为AI应用提供每美元每瓦领导级别的性能。
  • Meta详细介绍了AMD EPYC CPU和AMD Instinct加速器如何为其在AI部署和服务中的计算基础设施提供动力,MI300X负责Llama 405B上的所有实时流量。Meta还与AMD合作,从硅片、系统、网络到软件和应用全面优化AI性能。
  • 领先的原始设备制造商戴尔、HPE、联想和Supermicro正在通过新的平台扩展其高性能且节能的AMD EPYC处理器产品线,这些新平台旨在将数据中心现代化以适应人工智能时代。

扩展开放的人工智能生态系统

AMD继续在开放的AI生态系统中投资,并通过新的功能、工具、优化和支持来扩展AMD ROCm开源软件堆栈,以帮助开发人员从AMD Instinct加速器中提取最佳性能并为当今领先的AI模型提供即插即用的支持。Essential AI、Fireworks AI、Luma AI和Reka AI的领导层讨论了他们如何在AMD硬件和软件上优化模型。

AMD还举办了一场由包括微软、OpenAI、Meta、Cohere、xAI等在内的整个AI开发者生态系统中的技术领导者参加的开发者活动。该活动中,流行AI编程语言、模型和框架(如Triton、TensorFlow、vLLM和Paged Attention、FastChat等)的发明者进行了主题演讲,这些技术和框架对于正在进行的AI转型至关重要。他们分享了开发人员如何通过与供应商无关的编程语言解锁AI性能优化,在AMD Instinct加速器上加速模型,并强调将代码移植到ROCm软件中的简便性以及开源方法为整个生态系统带来的好处。

利用AI PC提升企业生产力

AMD推出了AMD锐龙AI PRO 300系列处理器,为第一款面向企业的Microsoft Copilot+笔记本电脑提供动力。锐龙AI PRO 300系列处理器产品线通过增加企业级安全性和管理性功能,扩展了AMD在性能和电池寿命方面的领导地位,以满足商务用户的需求。

  • AMD Ryzen AI PRO 300系列处理器,采用全新的“Zen 5”和AMD XDNA 2架构,是世界上最为先进的商用处理器,提供业内领先的性能以实现无与伦比的生产效率,并且Ryzen AI 9 HX PRO 375处理器在AI性能方面达到了业界领先的55 NPU TOPS,可在Ryzen AI PRO笔记本电脑上本地处理AI任务。
  • 微软强调了Windows 11 Copilot+和Ryzen AI PRO 300系列已经准备好迎接下一代人工智能体验,包括新的生产力和安全功能。
  • 包括惠普和联想在内的OEM合作伙伴正在通过采用Ryzen AI PRO 300系列处理器的新PC扩大其商用产品线,预计到2025年将有超过100个平台进入市场。

欲了解更多信息,请访问amd.com.