英语轻松读发新版了,欢迎下载、更新

IBM 扩展其 AI 加速器产品;宣布与 AMD 合作

2024-11-18 14:01:38 英文原文

IBM Cloud 将部署 AMD Instinct™ MI300X 加速器以支持生成式 AI 工作负载和 HPC 应用程序的性能

2024 年 11 月 18 日

2024 年 11 月 18 日- 纽约州阿蒙克 - IBM(纽约证券交易所股票代码:国际商业机器公司)和 AMD 宣布合作,将 AMD Instinct MI300X 加速器部署为 IBM Cloud 上的服务。该产品预计将于 2025 年上半年推出,旨在提高 Gen AI 模型的性能和能效,例如企业客户的高性能计算 (HPC) 应用程序。此次合作还将支持 IBM watsonx AI 和数据平台中的 AMD Instinct MI300X 加速器,以及 Red Hat® Enterprise Linux® AI 推理支持。

“随着企业继续采用更大的人工智能模型和数据集,系统内的加速器必须能够以高性能和扩展灵活性处理计算密集型工作负载,这一点至关重要。”执行副总裁兼首席商务官 Philip Guido 说道,AMD。AMD Instinct 加速器与 AMD ROCm 软件相结合,提供广泛的支持,包括 IBM watsonx AI、Red Hat Enterprise Linux AI 和 Red Hat OpenShift AI 平台,以使用这些强大的开放生态系统工具构建领先的框架。我们与 IBM Cloud 的合作旨在让客户能够在不影响成本、性能或效率的情况下执行和扩展 Gen AI 推理。

(来源:AMD)

– AMD 和 IBM Cloud 在将 AI 引入企业方面拥有相同的愿景。我们致力于将 AI 的力量带给企业客户,帮助他们确定结果的优先级,并确保他们在 AI 部署方面拥有选择的权力。”IBM Cloud 总经理 Alan Peacock 说道。“利用 IBM Cloud 上的 AMD 加速器将为我们的企业客户提供另一种扩展选项,以满足其企业 AI 需求,同时还旨在帮助他们优化成本和性能。”

IBM 和 AMD 正在合作在 IBM Cloud 上提供 MI300X 加速器即服务,以支持利用 AI 的企业客户。为了帮助各行业的企业客户(包括受到严格监管的企业客户),IBM 和 AMD 打算利用 IBM Cloud 的安全性和合规性功能。

  • 支持大型模型推理:AMD Instinct MI300X 加速器配备 192GB 高带宽内存 (HBM3),为最大的模型推理和微调提供支持。大内存容量还可以帮助客户使用更少的 GPU 运行更大的模型,从而有可能降低推理成本。
  • 增强的性能和安全性:将 AMD Instinct MI300X 加速器作为 IBM Cloud Virtual Servers for VPC 上的服务提供,并通过 IBM Cloud Kubernetes Service 和 IBM Cloud 上的 IBM Red Hat OpenShift 的容器支持,可以帮助优化运行 AI 应用程序的企业的性能。

对于生成式 AI 推理工作负载,IBM 计划在 IBM 的 watsonx AI 和数据平台中启用对 AMD Instinct MI300X 加速器的支持,为 watsonx 客户提供额外的 AI 基础设施资源,以便在混合云环境中扩展其 AI 工作负载。此外,红帽企业 Linux AI 和红帽 OpenShift AI 平台可以使用 MI300X 加速器上的 InstructLab 来运行 Granite 系列大语言模型 (LLM) 以及对齐工具。

搭载 AMD Instinct MI300X 加速器的 IBM Cloud 预计将于 2025 年上半年全面上市。敬请关注未来几个月 AMD 和 IBM 的更多更新。 

要了解有关 IBM GPU 和加速器产品的更多信息,请访问:https://www.ibm.com/cloud/gpu

有关 IBM 未来方向和意图的声明可能会更改或撤销,恕不另行通知,并且仅代表目的和目标。

发布类别

关于《IBM 扩展其 AI 加速器产品;宣布与 AMD 合作》的评论


暂无评论

发表评论