加利福尼亚州圣克拉拉,2024 年 9 月 26 日 AMD 今日宣布,Oracle 云基础设施 (OCI) 已选择采用 ROCm 开放软件的 AMD Instinct MI300X 加速器为其最新的 OCI 计算超级集群实例 BM.GPU 提供支持。MI300X.8。对于包含数千亿个参数的 AI 模型,采用 AMD MI300X 的 OCI Supercluster 通过利用 OCI 上其他加速器使用的相同超快网络结构技术,在单个集群中支持多达 16,384 个 GPU。
设计为了运行要求高的人工智能工作负载,包括需要高吞吐量以及领先的内存容量和带宽的大型语言模型 (LLM) 推理和训练,这些 OCI 裸机实例已被包括 Fireworks AI 在内的公司采用。
AMD InstinctAMD 公司副总裁兼数据中心 GPU 业务总经理 Andrew Dieckmann 表示,MI300X 和 ROCm 开放软件作为为最关键的 OCI AI 工作负载提供支持的值得信赖的解决方案,继续保持强劲势头。随着这些解决方案进一步扩展到不断增长的人工智能密集型市场,这种组合将为 OCI 客户带来高性能、高效率和更大的系统设计灵活性。
AMD Instinct MI300X 加速器的推理功能为 OCI 提供了广泛的选择Oracle 云基础设施软件开发高级副总裁 Donald Lu 表示,高性能裸机实例可以消除人工智能基础设施常用的虚拟化计算的开销。我们很高兴能够为寻求以具有竞争力的价格点加速 AI 工作负载的客户提供更多选择。
为 AI 训练和推理带来值得信赖的性能和开放选择
AMD Instinct MI300X 经过了广泛的测试,并得到了 OCI 的验证,强调了其人工智能推理和训练能力,即使在批量大小较大的情况下,也能提供最佳延迟用例,并且能够在单个节点中适应最大的 LLM 模型。这些 Instinct MI300X 性能结果引起了 AI 模型开发人员的关注。
Fireworks AI 提供了一个旨在构建和部署生成式 AI 的快速平台。Fireworks AI 拥有 100 多个模型,正在利用 AMD Instinct MI300X 的 OCI 中的性能优势。
Fireworks AI 帮助企业在广泛的行业和用例中构建和部署复合 AI 系统,Lin 说乔先生,Fireworks AI 首席执行官。AMD Instinct MI300X 和 ROCm 开放软件提供的内存容量使我们能够随着型号的不断增长而扩展为客户提供的服务。
关于 AMD
50 多年来AMD 推动了高性能计算、图形和可视化技术的创新。全球数十亿人、领先的财富 500 强企业和尖端科研机构每天都依靠 AMD 技术来改善他们的生活、工作和娱乐方式。AMD 员工专注于打造领先的高性能和适应性产品,突破可能的界限。
来源:AMD