微软正在打造“CUDA杀手”打破NVIDIA的AI垄断

2025-11-08 15:44:00 英文原文

作者:Muhammad Zuhair

微软正在探索利用其 AMD GPU“堆栈”来进行推理工作负载的方法,该公司正在开发将 NVIDIA CUDA 模型转换为 ROCm 支持的代码的工具包。

微软看到对训练推理的巨大需求,这使得 AMD 的 AI 芯片更具吸引力

NVIDIA 能够在 AI 领域保持主导地位的原因之一是该公司拥有“CUDA 锁定”机制,这实际上迫使 CSP 和 AI 巨头采用 NVIDIA 的 AI 芯片,以通过 NVIDIA 的 CUDA 软件生态系统实现最佳结果。过去已经做出了努力来打破这一障碍并允许跨平台支持,但我们还没有看到一个已成为主流的解决方案。然而,一位微软“高级”员工表示据报道,这家科技巨头已经开发了“工具包”,通过将 CUDA 代码转换为 ROCm 兼容版本,允许该公司在 AMD GPU 上运行 CUDA 代码。

必读的高层访谈$微软金融时报数据中心的员工以及现在正在发生的事情($NVDA/$AMD、液体冷却和 HHD):

1. 面临的挑战$微软金融时报现在有能源和液体冷却。为了改善与市政当局的善意,$微软金融时报是……pic.twitter.com/jQTfhnxQga

– Rihard Jarc (@RihardJarc)2025 年 11 月 7 日

打破 CUDA 的主导地位并不是一件容易的事,因为软件生态系统是人工智能行业不可或缺的一部分,以至于它的采用几乎无处不在,甚至在中国这样的国家也是如此。然而,该员工提到的微软工具包很可能采用了市场上已经存在相当长一段时间的路线。执行 CUDA 到 ROCm 转换的一种方法是通过运行时兼容层,这使得 CUDA API 调用能够转换为 ROCm,而不需要完全重写源代码。一个这样的例子是ZLUDA工具,拦截CUDA调用,将它们转换为 ROCm,并且不需要完全重新编译。

我们构建了一些工具包来帮助将 CUDA 模型转换为 ROCm,以便您可以在 AMD(例如 300X)上使用它。我们收到了很多关于 AMD 400X 和 450X 的路线的询问。我们实际上正在与 AMD 合作解决这个问题,看看我们能做些什么来最大化这一点。

NVIDIA CUDA Can Now Directly Run On AMD's RDNA GPUs Using The "SCALE" Toolkit 1

然而,由于ROCm仍然是一个相对“不成熟”的软件堆栈,CUDA中有多个API调用或代码片段与AMD的软件没有映射,这在某些情况下会导致性能崩溃,这在大型数据中心环境中是一个高风险问题。这里提到的工具包的另一个可能变体可能是与 Azure 集成的端到端云迁移工具,针对 AMD 和 NVIDIA 实例。当然,当大规模转换发生时,这确实会带来问题,但从表面上看,微软开发的工具包的使用范围似乎很有限。

现在,微软在这里追求“软件转换”的原因很简单,因为该公司看到推理工作负载的增加,并且该公司正在寻找更具成本效益的工作负载,这就是为什么 AMD 的 AI 芯片在这里有意义,因为它们是“昂贵”的 NVIDIA GPU 的唯一对手。由于不能在推理环境中忽略 CUDA 模型,因此从 CUDA 到 ROCm 的转换成为 Microsoft 的下一个重要步骤。

关注Google 上的 Wccftech将我们添加为首选来源,在您的源中获取我们的新闻报道和评论。

关于《微软正在打造“CUDA杀手”打破NVIDIA的AI垄断》的评论


暂无评论

发表评论