作者:Written by Michael Larabel in AMD on 12 October 2024 at 06:44 AM EDT. 1 Comment
一个周五晚上的招聘启事确认并强化了他们未来AI GPU计算堆栈的细节,这很可能就是之前所提到的。统一的人工智能软件栈.
统一的人工智能软件栈旨在支持AMD从CPU到GPU以及最近在Ryzen AI部件中的NPU的全线硬件。统一的人工智能软件栈将有助于将任务卸载到最合适的设备/加速器上,并提供比目前AMD软件所提供的更连贯的开发者体验。
发布到 LLVM Discourse这是AMD招聘AI GPU编译器工程师(侧重于MLIR和LLVM)的职位发布。我们已经知道,MLIR——LLVM的现代中间表示——将是统一人工智能软件堆栈的通用IR。MLIR也在他们的工作中发挥了作用。Ryzen NPU的Peano编译器以及类似的东西。
招聘启事还提到,IREE将在他们未来的AI计算堆栈中发挥核心作用。IREE是建立在MLIR之上的中间表示执行环境,用于将机器学习模型降低到统一的IR(中间表示)。IREE目前已经支持ONNX、PyTorch、TensorFlow、JAX等,并且已经具备AMD ROCm后端,还可以输出至Vulkan以及Apple Metal和NVIDIA CUDA。
不熟悉IREE的人可以访问IREE.dev我之前曾介绍过IREE,例如在基于Vulkan的机器学习加速并且在AMD的人工智能软件努力的背景下被提及。AMD收购Nod.ai是为了招募不仅包括MLIR还包含IREE的相关工程人才。
无论如何,以下是文本:任何如何,以下职位发布总结了新的AI GPU编译器开发工程师职位为:
我们正在构建IREE作为一个开源编译器和运行时解决方案,用于将机器学习产品化以满足各种用例和硬件目标:https://iree.dev/。特别是,我们的目标是通过统一的开源软件堆栈提供广泛且高性能的GPU覆盖范围,从数据中心到移动设备。我们的团队开发了一个端到端的人工智能解决方案:从ML框架集成到底层生成高效的内核。
很高兴看到他们重申从“数据中心到移动设备”的兴趣,因此这个编译器/运行时软件可能是统一人工智能软件堆栈努力的一部分。当然,正在开发的软件堆栈将是开源的。非常期待看看未来的AMD人工智能软件计算堆栈性能如何以及他们在不同产品线上的支持将有多么全面。