英语轻松读发新版了,欢迎下载、更新

华为的AI在运行DeepSeek的R1模型中的表现如何优于Nvidia

2025-06-19 11:00:08 英文原文

由华为和中国人工智能基础设施的研究人员共同撰写启动硅流,该论文将CloudMatrix 384描述为专门的AI超级节点,是用于处理大量AI工作负载的专门构建的。

根据本周发表的论文,华为预计Cloudmatrix将重塑AI基础设施的基础。它由384个上升910C神经处理单元(NPU)和192 Kunpeng Server Central Processing单元组成,它们通过统一的总线相互联系,提供超高的带宽和低延迟。

该论文说,先进的大型语言模型(LLM)提供解决方案,称为CloudMatrix-Infer,利用基础架构。它超过了一些世界上最突出的系统的表现R1推理模型。

数据中心是容纳大容量服务器和数据存储系统的设施,具有多种功率来源和高带宽的Internet连接。更多的企业正在使用数据中心为其AI项目托管或管理计算基础架构。

关于《华为的AI在运行DeepSeek的R1模型中的表现如何优于Nvidia》的评论


暂无评论

发表评论

摘要

华为和Siliconflow的研究人员推出了CloudMatrix 384,这是一种专门的“ AI超节点”,旨在处理广泛的AI工作负载。它包括384个Ascend 910C NPU和192 Kunpeng Server CPU,通过统一的总线相互连接,以获得高带宽和低潜伏期。该系统的高级大语言模型提供解决方案,CloudMatrix-Inster,在运行DeepSeek的R1推理模型中优于领先系统。华为期望CloudMatrix重新定义AI基础架构基础。

相关讨论