cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused
作者:PRNewswire
AI科技有限公司宣布推出最新旗舰产品SuperX XN9160-B300人工智能服务器。XN9160-B300 由 NVIDIA Blackwell GPU (B300) 提供支持,旨在满足 AI 训练、机器学习 (ML) 和高性能计算 (HPC) 工作负载对可扩展高性能计算不断增长的需求。该系统专为极致性能而设计,集成了先进的网络功能、可扩展架构和节能设计,以支持任务关键型数据中心环境。
SuperX XN9160-B300 AI 服务器专为加速大规模分布式 AI 训练和 AI 推理工作负载而设计,为密集型、高要求的应用程序提供极致的 GPU 性能。它针对 GPU 支持的任务进行了优化,在基础模型训练和推理方面表现出色,包括强化学习 (RL)、蒸馏技术和多模式 AI 模型,同时还为气候建模、药物发现、地震分析和保险风险建模等 HPC 工作负载提供高性能。
XN9160-B300 专为企业级 AI 和 HPC 环境而设计,将超级计算机级性能与节能、可扩展架构相结合,以紧凑、数据中心就绪的外形提供关键任务功能。
SuperX XN9160-B300人工智能服务器的推出标志着SuperX人工智能基础设施路线图的一个重要里程碑,提供强大的GPU实例和计算能力,以加速全球人工智能创新。
XN9160-B300人工智能服务器
SuperX XN9160-B300 AI 服务器在 8U 机箱内释放极致的 AI 计算性能,配备 Intel Xeon 6 处理器、8 个 NVIDIA Blackwell B300 GPU、最多 32 个 DDR5 DIMM 以及高达 8 × 800Gb/s InfiniBand 的高速网络。
另请阅读: AiThority 采访 SpeakUp 首席执行官 Tim Morrs
高 GPU 功率和内存
XN9160-B300 是一个高度可扩展的 AI 节点,采用 NVIDIA HGX B300 模块,可容纳 8 个 NVIDIA Blackwell B300 GPU。此配置提供 Blackwell 一代的峰值性能,专为下一代 AI 工作负载而设计。
至关重要的是,该服务器在 8 个 GPU 上提供了 2,304GB 的海量统一 HBM3E 内存(每个 GPU 288GB)。这个巨大的内存池对于消除内存卸载、支持更大的模型驻留以及管理高并发、长上下文生成人工智能和大型语言模型所需的扩展键/值缓存至关重要。
极限推理和训练吞吐量
该系统利用 B300 Ultra 卓越的 FP4/NVFP4 精度和第二代 Transformer 引擎来实现巨大的性能飞跃。据 NVIDIA 称,Blackwell Ultra 比 Blackwell 实现了决定性的飞跃,每个芯片的 NVFP4 计算量增加了 50%,HBM 容量增加了 50%,从而在不影响效率的情况下实现更大的模型和更快的吞吐量。[1]得益于 8 个用于 InfiniBand 的 800Gb/s OSFP 端口或双 400Gb/s 以太网,可轻松扩展。这些端口支持将服务器连接到庞大的 AI Factory 和 SuperPOD 集群所需的高速、低延迟通信。第五代 NVLink 互连进一步确保 8 个板载 GPU 无缝通信,充当单个强大的加速器。
强大的 CPU 和电源基础
GPU 复合体由配备双 Intel Xeon 6 处理器的强大主机平台提供支持,提供为加速器提供数据所需的效率和带宽。内存子系统同样强大,采用 32 个 DDR5 DIMM,支持高达 8000MT/s (MRDIMM) 的速度,确保主机平台永远不会成为 GPU 处理的瓶颈。
为了实现关键任务的可靠性和持续性能,XN9160-B300配备了12×3000W 80 PLUS钛金冗余电源,确保在持续峰值负载下极高的能效和稳定性。该系统还包括多个高速 PCIe Gen5 x16 插槽和全面的存储选项,包括八个 2.5 英寸 Gen5 NVMe 热插拔托架。
市场定位
XN9160-B300 专为推动 AI 边界的组织而构建,其中最大规模、下一代模型和超低延迟是核心要求:
另请阅读: 认知产品设计:通过 AI-Native PLM 的自然语言交互为非技术用户提供支持
[要与我们分享您的见解作为编辑或赞助内容的一部分,请写信至 psen@itechseries.com]