cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused SuperX推出最新XN9160-B300人工智能服务器 - OurCoders (我们程序员)

SuperX推出最新XN9160-B300人工智能服务器

2025-10-06 06:55:27 英文原文

作者:PRNewswire

SuperX Logo

AI科技有限公司宣布推出最新旗舰产品SuperX XN9160-B300人工智能服务器。XN9160-B300 由 NVIDIA Blackwell GPU (B300) 提供支持,旨在满足 AI 训练、机器学习 (ML) 和高性能计算 (HPC) 工作负载对可扩展高性能计算不断增长的需求。该系统专为极致性能而设计,集成了先进的网络功能、可扩展架构和节能设计,以支持任务关键型数据中心环境。

SuperX XN9160-B300 AI 服务器专为加速大规模分布式 AI 训练和 AI 推理工作负载而设计,为密集型、高要求的应用程序提供极致的 GPU 性能。它针对 GPU 支持的任务进行了优化,在基础模型训练和推理方面表现出色,包括强化学习 (RL)、蒸馏技术和多模式 AI 模型,同时还为气候建模、药物发现、地震分析和保险风险建模等 HPC 工作负载提供高性能。

XN9160-B300 专为企业级 AI 和 HPC 环境而设计,将超级计算机级性能与节能、可扩展架构相结合,以紧凑、数据中心就绪的外形提供关键任务功能。

SuperX XN9160-B300人工智能服务器的推出标志着SuperX人工智能基础设施路线图的一个重要里程碑,提供强大的GPU实例和计算能力,以加速全球人工智能创新。

XN9160-B300人工智能服务器

SuperX XN9160-B300 AI 服务器在 8U 机箱内释放极致的 AI 计算性能,配备 Intel Xeon 6 处理器、8 个 NVIDIA Blackwell B300 GPU、最多 32 个 DDR5 DIMM 以及高达 8 × 800Gb/s InfiniBand 的高速网络。

另请阅读: AiThority 采访 SpeakUp 首席执行官 Tim Morrs

高 GPU 功率和内存

XN9160-B300 是一个高度可扩展的 AI 节点,采用 NVIDIA HGX B300 模块,可容纳 8 个 NVIDIA Blackwell B300 GPU。此配置提供 Blackwell 一代的峰值性​​能,专为下一代 AI 工作负载而设计。

至关重要的是,该服务器在 8 个 GPU 上提供了 2,304GB 的海量统一 HBM3E 内存(每个 GPU 288GB)。这个巨大的内存池对于消除内存卸载、支持更大的模型驻留以及管理高并发、长上下文生成人工智能和大型语言模型所需的扩展键/值缓存至关重要。

极限推理和训练吞吐量

该系统利用 B300 Ultra 卓越的 FP4/NVFP4 精度和第二代 Transformer 引擎来实现巨大的性能飞跃。据 NVIDIA 称,Blackwell Ultra 比 Blackwell 实现了决定性的飞跃,每个芯片的 NVFP4 计算量增加了 50%,HBM 容量增加了 50%,从而在不影响效率的情况下实现更大的模型和更快的吞吐量。[1]得益于 8 个用于 InfiniBand 的 800Gb/s OSFP 端口或双 400Gb/s 以太网,可轻松扩展。这些端口支持将服务器连接到庞大的 AI Factory 和 SuperPOD 集群所需的高速、低延迟通信。第五代 NVLink 互连进一步确保 8 个板载 GPU 无缝通信,充当单个强大的加速器。

强大的 CPU 和电源基础

GPU 复合体由配备双 Intel Xeon 6 处理器的强大主机平台提供支持,提供为加速器提供数据所需的效率和带宽。内存子系统同样强大,采用 32 个 DDR5 DIMM,支持高达 8000MT/s (MRDIMM) 的速度,确保主机平台永远不会成为 GPU 处理的瓶颈。

为了实现关键任务的可靠性和持续性能,XN9160-B300配备了12×3000W 80 PLUS钛金冗余电源,确保在持续峰值负载下极高的能效和稳定性。该系统还包括多个高速 PCIe Gen5 x16 插槽和全面的存储选项,包括八个 2.5 英寸 Gen5 NVMe 热插拔托架。

市场定位

XN9160-B300 专为推动 AI 边界的组织而构建,其中最大规模、下一代模型和超低延迟是核心要求:

  • 超大规模人工智能工厂:适合构建和运行万亿参数基础模型以及高要求、高并发人工智能推理引擎的云提供商和大型企业。
  • 科学模拟与研究:用于亿亿级科学计算、先进的分子动力学以及创建全面的工业或生物数字孪生。
  • 金融服务:用于实时风险建模、高频交易模拟以及部署复杂的大型语言模型以进行具有超低延迟需求的财务分析。
  • 生物信息学和基因组学:用于加速大规模基因组测序、药物发现流程和蛋白质结构预测,需要 B300 拥有巨大的内存容量。
  • 全球系统建模:适合需要极端计算来进行全球气候和天气建模以及高度详细的灾害预测的国家气象和政府机构。

另请阅读: 认知产品设计:通过 AI-Native PLM 的自然语言交互为非技术用户提供支持

[要与我们分享您的见解作为编辑或赞助内容的一部分,请写信至 psen@itechseries.com]

关于《SuperX推出最新XN9160-B300人工智能服务器》的评论


暂无评论

发表评论

摘要

Super X AI Technology Limited 推出了 SuperX XN9160-B300 AI 服务器,搭载 NVIDIA Blackwell B300 GPU。它专为人工智能训练和 HPC 工作负载中的高性能计算而设计,通过先进的网络和可扩展架构提供极致性能。主要功能包括 8 个 NVIDIA Blackwell GPU、高达 2,304GB 的统一内存以及用于低延迟通信的多个高速网络端口。该服务器支持大规模分布式人工智能训练和复杂财务模型等关键企业应用,使其成为超大规模人工智能基础设施的领导者。超级X

相关新闻

相关讨论