NVIDIA BlueField-4 为新型 AI 原生存储基础设施提供支持,打造 AI 的下一个前沿领域
新闻摘要:
- NVIDIA BlueField-4 为 NVIDIA 推理上下文内存存储平台提供支持,这是一种专为千兆级推理而设计的新型 AI 原生存储基础设施,可加速和扩展代理 AI。
- 新的存储处理器平台专为长期上下文处理代理人工智能系统而构建,具有闪电般的长期和短期内存。
- 推理上下文内存存储平台扩展了 AI 代理的长期内存,并支持跨机架规模 AI 系统集群的上下文高带宽共享,从而将每秒的令牌数和能效提高高达 5 倍。
- 在 NVIDIA Spectrum-X 以太网的支持下,多轮 AI 代理的扩展上下文内存可提高响应速度、增加每个 GPU 的吞吐量并支持代理推理的高效扩展。
�
国际消费电子展ØNVIDIA 今天宣布推出 NVIDIA BlueField®-4 数据处理器,它是全堆栈的一部分NVIDIA 蓝场平台为 NVIDIA 推理上下文内存存储平台提供支持,这是一种面向 AI 下一个前沿领域的新型 AI 原生存储基础设施。随着人工智能模型扩展到数万亿个参数和多步推理,它们会生成大量上下文数据 - 由键值 (KV) 缓存表示,这对于准确性、用户体验和连续性至关重要。
KV 缓存不能长期存储在 GPU 上,因为这会给多智能体系统中的实时推理造成瓶颈。
人工智能原生应用程序需要一种新型的可扩展基础设施来存储和共享这些数据。
与传统存储相比,NVIDIA 推理上下文内存存储平台通过扩展 GPU 内存容量、实现跨节点高速共享、将每秒令牌数提高多达 5 倍,并提供高达 5 倍的能效,为上下文内存提供基础设施。
NVIDIA 创始人兼首席执行官黄仁勋表示:“人工智能正在彻底改变整个计算堆栈,现在又彻底改变了存储。”– 人工智能不再是一次性聊天机器人,而是智能协作者,它们了解物理世界、进行长远推理、立足事实、使用工具完成实际工作并保留短期和长期记忆。借助 BlueField-4,NVIDIA 以及我们的软件和硬件合作伙伴正在重塑 AI 下一个前沿领域的存储堆栈。
NVIDIA 推理上下文内存存储平台提高了 KV 缓存容量并加速了机架级 AI 系统集群之间的上下文共享,而多轮 AI 代理的持久上下文则提高了响应速度、增加了 AI 工厂吞吐量并支持长上下文、多代理推理的高效扩展。
由 NVIDIA BlueField-4 驱动的平台的主要功能包括:
- 英伟达鲁宾集群级 KV 缓存容量,提供长上下文、多轮代理推理所需的规模和效率。
- 能效比传统存储高出 5 倍。
- 跨 AI 节点智能、加速共享 KV 缓存,由 NVIDIA DOCA™ 框架支持,并与 NVIDIA NIXL 库和 NVIDIA Dynamo 软件紧密集成,以最大限度地提高每秒令牌数、缩短第一个令牌的时间并提高多轮响应能力。
- 由 NVIDIA BlueField-4 管理的硬件加速 KV 缓存放置消除了元数据开销,减少了数据移动,并确保从 GPU 节点进行安全、隔离的访问。
- 高效的数据共享和检索NVIDIA Spectrum-X™ 以太网作为高性能网络结构,用于基于 RDMA 访问 AI 原生 KV 缓存。
存储创新者包括 AIC、Cloudian、专线电话、戴尔科技、HPE、Hitachi Vantara、IBM、努塔尼克斯、Pure Storage、Supermicro、VAST Data 和威卡是首批使用 BlueField-4 构建下一代 AI 存储平台的公司之一,该平台将于 2026 年下半年推出。
通过观看了解更多NVIDIA 现场直播 CES。