Nvidia 最近的 8 项更新:Nutanix AI 交易、AI 数据中心指南等

2024-11-14 21:10:00 英文原文

作者:Dylan Martin

这家人工智能计算巨头最近的举措包括扩大与混合多云基础设施供应商 Nutanix 的合作伙伴关系、人工智能数据中心的新参考架构以及即将推出的 Blackwell GPU 的新同行评审性能数据。

Nvidia 在过去的三个月里可能没有发布新的 GPU,但这并不意味着它没有忙于寻找其他方法来扩大和巩固其在快速增长的人工智能计算市场的巨大影响力。

就英伟达首席执行官兼联合创始人黄仁勋而言,他最近一直忙于环游世界,与世界领导人和行业巨头会面,宣传新的人工智能超级计算机交易,强调该公司对“主权人工智能”的信念. –

[有关的:2024 年 Nvidia 十大高管聘任和离职]

英伟达表示,这指的是各国必须建立自己的人工智能基础设施、劳动力和商业网络以促进经济发展的想法。

“丹麦认识到,要在人工智能这一当今最具影响力的技术方面进行创新,就必须培育国内人工智能基础设施和生态系统。”黄仁勋在 10 月份与丹麦国王弗雷德里克十世举行的峰会上就建造的新型人工智能超级计算机表示。在该国。

不过,尽管黄一直在丹麦以及日本、印度和印度尼西亚等其他国家停留,但他的公司近几个月一直在以其他方式采取行动。

这些举措包括扩大与混合多云基础设施供应商 Nutanix 的合作伙伴关系、人工智能数据中心的新参考架构、即将推出的 Blackwell GPU 的新同行评审性能数据、聘请多产的 Cisco Systems 投资者以及 Blackwell 对打开计算项目。

以下是 Nvidia 的这些更新和其他最新更新的摘要,按照发布时间的倒序排列。

Nvidia:Blackwell GPU 在同行评审测试中实现双倍 LLM 性能

Nvidia表示,其即将推出的B200 Blackwell GPU在大语言模型微调和预训练方面比上一代H100 GPU快两倍。

这是根据 MLCommons 周三发布的最新 MLPerf 训练基准测试套件中的新同行评审结果得出的。

这家 AI 计算巨头表示,与 H100 相比,B200 GPU 在使用 700 亿参数 Llama 2 模型进行微调时速度提高了 2.2 倍,在使用 1750 亿参数 GPT-3 模型进行预训练时速度提高了 2 倍。以每个 GPU 为基础。

Nvidia 表示,大型语言模型 (LLM) 测试是使用名为 Nyx 的 AI 超级计算机进行的,该计算机是使用该公司的 DGX B200 系统构建的,每个系统都配有 8 个 180 GB B200 GPU。

该公司还强调了持续的软件更新如何提高其 H100 GPU 的性能和功能,该 GPU 于 2022 年首次亮相,并在新的 MLPerf 训练测试中实现了“可用解决方案中的最高性能”。

Nvidia 表示,在最新的 MLPerf Training 测试套件提交的结果中,与基准测试最初发布时相比,H100 在 GPT 175B 模型的训练中实现了 30% 的提升。

它还在其他测试中展示了软件改进的影响。

自去年以来,Nvidia Hopper GPU 在 GPT-3 175B 基准测试中的规模和性能提高了两倍多。此外,在 Llama 2 70B LoRA 微调基准测试中,Nvidia 使用相同数量的 Hopper GPU 将性能提高了 26%,这反映出软件的持续增强。”该公司表示。

Nutanix 扩大与 Nvidia 的合作伙伴关系,推出新的云 AI 产品

Nutanix 周二宣布,它已通过名为 Nutanix Enterprise AI 的新云原生产品扩大了与 Nvidia 的合作伙伴关系。

这家混合多云基础设施供应商表示,Nutanix Enterprise AI 可以“部署在任何 Kubernetes 平台、边缘、核心数据中心和公共云服务上,例如 Amazon Web Services”、Elastic Kubernetes Service、MicrosoftAzure 的托管 Kubernetes 服务和 Google Cloud 的 Google Kubernetes Engine。

– 借助 Nutanix Enterprise AI,我们正在帮助客户在本地或公共云中简单、安全地运行 GenAI 应用程序。Nutanix Enterprise AI 可以在任何 Kubernetes 平台上运行,并允许其 AI 应用程序在安全位置运行,并具有可预测的成本模型。”Nutanix 产品管理高级副总裁 Thomas Cornely 在一份声明中表示。

Nutanix 表示,云原生产品可以与 Nvidia 的全栈 AI 平台一起部署,并经过验证可与 Nvidia AI Enterprise 软件平台配合使用,包括Nvidia NIM 微服务旨在实现“高性能 AI 模型推理的安全可靠部署。”

Nutanix Enterprise AI 是公司的一部分盒装 GPT2.0 设备,据说这是 Nvidia 认证系统计划的一部分,以确保最佳性能。

英伟达取代英特尔进入道指指数

11 月 8 日,随着人工智能计算巨头英伟达继续向陷入困境的芯片制造商施加竞争压力,英伟达取代了道琼斯工业平均指数。

道指背后的组织标普道琼斯指数表示在一份声明中在此之前一周,这一变化的目的是“确保半导体行业更具代表性”。

尽管英伟达的股价较年初上涨了 200% 以上,但英特尔的股价同期却下跌了约 40%。

– 根据标准普尔的说法,道琼斯工业平均指数是一个价格加权指数,因此价格持续走低的股票对该指数的影响很小。

Nvidia 任命资深宇航员艾伦·奥乔亚 (Ellen Ochoa) 为董事会成员

Nvidia 在 11 月初宣布,已任命资深宇航员、前 NASA 局长埃伦·奥乔亚 (Ellen Ochoa) 为其董事会成员。

这家人工智能计算巨头表示,奥乔亚是第一位进入太空的拉丁裔宇航员,也是美国宇航局休斯顿约翰逊航天中心前主任,他的加入使董事会成员扩大到 13 名。

“艾伦非凡的经历充分说明了她作为开拓者和领导者的角色,”英伟达首席执行官黄仁勋在一份声明中表示。“我们期待她加入 Nvidia 董事会,继续我们构建计算和人工智能未来的旅程。”

Nvidia 推出人工智能数据中心企业参考架构

Nvidia 于 10 月 29 日公布了所谓的企业参考架构,旨在为合作伙伴和客户构建 AI 数据中心提供指导。

这家人工智能计算巨头表示,这些指南旨在帮助合作伙伴和客户更快地构建人工智能数据中心,更快地从人工智能应用程序中实现商业价值,同时确保它们以安全的方式以最佳性能水平运行。

参与企业参考架构计划的服务器供应商包括 Dell Technologies、Hewlett Packard Enterprise、Lenovo 和 Supermicro。

企业参考架构包含一整套针对加速基础设施、人工智能优化网络和Nvidia 人工智能企业软件平台。

加速基础设施指南为 GPU 加速服务器提供了建议Nvidia 认证系统计划,确保此类服务器经过优化以提供最佳性能。

该网络指南阐述了如何利用 Nvidia 的 Spectrum-X 以太网平台和 BlueField-3 数据处理单元“提供峰值网络性能”。他们还提供“多个设计点的最佳网络配置指南,以满足不同的工作负载规模要求。”

Nvidia AI Enterprise 包括用于“轻松构建和部署 AI 应用程序”的 NeMo 和 NIM 微服务,以及用于“基础设施配置、工作负载管理和资源监控”的 Nvidia Base Command Manager Essentials。

Nvidia 为开放计算项目贡献 Blackwell 平台设计

Nvidia 于 10 月 15 日宣布,已向开放计算项目贡献其 Blackwell 加速计算平台的“基础元素”,目标是在数据中心市场上实现广泛采用。

所讨论的 Blackwell 平台是 Nvidia 即将推出的 GB200 NVL72 机架规模系统,配备 36 个 GB200 Grace Blackwell Superchips,每个超级芯片包含一个基于 Arm 的 72 核 Grace GPU,与两个 B200 GPU 连接。

Nvidia 对开放计算项目 (OCP) 的贡献主要集中在 GB200 NVL72 的机电设计上。Nvidia 贡献的元素包括机架架构、计算和交换机托盘机械结构、液体冷却和热环境规范以及 NVLink 电缆盒体积。

这家人工智能计算巨头表示,它还扩大了对其 Spectrum-X 以太网平台 OCP 标准的支持。该公司表示,这将使客户能够使用 Spectrum-X 的自适应路由和基于遥测的拥塞控制来加速横向扩展人工智能基础设施的以太网性能。

“在与 OCP 十年合作的基础上,NVIDIA 正在与行业领导者合作,制定可在整个数据中心广泛采用的规范和设计,”Nvidia 首席执行官黄仁勋(如图)在一份声明中表示。– 通过推进开放标准,我们正在帮助世界各地的组织充分利用加速计算的潜力并创建未来的人工智能工厂。 –

英伟达聘请思科顶级发明家,推动网络销售大举增长

Nvidia 最近聘请了一位拥有 25 年思科系统工程经验的资深人士,他曾被认为是这家交换巨头最多产的发明家,他将领导这家人工智能计算巨头的人工智能和网络架构的开发。

JP Vasseur,最近离开的思科研究员,最近担任机器学习和网络人工智能工程副总裁,宣布10 月 2 日,他在 LinkedIn 上发帖称,他于上个月加入 Nvidia,担任人工智能和网络领域的高级杰出工程师兼首席架构师。

Vasseur 宣布这一消息的一个多月前,Nvidia 首席财务官 Colette Kress 表示,该公司用于数据中心的 Spectrum-X 以太网网络产品系列“有望开始一条价值数十亿美元的产品线”一年之内。 –

Nvidia 推出 NIM 代理蓝图以推动企业人工智能

Nvidia 于 8 月 27 日宣布推出“预先训练的、可定制的 AI 工作流程”,可以帮助企业更轻松地构建和部署定制的生成式 AI 应用程序。

这家 AI 计算巨头将这些工作流程称为 NIM 代理蓝图,其中附带使用 Nvidia NeMo、Nvidia NIM 和合作伙伴微服务构建的示例应用程序以及参考代码、定制文档和用于部署的 Helm 图表。

Nvidia 选择提供 NIM Agent Blueprints 的渠道合作伙伴包括 Accenture、Deloitte、SoftServe 和 World Wide Technology。

英伟达透露微服务在 3 月份的 GTC 2024 活动中,作为 Nvidia AI Enterprise 软件平台的补充。当时,该公司表示,它们的目的是帮助企业更快地开发和部署人工智能应用程序,同时保留对其知识产权的完全所有权和控制权。

借助NIM代理蓝图,企业可以使用自己的专有数据定制生成式人工智能应用程序,并根据用户反馈不断完善它们。

最初的 NIM 代理蓝图集包括客户服务中数字人类的工作流程、计算机辅助药物发现中的生成虚拟筛选以及检索增强生成中的多模式 PDF 提取。

关于《Nvidia 最近的 8 项更新:Nutanix AI 交易、AI 数据中心指南等》的评论


暂无评论

发表评论

摘要

以下是所提供文本中有关 Nvidia 活动和计划的要点:1. **Nvidia Blackwell 平台对开放计算项目 (OCP) 的贡献:**- Nvidia 为其即将推出的 GB200 NVL72 机架规模系统提供了基本要素,包括机电设计、液体冷却规格和 NVLink 电缆盒体积。- 此贡献旨在促进整个数据中心市场的更广泛采用。2. **企业参考架构:**- Nvidia 推出了更快构建 AI 数据中心的指南,确保安全地实现最佳性能水平。- 指南涵盖 GPU 加速服务器(Nvidia 认证系统)、采用 Spectrum-X 以太网和 BlueField-3 DPU 的 AI 优化网络以及 Nvidia AI Enterprise 软件平台。3. **网络扩展:**- Nvidia 正在通过一系列名为 Spectrum-X 的产品进军企业网络领域。- 首席财务官 Colette Kress 指出,Spectrum-X 有望在一年内成为价值数十亿美元的产品线。4. **招聘关键网络人才:**- Nvidia 聘请了 JP Vasseur,他是一名在思科工作 25 年的资深人士,也是网络机器学习和人工智能领域的前副总裁。- 此举支持 Nvidia 不断扩大对企业网络解决方案的关注。5. **NIM 代理蓝图发布:**- 预先训练的、可定制的人工智能工作流程,帮助企业更轻松地构建生成式人工智能应用程序。- 合作伙伴包括埃森哲、德勤、SoftServe 和 World Wide Technology。- 初始蓝图涵盖客户服务中的数字人类、药物发现的虚拟筛选以及多模式 PDF 提取。6. **Blackwell 性能基准测试:**- Nvidia 即将推出的 GB200 NVL72 系统,采用 Grace Blackwell Superchips 和连接到 B200 GPU 的 72 核 Arm GPU。- 贡献旨在优化整个数据中心市场的性能和采用。这些举措反映了英伟达扩大其在企业人工智能解决方案和网络基础设施领域的战略重点。