英语轻松读发新版了,欢迎下载、更新

戴尔决心获得AI企业派的一部分

2025-05-20 13:20:14 英文原文

作者:Jeffrey Burt

自Chatgpt上市并启动生成的AI Frenzy以来的大部分两年以上的大部分时间,市场倾向于谷歌,Amazon Web Services,Amazon Web Services和Microsoft,以及Tier 2 Cloud Servicers,以及具有强大和昂贵的大型语言模型,例如大型语言模型,等级2云服务提供商Meta的Llama,有4050亿参数

但这随着企业采用的不断上升而开始改变。在一份详细的报告中,早期风险投资公司Menlo Ventures写道,2024年是生成AI成为企业至关重要的一年。AI的支出去年增至138亿美元,超过2023年花费的23亿美元以上。

该公司表示,这是一个明确的信号,即企业正在从实验到执行,将AI嵌入其业务策略的核心。垂直定向。

行动

IT供应商正在注意,本月有几次公告贷款证据。本周在Computex,Nvidia引入了NVIDIA NVLINK,其他人可以将其许可并出售到AI数据中心的计算结构,而Hewlett Packard Enterprise则通过HPE Solutions揭开了其NVIDIA AI计算的更新。

同时,高通抛弃了数据中心七年前,它与基于ARM的Centriq芯片进行了镜头之后,正在重新进入游戏,确认它将为Enterprise Datacenters建立AI CPU,该数据中心将与NVIDIA的GPU加速器联系起来。该决定本月首次出现宣布达成协议沙特阿伊公司悍马。思科会与AI基础设施合作伙伴关系,其中包括Microsoft,Nvidia,Xai等。

上个月,Google表示,从下一季度开始,Gemini将在Google Distribunted Cloud上使用,这将使企业能够得以实现在房屋上运行AI工具

戴尔和企业AI

企业采用是本周在拉斯维加斯举行的戴尔技术世界第一天的中心主题,公司创始人兼首席执行官迈克尔·戴尔(Michael Dell)在主题演讲中说,这种收养是AI发挥其经济潜力的关键,而IT供应商的工作是使AI更易于访问。他谈到了他的公司与Coreweave,G42和Mistral等备受瞩目的AI技术公司所做的工作,戴尔项目正在与一家涉及110,000 GPU的无名公司合作,直接液体冷却技术,240兆瓦的电力,27,500 GPU Nodes,27,800 Network Cracks,6,000 Mappers,27,000英里,并27,000英里。

未来的AI项目将变得更大,更密集,以规模扩展并产生数以千万亿个代币,并扩展到一百万gpus。但是,此类公司从事纯粹的情报业务。

对于我们大多数人来说,现实有些不同。AI不是您的产品,但是AI可以为您的目标提供动力。戴尔说,您不需要自己的巨像。指XAI构建的庞大的AI系统,但是您确实需要AI。我们从这些庞大的系统中汲取所有学习,使您轻松地为您轻松,从AI PC到在边缘运行的小型域特异性型号,再到行星尺度的AI数据中心。

在与戴尔(Dell)进行的录音对话中,NVIDIA联合创始人兼首席执行官詹森·黄(Jensen Huang)支持了这一想法,称我们同时获得了我们前面最大的机会之一,即企业AI。

转移到本地AI

如下所示,这些趋势正在朝这个方向运行。除了朝着特定领域的AI模型迈进的转变外,企业还希望在AI培训和推断中使用自己的数据,并出于安全和隐私原因将其保持在内部。

戴尔去年推出了戴尔AI工厂,该计划旨在为企业提供快速设计和管理其AI基础架构所需的硬件,此后部署了3,000多个。迈克尔·戴尔(Michael Dell)说,AI工厂的成本效益比公共云高60%。

上个月它推出了几个新的Intel-PowerEdge服务器以及Objectscale和PowerScale存储的增强功能,以通过计算,存储和网络管理的单独的AIM AMBITIONS来进一步分类的体系结构。本周在拉斯维加斯,该公司添加了更多的服务器和存储系统,用于AI工作负载和冷却技术,以减轻其产生的热量。

新服务器等

PowerEdge XE9780和XE9785是气冷系统,使用直接芯片液体液体冷却技术的XE9780L和XE9785L。所有支持最多可达192 NVIDIA BLACKWELL ULTRA GPU,并且可以定制为每个Dell IR7000机架最多可容纳256个Blackwell Ultra GPU。他们通过八向NVIDIA HG B300加速器进行了LLM培训的最多四倍。

10U气冷服务器可以在Intel Xeon 6或AMD EPYC 9005 CPU上运行,而液体冷却系统是密集的GPU供电3U机器。

Dell的PowerEdge XE9712包括NVIDIA的GB300 NVL72液体冷却架,而PowerEdge XE7745将于7月与NVIDIA的RTX Pro 6000 Black Server Edition GPU一起出现,并在NVIDIA S Enterprise AII分数验证的验证的设计中得到支持。它在4U底盘中最多支持八个GPU。

在存储中,Objectscale对象存储组合使用密集的软件定义系统支持AI部署,并集成了NVIDIA BlueField-3和Spectrum-4网络,以提高性能和可扩展性。与传统S3相比,ObjectScale还将支持超过RDMA的S3,吞吐量高230%,延迟低80%。

一个新的参考架构将包括PowerScale存储和项目闪电 - 创建公司所说的内容将是世界上最快的并行文件系统和PowerEdge XE服务器。

戴尔还推出了PowerCool封闭的后门热交换器(ERDHX),该公司表示,该热交换器通过独立的气流系统捕获了100%IT生成的热量。它使用32度和36度摄氏度之间的温水,结果是冷却成本降低了60%,使机架密度增加了16%。它还包括泄漏检测功能和实时热监测。

热量和电源担心和困扰

服务器工程总监Seamus Jones表示,人们担心在许多方面将AI工作负载在许多方面带来了与数据中心在数据中心中的挑战相同的挑战。琼斯告诉下一个平台

戴尔产品筹办者Armando Acosta说,可以从ERDHX和液体冷却技术中看到这一点。

Acosta告诉下一个平台。<如果我们超出了该门槛,那么他们将不得不经历设施的变化,可能是框架内的新发电机。”

他说,一位客户告诉他,他们的每架15千瓦时的天花板上的上限很难,并且试图在架子上均匀地巩固系统,同时也考虑了未来的格林菲尔德部署。但是,即使是较高的天花板 - 每个架子上的千瓦时也很困难。

他说,当您查看PowerEdge Xe9780之类的东西时,它吸引了12千瓦时,只是那个单位。”然后,您将其乘以每个架子多多单元,对于整个系统来说可能是很大的功能。功率和热量是一个主要的挑战。

他说,戴尔还试图在直接液体冷却系统中推动标准。诸如Coolit,Motivair,Vertiv和Carrier之类的供应商具有良好的系统,但是诸如多种领域的标准,以确保戴尔和其他系统始终如一地拟合,并为企业提供更大的灵活性。他说,有一些团体聚在一起制定这种标准。

阿科斯塔说,我们要做的是降低进入障碍,而从本质上讲,这是您进入障碍的数据中心。”

注册我们的新闻通讯

直接从我们到您的收件箱中,介绍了一周的亮点,分析和故事,两者之间一无所有。
立即订阅

关于《戴尔决心获得AI企业派的一部分》的评论


暂无评论

发表评论

摘要

生成AI的市场正在转移到企业采用,而不是将AI嵌入业务策略的核心。AI的企业支出显着增长到2024年的138亿美元,高于2023年的23亿美元,这对企业来说是至关重要的。IT供应商正在采用新解决方案(例如NVIDIA的NVLINK)以及Hewlett Packard Enterprise和Qualcomm的更新,支持本地AI部署。戴尔技术公司(Dell Technologies)正在推动朝着无障碍企业AI的推动,引入了诸如Dell AI工厂和高级服务器之类的硬件解决方案,以有效地管理大型AI项目。公司面临与电力和冷却相关的挑战,以实现大量AI工作量,但正在开发创新的冷却技术和标准来解决这些问题。