英语轻松读发新版了,欢迎下载、更新

DDN公布Infinia 2.0对象存储,用于更快的AI数据管道 - 块和文件

2025-02-20 18:30:00 英文原文

作者:Chris Mellor

DDN宣布了Infinia 2.0对象商店进行AI培训和推断,提出了高度提高AI数据加速度100倍的索赔,而数据中心和云成本效率的增益为10倍。 

Infinia是一种基于钥匙值的基础,从头开始设计的对象存储系统。我们最近撰写了有关Infinia的技术的文章这里

DDN首席执行官兼联合创始人Alex Bouzari指出:在DDN的数据情报平台上,《财富500强公司》中有85家运行其AI和HPC应用程序。借助Infinia,我们通过更快的模型培训和准确的实时见解加速了客户的数据分析和AI框架,同时可以使GPU效率和功率使用。

他的DDN创始合伙人保罗·布洛赫(Paul Bloch)总统说:``我们的平台已经在世界上最大的AI工厂和云环境中部署,证明了其能力支持任务至关重要的AI运营。”DDN此前曾说过Elon Musk的Xai是顾客

AI数据存储是Infinia的DDN意图的前面和中心。CTO SVEN OEHME宣布:AI工作负载需要实时数据智能,以消除瓶颈,加速工作流程并在复杂的模型清单,预训练和后训练,涂抹,代理AI,多模态环境和选择中无缝缩放。Infinia 2.0旨在最大化这些领域的AI值,同时还提供实时数据服务,高效的多租户,智能自动化以及非常强大的AI本地体系结构。

Infinia包括事件驱动的数据移动,多租户,一种硬件不可屈服的设计,超过99.999%的正常运行时间,最高10倍的始终数据减少,耐故障网络擦除编码,和自动化的QoS。它与其他快速的,最近加速的对象存储(例如Cloudian的Hyperstore,Minio,量子无数,Scality的戒指和大量数据。

Infinia软件可与NVIDIA的NEMO和NIMS微服务,GPU,Bluefield 3 DPU和Spectrum-X网络一起使用,以加快AI数据管道。DDN声称它集成了跨核,云和边缘环境的AI推理,数据分析和模型准备。AI应用程序

NVIDIA DGX平台副总裁Charlie Boyle评论:结合NVIDIA加速计算和企业软件,DDN Infinia 2.0等平台为企业提供了他们将数据运行所需的基础架构。

Infinia,具有TBP的带宽和子毫秒延迟,优于10倍的AWS S3 Express,提供前所未有的S3性能。其他DDN高级产品包括100倍AI数据加速度,基于100倍的AI工作量,基于100倍的AI效率,其效率优于Hadoop。独立的基准测试,100倍更快的元数据处理,100倍更快的物体每秒列表比AWS列表,并且对AI模型培训和推理的查询更快25倍。 

Infinia系统从TBYTES(TB)到Exabytes(EB),在单个部署中支持多达100,000多个GPU和100万同时客户,从而实现了大规模的AI Innovation。在现实世界中的数据中心和云部署中被证明从10到100,000以上的GPU,无与伦比的效率和成本在任何规模上节省,确保最大的GPU利用率。

SuperMicro首席执行官Charles Liang说:`通过将DDN的数据情报平台Infinia 2.0与SuperMicro的尖端服务器工作负载优化的解决方案相结合,这些公司与世界上最大的AI数据中心之一合作。我们认为这是指Xai的巨像数据中心Grok 3阶段1。DDN提供有关Infinia的更多信息这里

关于《DDN公布Infinia 2.0对象存储,用于更快的AI数据管道 - 块和文件》的评论


暂无评论

发表评论

摘要

DDN揭幕了Infinia 2.0,这是一种专门用于AI培训和推断的对象存储系统,声称AI数据加速度的100倍提高,数据中心成本降低了10倍。新系统支持实时数据智能,并包含诸如事件驱动的数据移动,多租赁和容忍错误的网络擦除编码之类的功能。Infinia 2.0与NVIDIA的NEMO和NIMS微服务兼容,并与各种AI框架集成,以增强跨核,云和边缘环境的性能。据报道,就带宽和潜伏期而言,它的表现高达10倍,并支持具有多达100万同时客户和100,000 GPU的大规模部署。