在最近的发布会上,数据动力公司(DDN)正式推出了其最新的 Infinia2.0 对象存储系统,这一系统专为人工智能(AI)训练和推理而设计。据公司介绍,Infinia2.0 能够实现高达 100 倍的 AI 数据加速,并提升云数据中心的成本效率达 10 倍,这一突破性技术迅速引起了业界的广泛关注。
DDN 的首席执行官兼联合创始人亚历克斯・布扎里(Alex Bouzari)在发布会上表示:“全球 500 强企业中有 85 家正在使用 DDN 的数据智能平台来运行他们的 AI 和高性能计算(HPC)应用。Infinia2.0 的推出将帮助客户在数据分析和 AI 框架方面实现更快的模型训练和实时洞察,同时确保 GPU 效率和能耗的未来适应性。” 他强调,这一系统将为企业在 AI 领域提供更强的竞争力。

DDN 的联合创始人兼总裁保罗・布洛赫(Paul Bloch)也补充道:“我们的平台已经在全球一些最大的 AI 工厂和云环境中投入使用,充分证明了其支持关键 AI 操作的能力。” 值得一提的是,Elon Musk 的 xAI 也是 DDN 的客户之一,这进一步凸显了 Infinia2.0 在行业中的重要性。
在 Infinia2.0 的设计中,AI 数据存储是核心。首席技术官斯文・厄梅(Sven Oehme)指出:“AI 工作负载需要实时数据智能,以消除瓶颈、加速工作流程,并在复杂的模型列举、预训练和后训练、增强生成(RAG)、Agentic AI 以及多模态环境中实现无缝扩展。” Infinia2.0 旨在最大化 AI 的价值,同时提供实时数据服务、高效的多租户管理、智能自动化和强大的 AI 原生架构。
该系统具备多项先进特性,包括事件驱动的数据移动、多租户支持、硬件无关设计等,能够保证 99.999% 的正常运行时间,并实现最高 10 倍的始终在线数据减缩、容错网络擦除编码和自动化的服务质量(QoS)。此外,Infinia2.0 与 Nvidia 的 Nemo、NIMS 微服务、GPU、Bluefield3 DPU 和 Spectrum-X 网络相结合,进一步加速了 AI 数据管道的效率。
DDN 声称,Infinia2.0 的带宽可达到 TBps 级别,延迟低于毫秒,性能远超 AWS S3Express。根据独立基准测试,Infinia2.0 在 AI 数据加速、AI 工作负载处理速度、元数据处理和对象列表处理方面均实现了 100 倍的提升,且在 AI 模型训练和推理查询速度上快 25 倍。这些令人瞩目的参数使其成为 AI 领域的领先解决方案。
Infinia2.0 系统支持从 TB 到 EB 的规模扩展,能够支持超过 100,000 个 GPU 和 100 万个同时客户端,为大规模 AI 创新提供了坚实基础。DDN 强调,其系统在实际数据中心和云部署中表现出色,能够在从 10 到超过 100,000 个 GPU 的范围内实现无与伦比的效率和成本节约。
超级微型公司(Supermicro)的首席执行官查尔斯・梁(Charles Liang)表示:“通过将 DDN 的数据智能平台 Infinia2.0 与 Supermicro 的高端服务器解决方案相结合,两家公司合作建设了全球最大的 AI 数据中心之一。” 这一合作关系可能与 xAI 的 Colossus 数据中心扩展有关,进一步推动了 AI 基础设施的发展。