在最近的發布會上,數據動力公司(DDN)正式推出了其最新的Infinia2.0 對象存儲系統,這一系統專為人工智能(AI)訓練和推理而設計。據公司介紹,Infinia2.0 能夠實現高達100 倍的AI 數據加速,並提升雲數據中心的成本效率達10 倍,這一突破性技術迅速引起了業界的廣泛關注。
DDN 的首席執行官兼聯合創始人亞歷克斯・布扎里(Alex Bouzari)在發布會上表示:“全球500 強企業中有85 家正在使用DDN 的數據智能平台來運行他們的AI 和高性能計算(HPC)應用。Infinia2.0 的推出將幫助客戶在數據分析和AI 框架方面實現更快的模型訓練和實時洞察,同時確保GPU 效率和能耗的未來適應性。” 他強調,這一系統將為企業在AI 領域提供更強的競爭力。

DDN 的聯合創始人兼總裁保羅・布洛赫(Paul Bloch)也補充道:“我們的平台已經在全球一些最大的AI 工廠和雲環境中投入使用,充分證明了其支持關鍵AI 操作的能力。” 值得一提的是,Elon Musk 的xAI 也是DDN 的客戶之一,這進一步凸顯了Infinia2.0 在行業中的重要性。
在Infinia2.0 的設計中,AI 數據存儲是核心。首席技術官斯文・厄梅(Sven Oehme)指出:“AI 工作負載需要實時數據智能,以消除瓶頸、加速工作流程,並在復雜的模型列舉、預訓練和後訓練、增強生成(RAG)、Agentic AI 以及多模態環境中實現無縫擴展。” Infinia2.0 旨在最大化AI 的價值,同時提供實時數據服務、高效的多租戶管理、智能自動化和強大的AI 原生架構。
該系統具備多項先進特性,包括事件驅動的數據移動、多租戶支持、硬件無關設計等,能夠保證99.999% 的正常運行時間,並實現最高10 倍的始終在線數據減縮、容錯網絡擦除編碼和自動化的服務質量(QoS)。此外,Infinia2.0 與Nvidia 的Nemo、NIMS 微服務、GPU、Bluefield3 DPU 和Spectrum-X 網絡相結合,進一步加速了AI 數據管道的效率。
DDN 聲稱,Infinia2.0 的帶寬可達到TBps 級別,延遲低於毫秒,性能遠超AWS S3Express。根據獨立基準測試,Infinia2.0 在AI 數據加速、AI 工作負載處理速度、元數據處理和對象列表處理方面均實現了100 倍的提升,且在AI 模型訓練和推理查詢速度上快25 倍。這些令人矚目的參數使其成為AI 領域的領先解決方案。
Infinia2.0 系統支持從TB 到EB 的規模擴展,能夠支持超過100,000 個GPU 和100 萬個同時客戶端,為大規模AI 創新提供了堅實基礎。 DDN 強調,其係統在實際數據中心和雲部署中表現出色,能夠在從10 到超過100,000 個GPU 的範圍內實現無與倫比的效率和成本節約。
超級微型公司(Supermicro)的首席執行官查爾斯・梁(Charles Liang)表示:“通過將DDN 的數據智能平台Infinia2.0 與Supermicro 的高端服務器解決方案相結合,兩家公司合作建設了全球最大的AI 數據中心之一。” 這一合作關係可能與xAI 的Colossus 數據中心擴展有關,進一步推動了AI 基礎設施的發展。