Lors d'un lancement récent, Data Dynamics (DDN) a officiellement lancé son dernier système de stockage d'objets Infinia 2.0, conçu pour la formation et le raisonnement de l'intelligence artificielle (AI). Selon la société, Infinia2.0 peut atteindre jusqu'à 100 fois l'accélération des données de l'IA et améliorer la rentabilité des centres de données cloud jusqu'à 10 fois. Cette technologie révolutionnaire a rapidement attiré l'attention de l'industrie.
"85 des 500 meilleures sociétés mondiales utilisent la plate-forme de données de données de DDN pour exécuter leurs applications informatiques en IA et haute performance (HPC). Le lancement d'Infinia 2.0 aidera les clients à réaliser une formation de modèle plus rapide et des informations en temps réel dans l'analyse des données et les cadres d'IA, tout en assurant l'adaptabilité future à l'efficacité du GPU et à la consommation d'énergie." "." Il a souligné que ce système offrira aux entreprises une compétitivité plus forte dans le domaine de l'IA.

Paul Bloch, co-fondateur et président de DDN, a également ajouté: "Notre plateforme a été mise en service dans certaines des plus grandes usines d'IA et environnements cloud du monde, démontrant pleinement sa capacité à soutenir les opérations critiques d'IA." Il convient de mentionner que le XAI d'Elon Musk est également l'un des clients de DDN, ce qui souligne en outre l'importance de l'infinia2.0 dans l'industrie.
Dans la conception Infinia2.0, le stockage de données AI est le noyau. "Les charges de travail de l'IA nécessitent l'intelligence des données en temps réel pour éliminer les goulots d'étranglement, accélérer les workflows et évoluer de manière transparente dans l'énumération des modèles complexes, la pré-formation et la post-formation, la génération améliorée (RAG), l'IA agentique et les environnements multimodaux", a déclaré Sven Oehme, directeur de la technologie. "Infinia2.0 vise à maximiser la valeur de l'IA tout en fournissant des services de données en temps réel, une gestion efficace multi-locataires, une automatisation intelligente et une puissante architecture native d'IA.
Le système dispose d'un certain nombre de fonctionnalités avancées, notamment la mobilité des données basée sur les événements, la prise en charge multi-locataires, la conception indépendante du matériel, etc., ce qui peut garantir une disponibilité de 99,999% et atteindre jusqu'à 10 fois la réduction des données toujours sur les données, l'effacement du réseau tolérant aux pannes et la qualité de service automatisé (QOS). De plus, Infinia2.0 est combiné avec NVIDIA NEMO, NIMS Microservices, GPU, BlueField3 DPU et Spectrum-X Networks, accélérant davantage l'efficacité des pipelines de données AI.
DDN affirme que Infinia2.0 peut atteindre le niveau TBPS avec la latence en dessous des millisecondes, et sa performance dépasse de loin AWS S3 Express. Selon des références indépendantes, Infinia2.0 réalise 100 fois des améliorations de l'accélération des données d'IA, de la vitesse de traitement de la charge de travail de l'IA, du traitement des métadonnées et du traitement de la liste d'objets, et est 25 fois plus rapide dans les vitesses de formation des modèles et d'inférence AI. Ces paramètres impressionnants en font une solution principale dans le champ AI.
Le système Infinia2.0 prend en charge la mise à l'échelle de la tuberculose à EB et peut prendre en charge plus de 100 000 GPU et 1 million de clients simultanés, offrant une base solide pour l'innovation d'IA à grande échelle. DDN souligne que ses systèmes fonctionnent bien dans les déploiements de centres de données réels et de cloud, permettant une efficacité inégalée et des économies de coûts de 10 à plus de 100 000 GPU.
"En combinant Infinia2.0, la plate-forme de renseignement des données de DDN, avec les solutions de serveurs haut de gamme de Supermicro, les deux sociétés ont collaboré pour construire l'un des plus grands centres de données d'IA au monde", a déclaré Charles Liang, PDG de Supermicro. Ce partenariat peut être lié à l'expansion des centres de données Colossus de XAI, ce qui stimule davantage le développement de l'infrastructure d'IA.