Bei einem kürzlich erschienenen Start hat Data Dynamics (DDN) offiziell sein neuestes Infinia 2.0 -Objektspeichersystem gestartet, das für die KI -Schulung und -Age für künstliche Intelligenz (KI) entwickelt wurde. Nach Angaben des Unternehmens kann Infinia2.0 bis zu 100 Mal KI -Datenbeschleunigung erreichen und die Kosteneffizienz von Cloud -Rechenzentren um bis zu 10 Mal verbessern. Diese bahnbrechende Technologie hat die Branche schnell weit verbreitet.
"85 der weltweit führenden 500 Unternehmen verwenden die DDN-Data Intelligence-Plattform, um ihre KI- und Hochleistungs-Computing (HPC) -Anwendungen auszuführen. Der Start von Infinia 2.0 hilft Kunden dabei, schnellere Modellschulungen und Echtzeit-Erkenntnisse in die Datenanalyse und AI-Frameworks zu erreichen, wodurch die zukünftige Anpassungsfähigkeit an GPU-Effizienz sowie die Energieverbrauch sowie die Energieverbrauchsverbrauch durch die Anpassung sichergestellt wird." Er betonte, dass dieses System Unternehmen im Bereich KI stärkere Wettbewerbsfähigkeit bieten werde.

Paul Bloch, Mitbegründer und Präsident von DDN, fügte ebenfalls hinzu: "Unsere Plattform wurde in einigen der größten KI-Fabriken und Cloud-Umgebungen der Welt in Einklang gebracht und seine Fähigkeit, kritische KI-Operationen zu unterstützen, voll und ganz demonstriert." Es ist erwähnenswert, dass Elon Musks XAI auch einer der Kunden von DDN ist, was die Bedeutung von Infinia2.0 in der Branche weiter hervorhebt.
Im Design infinia2.0 ist die KI -Datenspeicherung der Kern. "KI-Workloads erfordern Echtzeitdaten-Intelligence, um Engpässe zu beseitigen, Workflows zu beschleunigen und die komplexe Modellaufzählung, Vorausbildung und Nachtraining nahtlos zu skalieren, die Erzeugung (RAG), die Agentic AI und die multimodalen Umgebungen", sagte Sven Oehme, Chief Technology Officer. "Infinia2.0 zielt darauf ab, den Wert der KI zu maximieren und gleichzeitig Echtzeitdatendienste, ein effizientes Multi-Mieter-Management, eine intelligente Automatisierung und eine leistungsstarke KI-native Architektur anzubieten.
Das System verfügt über eine Reihe fortschrittlicher Funktionen, einschließlich ereignisgesteuerter Datenmobilität, Support mit mehreren Mandanten, hardwareunabhängige Designs usw., die eine Verfügbarkeit von 99,999% sicherstellen und bis zu 10-mal so hoch wie die Datenreduzierung, die Codierung des Fehlers und die automatisierte Qualität des Dienstes (QOS) erreichen können. Darüber hinaus wird Infinia2.0 mit NVIDIA-NEMO-, NIMS-Microservices-, GPU-, Bluefield3-DPU- und Spectrum-X-Netzwerken kombiniert, wodurch die Effizienz von AI-Datenpipelines weiter beschleunigt wird.
DDN behauptet, dass Infinia2.0 den TBPS -Niveau mit Latenz unter Millisekunden erreichen kann und seine Leistung AWS S3 Express weit übersteigt. Laut unabhängigen Benchmarks erzielt Infinia2.0 100 -fache Verbesserungen der AI -Datenbeschleunigung, der Verarbeitungsgeschwindigkeit der KI, der Verarbeitung von Metadaten und der Objektlistenverarbeitung und ist 25 -mal schneller in den KI -Modelltrainings- und Inferenzabfragengeschwindigkeiten. Diese beeindruckenden Parameter machen es zu einer führenden Lösung im KI -Feld.
Das Infinia2.0-System unterstützt das Scale-up von TB bis EB und kann über 100.000 GPUs und 1 Million gleichzeitige Kunden unterstützen, was eine solide Grundlage für groß angelegte KI-Innovationen bietet. DDN betont, dass seine Systeme in realem Rechenzentrum und Cloud -Bereitstellungen gut abschneiden und eine beispiellose Effizienz und Kosteneinsparungen von 10 bis über 100.000 GPUs ermöglichen.
"Durch die Kombination von Infinia2.0, DDN-Dateninformance-Plattform mit den High-End-Serverlösungen von Supermicro haben die beiden Unternehmen zusammengearbeitet, um eines der weltweit größten AI-Rechenzentren aufzubauen", sagte Charles Liang, CEO von Supermicro. Diese Partnerschaft kann mit der Expansion der Colossus -Rechenzentren von XAI zusammenhängen und die Entwicklung der AI -Infrastruktur weiter vorantreiben.