Pada peluncuran baru -baru ini, Data Dynamics (DDN) secara resmi meluncurkan sistem penyimpanan objek Infinia 2.0 terbaru, yang dirancang untuk pelatihan dan penalaran dan penalaran buatan (AI). Menurut perusahaan, Infinia2.0 dapat mencapai hingga 100 kali akselerasi data AI dan meningkatkan efisiensi biaya pusat data cloud hingga 10 kali. Teknologi terobosan ini dengan cepat menarik perhatian luas dari industri.
"85 dari 500 perusahaan teratas dunia menggunakan platform intelijen data DDN untuk menjalankan aplikasi AI dan komputasi kinerja tinggi (HPC) mereka. Peluncuran Infinia 2.0 akan membantu pelanggan mencapai pelatihan model yang lebih cepat dan wawasan waktu nyata dan analisis data dan AI Frameworks, sambil memastikan adaptasi di masa depan terhadap efisiensi GPU dan konsumsi energi. Dia menekankan bahwa sistem ini akan memberi perusahaan daya saing yang lebih kuat di bidang AI.

Paul Bloch, salah satu pendiri dan presiden DDN, juga menambahkan: "Platform kami telah digunakan di beberapa pabrik AI terbesar di dunia dan lingkungan cloud, sepenuhnya menunjukkan kemampuannya untuk mendukung operasi AI yang kritis." Perlu disebutkan bahwa XAI Elon Musk juga merupakan salah satu pelanggan DDN, yang selanjutnya menyoroti pentingnya Infinia2.0 di industri ini.
Dalam desain Infinia2.0, penyimpanan data AI adalah inti. "Beban kerja AI membutuhkan intelijen data real-time untuk menghilangkan bottleneck, mempercepat alur kerja, dan skala mulus dalam enumerasi model kompleks, pra-pelatihan dan pasca-pelatihan, peningkatan generasi (RAG), AI agen, dan lingkungan multimoda," kata Sven Oehme, kepala petugas teknologi. "Infinia2.0 bertujuan untuk memaksimalkan nilai AI sambil menyediakan layanan data real-time, manajemen multi-penyewa yang efisien, otomatisasi cerdas dan arsitektur asli AI yang kuat.
Sistem ini memiliki sejumlah fitur canggih, termasuk mobilitas data yang digerakkan oleh peristiwa, dukungan multi-penyewa, desain perangkat keras-independen, dll., Yang dapat memastikan uptime 99,999% dan mencapai hingga 10 kali pengurangan data yang selalu masuk, pengkodean penghapusan jaringan yang toleran terhadap kesalahan dan kualitas layanan otomatis (QoS). Selain itu, Infinia2.0 dikombinasikan dengan NEMO NVIDIA, NIMS Microservices, GPU, Bluefield3 DPU dan Spectrum-X Networks, lebih lanjut mempercepat efisiensi pipa data AI.
DDN mengklaim bahwa Infinia2.0 dapat mencapai tingkat TBPS dengan latensi di bawah milidetik, dan kinerjanya jauh melebihi AWS S3 Express. Menurut tolok ukur independen, Infinia2.0 mencapai 100 kali peningkatan dalam akselerasi data AI, kecepatan pemrosesan beban kerja AI, pemrosesan metadata dan pemrosesan daftar objek, dan 25 kali lebih cepat dalam pelatihan model AI dan kecepatan kueri inferensi. Parameter yang mengesankan ini menjadikannya solusi terkemuka di bidang AI.
Sistem Infinia2.0 mendukung peningkatan dari TB ke EB, dan dapat mendukung lebih dari 100.000 GPU dan 1 juta klien simultan, memberikan fondasi yang kuat untuk inovasi AI skala besar. DDN menekankan bahwa sistemnya berkinerja baik di pusat data nyata dan penyebaran cloud, memungkinkan efisiensi yang tak tertandingi dan penghematan biaya dari 10 hingga lebih dari 100.000 GPU.
"Dengan menggabungkan Infinia2.0, platform intelijen data DDN, dengan solusi server kelas atas Supermicro, kedua perusahaan telah berkolaborasi untuk membangun salah satu pusat data AI terbesar di dunia," kata Charles Liang, CEO Supermicro. Kemitraan ini mungkin terkait dengan perluasan pusat data Colossus XAI, lebih lanjut mendorong pengembangan infrastruktur AI.