ในการเปิดตัวเมื่อเร็ว ๆ นี้ Data Dynamics (DDN) ได้เปิดตัวระบบจัดเก็บวัตถุ Infinia 2.0 ล่าสุดอย่างเป็นทางการซึ่งออกแบบมาสำหรับการฝึกอบรมและการให้เหตุผลด้านปัญญาประดิษฐ์ (AI) จากข้อมูลของ บริษัท Infinia2.0 สามารถบรรลุการเร่งความเร็วข้อมูล AI ได้มากถึง 100 เท่าและปรับปรุงประสิทธิภาพต้นทุนของศูนย์ข้อมูลคลาวด์ได้สูงสุด 10 ครั้ง เทคโนโลยีการพัฒนานี้ได้รับความสนใจอย่างรวดเร็วจากอุตสาหกรรม
"85 จาก 500 บริษัท ชั้นนำของโลกใช้แพลตฟอร์มข้อมูลข่าวกรองของ DDN เพื่อเรียกใช้แอพพลิเคชั่นการประมวลผล AI และประสิทธิภาพสูง (HPC) การเปิดตัว Infinia 2.0 จะช่วยให้ลูกค้าได้รับการฝึกอบรมแบบจำลองที่เร็วขึ้นและข้อมูลเชิงลึกแบบเรียลไทม์ในการวิเคราะห์ข้อมูล เขาเน้นว่าระบบนี้จะช่วยให้องค์กรมีความสามารถในการแข่งขันที่แข็งแกร่งในสนาม AI

Paul Bloch ผู้ร่วมก่อตั้งและประธานของ DDN ได้กล่าวเสริมว่า: "แพลตฟอร์มของเราถูกนำไปใช้ในโรงงาน AI ที่ใหญ่ที่สุดในโลกและสภาพแวดล้อมคลาวด์ซึ่งแสดงให้เห็นถึงความสามารถในการสนับสนุนการดำเนินงาน AI ที่สำคัญ" เป็นมูลค่าการกล่าวขวัญว่า Xai ของ Elon Musk ยังเป็นหนึ่งในลูกค้าของ DDN ซึ่งเน้นถึงความสำคัญของ Infinia2.0 ในอุตสาหกรรม
ในการออกแบบ Infinia2.0 การจัดเก็บข้อมูล AI เป็นหลัก “ เวิร์กโหลด AI ต้องการข้อมูลข้อมูลแบบเรียลไทม์เพื่อขจัดคอขวดเร่งเวิร์กโฟลว์และปรับขนาดอย่างราบรื่นในการแจงนับโมเดลที่ซับซ้อนการฝึกอบรมก่อนและหลังการฝึกอบรมการปรับปรุงการผลิต (RAG) Agentic AI และสภาพแวดล้อมหลายรูปแบบ” Sven Oehme หัวหน้าเจ้าหน้าที่เทคโนโลยีกล่าว "Infinia2.0 มีจุดมุ่งหมายเพื่อเพิ่มมูลค่าของ AI ในขณะที่ให้บริการข้อมูลแบบเรียลไทม์การจัดการผู้เช่าหลายคนที่มีประสิทธิภาพระบบอัตโนมัติอัจฉริยะและสถาปัตยกรรมพื้นเมือง AI ที่ทรงพลัง
ระบบมีคุณสมบัติขั้นสูงจำนวนมากรวมถึงการเคลื่อนย้ายข้อมูลที่ขับเคลื่อนด้วยเหตุการณ์การสนับสนุนผู้เช่าหลายคนการออกแบบที่ไม่ขึ้นกับฮาร์ดแวร์ ฯลฯ ซึ่งสามารถมั่นใจได้ว่า 99.999% ใช้เวลานานถึง 10 เท่าของการลดข้อมูลตลอดเวลาการเข้ารหัสเครือข่ายที่ทนต่อความผิดพลาด นอกจากนี้ Infinia2.0 ยังรวมกับ NEMO ของ NVIDIA, NIMS Microservices, GPU, Bluefield3 DPU และเครือข่าย Spectrum-X ซึ่งจะช่วยเร่งประสิทธิภาพของท่อข้อมูล AI
DDN อ้างว่า Infinia2.0 สามารถไปถึงระดับ TBPS ด้วยเวลาแฝงต่ำกว่ามิลลิวินาทีและประสิทธิภาพของมันเกินกว่า AWS S3 Express ตามมาตรฐานอิสระ Infinia2.0 ได้รับการปรับปรุง 100 เท่าในการเร่งความเร็วของข้อมูล AI ความเร็วในการประมวลผลการประมวลผลข้อมูลเมตาการประมวลผลข้อมูลเมตาและการประมวลผลรายการวัตถุและเร็วขึ้น 25 เท่าในการฝึกอบรมแบบจำลอง AI พารามิเตอร์ที่น่าประทับใจเหล่านี้ทำให้เป็นโซลูชันชั้นนำในฟิลด์ AI
ระบบ Infinia2.0 รองรับการเพิ่มขนาดจากวัณโรคถึง EB และสามารถรองรับ GPU กว่า 100,000 GPU และลูกค้าพร้อมกัน 1 ล้านรายซึ่งเป็นรากฐานที่แข็งแกร่งสำหรับนวัตกรรม AI ขนาดใหญ่ DDN เน้นว่าระบบทำงานได้ดีในศูนย์ข้อมูลจริงและการปรับใช้คลาวด์ทำให้สามารถประหยัดประสิทธิภาพและประหยัดต้นทุนได้จาก 10 ถึง 100,000 GPU
“ ด้วยการรวม Infinia2.0 แพลตฟอร์มข้อมูลอัจฉริยะของ DDN ด้วยโซลูชั่นเซิร์ฟเวอร์ระดับสูงของ Supermicro ทั้งสอง บริษัท ได้ร่วมมือกันสร้างศูนย์ข้อมูล AI ที่ใหญ่ที่สุดแห่งหนึ่งของโลก” Charles Liang ซีอีโอของ Supermicro กล่าว การเป็นหุ้นส่วนนี้อาจเกี่ยวข้องกับการขยายศูนย์ข้อมูล Colossus ของ Xai ซึ่งเป็นการผลักดันการพัฒนาโครงสร้างพื้นฐาน AI