في إطلاق حديث ، أطلقت Data Dynamics (DDN) رسميًا أحدث نظام لتخزين كائنات Infinia 2.0 ، المصمم للتدريب والتفكير في الذكاء الاصطناعي (AI). وفقًا للشركة ، يمكن لـ Infinia2.0 تحقيق ما يصل إلى 100 مرة من تسريع بيانات الذكاء الاصطناعي وتحسين كفاءة تكلفة مراكز البيانات السحابية بمقدار تصل إلى 10 مرات. اجتذبت هذه التكنولوجيا المتصاعدة بسرعة انتباهًا على نطاق واسع من هذه الصناعة.
"85 من أفضل 500 شركة في العالم تستخدم منصة ذكاء البيانات في DDN لتشغيل AI وتطبيقات الحوسبة عالية الأداء (HPC). سيساعد إطلاق Infinia 2.0 للعملاء على تحقيق تدريب أسرع ونظائر في الوقت الفعلي في تحليلات البيانات وإطارات الذكاء الاصطناعي ، مع ضمان القدرة على التكيف في المستقبل مع كفاءة GPU والاتحاد للطاقة." وأكد أن هذا النظام سيوفر للمؤسسات قدرة تنافسية أقوى في مجال الذكاء الاصطناعي.

وأضاف بول بلوتش ، المؤسس المشارك ورئيس DDN ، أيضًا: "لقد تم استخدام منصتنا في بعض أكبر مصانع الذكاء الاصطناعي والبيئات السحابية في العالم ، مما يدل تمامًا على قدرتها على دعم عمليات الذكاء الاصطناعى الحرجة." تجدر الإشارة إلى أن XAI's Elon Musk هي أيضًا واحدة من عملاء DDN ، مما يبرز أيضًا أهمية Infinia2.0 في هذه الصناعة.
في تصميم Infinia2.0 ، يعد تخزين بيانات الذكاء الاصطناعي هو الأساسية. وقال سفين أوهمي ، كبير المسؤولين في التكنولوجيا ، "أعباء العمل من الذكاء الاصطناعي تتطلب ذكاء البيانات في الوقت الفعلي للتخلص من الاختناقات ، وتسريع سير العمل ، وتوسيع نطاقه بسلاسة في تعداد النموذج المعقد ، وبعد التدريب وما بعد التدريب ، والتوليد المعزز (RAG) ، ووكيل الذكاء الاصطناعي ، والبيئات متعددة الوسائط". "يهدف Infinia2.0 إلى زيادة قيمة الذكاء الاصطناعي مع توفير خدمات البيانات في الوقت الفعلي ، وإدارة المستأجرين المتعددة الفعالة ، والأتمتة الذكية ، والهندسة المعمارية الأصلية منظمة العفو الدولية.
يحتوي النظام على عدد من الميزات المتقدمة ، بما في ذلك تنقل البيانات القائم على الأحداث ، ودعم متعدد المستأجرين ، والتصميم المستقل للأجهزة ، وما إلى ذلك ، والتي يمكن أن تضمن وقت التشغيل بنسبة 99.999 ٪ وتحقيق ما يصل إلى 10 أضعاف الحد من البيانات ، وترميز الشبكة المحملة بالأخطاء وجودة الخدمة الآلية (QOs). بالإضافة إلى ذلك ، يتم دمج Infinia2.0 مع NEMO's NEMO و NIMS Microservices و GPU و Bluefield3 DPU وشبكات Spectrum-X ، مما يزيد من تسريع كفاءة أنابيب بيانات AI.
تدعي DDN أن Infinia2.0 يمكن أن تصل إلى مستوى TBPs مع زمن انتقال أقل من ميلي ثانية ، وأدائه يتجاوز بكثير AWS S3 Express. وفقًا للمعايير المستقلة ، يحقق Infinia2.0 تحسينات 100 مرة في تسارع بيانات الذكاء الاصطناعي ، وسرعة معالجة عبء العمل من الذكاء الاصطناعي ، ومعالجة البيانات الوصفية ومعالجة قائمة الكائنات ، وأسرع 25 مرة في تدريب نموذج الذكاء الاصطناعى وسرعات استعلام الاستدلال. هذه المعلمات المثيرة للإعجاب تجعلها حلاً رائدًا في حقل الذكاء الاصطناعي.
يدعم نظام Infinia2.0 التوسع من السل إلى EB ، ويمكنه دعم أكثر من 100000 وحدة معالجة الرسومات و 1 مليون عميل متزامن ، مما يوفر أساسًا متينًا لابتكار الذكاء الاصطناعي على نطاق واسع. تؤكد DDN على أن أنظمتها تعمل بشكل جيد في عمليات النشر الحقيقية للبيانات والنشر السحابي ، مما يتيح كفاءة لا مثيل لها وتوفير في التكاليف من 10 إلى أكثر من 100000 وحدة معالجة الرسومات.
وقال تشارلز ليانغ ، الرئيس التنفيذي لشركة Supermicro: "من خلال الجمع بين Infinia2.0 ، منصة ذكاء البيانات في DDN ، مع حلول الخادم المتطورة في Supermicro ، تعاونت الشركتان لبناء واحدة من أكبر مراكز بيانات الذكاء الاصطناعي في العالم". قد تكون هذه الشراكة مرتبطة بتوسيع مراكز بيانات Colossus من XAI ، مما يؤدي إلى زيادة تطوير البنية التحتية لمنظمة العفو الدولية.