En un lanzamiento reciente, Data Dynamics (DDN) lanzó oficialmente su último sistema de almacenamiento de objetos Infinia 2.0, diseñado para capacitación y razonamiento de inteligencia artificial (IA). Según la compañía, Infinia2.0 puede lograr hasta 100 veces la aceleración de datos de IA y mejorar la eficiencia de rentabilidad de los centros de datos en la nube en hasta 10 veces. Esta tecnología innovadora ha atraído rápidamente la atención generalizada de la industria.
"85 de las 500 principales compañías del mundo están utilizando la plataforma de inteligencia de datos de DDN para ejecutar sus aplicaciones de AI y computación de alto rendimiento (HPC). El lanzamiento de Infinia 2.0 ayudará a los clientes a lograr una capacitación de modelos más rápida y información en tiempo real en análisis de datos y marco de IA, al tiempo que garantizará la adaptabilidad futura a la eficiencia de GPU y el consumo de energía". Hizo hincapié en que este sistema proporcionará a las empresas una competitividad más fuerte en el campo de IA.

Paul Bloch, cofundador y presidente de DDN, también agregó: "Nuestra plataforma se ha puesto en uso en algunas de las fábricas y entornos en la nube de IA más grandes del mundo, demostrando completamente su capacidad para apoyar las operaciones críticas de IA". Vale la pena mencionar que el XAI de Elon Musk también es uno de los clientes de DDN, lo que resalta aún más la importancia de Infinia2.0 en la industria.
En el diseño de Infinia2.0, el almacenamiento de datos de IA es el núcleo. "Las cargas de trabajo de IA requieren inteligencia de datos en tiempo real para eliminar los cuellos de botella, acelerar los flujos de trabajo y escalar sin problemas en la enumeración del modelo complejo, el entrenamiento previo y el entrenamiento posterior, la generación mejorada (RAG), la IA agente y los entornos multimodales", dijo Sven Oehme, director de tecnología. "Infinia2.0 tiene como objetivo maximizar el valor de la IA al tiempo que proporciona servicios de datos en tiempo real, gestión eficiente de múltiples inquilinos, automatización inteligente y una poderosa arquitectura nativa de IA.
El sistema tiene una serie de características avanzadas, que incluyen movilidad de datos basada en eventos, soporte de múltiples inquilinos, diseño independiente de hardware, etc., lo que puede garantizar un tiempo de actividad del 99.999% y lograr hasta 10 veces la reducción de datos siempre encendida, codificación de red tolerante a fallas y la calidad de servicio automatizada (QoS). Además, Infinia2.0 se combina con las redes NEMO, NIMS NIMS, GPU, Bluefield3 DPU y Spectrum-X, acelerando aún más la eficiencia de las tuberías de datos de IA.
DDN afirma que Infinia2.0 puede alcanzar el nivel de TBPS con latencia por debajo de los milisegundos, y su rendimiento supera con creces AWS S3 Express. Según los puntos de referencia independientes, Infinia2.0 logra 100 veces mejoras en la aceleración de datos de IA, la velocidad de procesamiento de la carga de trabajo de IA, el procesamiento de metadatos y el procesamiento de la lista de objetos, y es 25 veces más rápido en las velocidades de entrenamiento del modelo de IA y consulta de inferencia. Estos parámetros impresionantes lo convierten en una solución líder en el campo AI.
El sistema Infinia2.0 admite la escala de TB a EB, y puede admitir más de 100,000 GPU y 1 millón de clientes simultáneos, proporcionando una base sólida para la innovación de IA a gran escala. DDN enfatiza que sus sistemas funcionan bien en el centro de datos real y las implementaciones de la nube, lo que permite la eficiencia incomparable y los ahorros de costos de 10 a más de 100,000 GPU.
"Al combinar Infinia2.0, la plataforma de inteligencia de datos de DDN, con las soluciones de servidores de alta gama de Supermicro, las dos compañías han colaborado para construir uno de los centros de datos de AI más grandes del mundo", dijo Charles Liang, CEO de Suppermicro. Esta asociación puede estar relacionada con la expansión de los centros de datos Colossus de XAI, impulsando aún más el desarrollo de la infraestructura de IA.