최근 출시에서 DDN (Data Dynamics)은 공식적으로 인공 지능 (AI) 교육 및 추론을 위해 설계된 최신 인피 니아 2.0 객체 저장 시스템을 공식적으로 시작했습니다. 회사에 따르면 Infinia2.0은 최대 100 배의 AI 데이터 가속도를 달성하고 클라우드 데이터 센터의 비용 효율성을 최대 10 배까지 향상시킬 수 있습니다. 이 획기적인 기술은 업계의 광범위한 관심을 빠르게 끌어 들였습니다.
"세계 상위 500 대 기업 중 85 개 회사는 DDN의 데이터 인텔리전스 플랫폼을 사용하여 AI 및 고성능 컴퓨팅 (HPC) 애플리케이션을 실행하고 있습니다. Infinia 2.0의 출시는 고객이 데이터 분석 및 AI 프레임 워크에서 더 빠른 모델 교육 및 실시간 통찰력을 달성하는 데 도움이 될 것입니다." 그는이 시스템이 AI 분야에서 더 강력한 경쟁력을 기업에 제공 할 것이라고 강조했다.

DDN의 공동 창립자이자 사장 인 Paul Bloch는 다음과 같이 덧붙였다. "우리의 플랫폼은 세계 최대의 AI 공장 및 클라우드 환경에 사용되어 중요한 AI 운영을 지원할 수있는 능력을 완전히 입증했습니다." Elon Musk의 XAI는 또한 DDN의 고객 중 하나이며 업계에서 Infinia2.0의 중요성을 강조합니다.
Infinia2.0 디자인에서 AI 데이터 스토리지가 핵심입니다. "AI 워크로드는 병목 현상을 제거하고 워크 플로를 가속화하며 복잡한 모델 열거, 사전 훈련 및 사후 훈련 (RAG), 에이전트 AI 및 다중 모드 환경에서 실시간 데이터 인텔리전스가 필요합니다." "Infinia2.0은 실시간 데이터 서비스, 효율적인 다중 테넌트 관리, 지능형 자동화 및 강력한 AI 기본 아키텍처를 제공하면서 AI의 가치를 최대화하는 것을 목표로합니다.
이 시스템에는 이벤트 중심 데이터 이동성, 다중 테넌트 지원, 하드웨어 독립 설계 등을 포함한 여러 고급 기능이 있으며, 이는 99.999%의 가동 시간을 보장하고 항상 온 항상 데이터 감소, 결함 내 네트워크 지우기 인코딩 및 자동화 된 서비스 품질 (QOS)의 최대 10 배를 달성 할 수 있습니다. 또한 Infinia2.0은 NVIDIA의 NEMO, NIMS 마이크로 서비스, GPU, BlueField3 DPU 및 Spectrum-X 네트워크와 결합되어 AI 데이터 파이프 라인의 효율성을 더욱 가속화합니다.
DDN은 Infinia2.0이 밀리 초 미만의 대기 시간으로 TBPS 수준에 도달 할 수 있으며 성능은 AWS S3 Express를 훨씬 초과한다고 주장합니다. 독립적 인 벤치 마크에 따르면 Infinia2.0은 AI 데이터 가속, AI 워크로드 처리 속도, 메타 데이터 처리 및 객체 목록 처리에서 100 번 개선을 달성하며 AI 모델 교육 및 추론 쿼리 속도에서 25 배 빠릅니다. 이러한 인상적인 매개 변수는 AI 필드에서 주요 솔루션이됩니다.
Infinia2.0 시스템은 결핵에서 EB 로의 스케일 업을 지원하며 10 만 명 이상의 GPU 및 1 백만 개의 동시 고객을 지원할 수 있으며 대규모 AI 혁신을위한 견고한 기반을 제공합니다. DDN은 시스템이 실제 데이터 센터 및 클라우드 배포에서 잘 작동하여 비교할 수없는 효율성과 10 만 GPU 이상의 비용 절감을 가능하게한다고 강조합니다.
SuperMicro의 CEO 인 Charles Liang은“DDN의 데이터 인텔리전스 플랫폼 인 Infinia2.0을 SuperMicro의 고급 서버 솔루션과 결합함으로써 두 회사는 세계 최대의 AI 데이터 센터 중 하나를 구축하기 위해 협력했습니다. 이 파트너십은 Xai의 Colossus 데이터 센터의 확장과 관련하여 AI 인프라의 개발을 더욱 추진할 수 있습니다.