인공지능 기술의 급속한 발전으로 기업에서는 MLOps(머신러닝 운영 플랫폼)에 대한 수요가 증가하고 있습니다. 많은 기업에서는 기계 학습 모델을 구축, 테스트 및 배포하기 위한 효율적이고 비용 효율적인 솔루션을 찾고 있습니다. 한국의 AI 회사인 VESSL AI는 GPU 비용을 최적화하고 기업에 보다 비용 효율적인 MLOps 플랫폼을 제공하는 데 중점을 두는 다른 접근 방식을 취하여 상당한 성공을 거두었습니다. Downcodes의 편집자는 VESSL AI와 AI 시장에서의 VESSL AI의 독특한 포지셔닝을 자세히 설명할 것입니다.
인공 지능이 엔터프라이즈 워크플로 및 제품에 점점 더 통합됨에 따라 MLOps(기계 학습 운영 플랫폼)에 대한 수요도 증가하고 있습니다. 이러한 플랫폼은 기업이 기계 학습 모델을 보다 쉽게 생성, 테스트 및 배포하는 데 도움이 됩니다. 하지만 시장에는 InfuseAIComet 등의 스타트업은 물론 Google Cloud, Azure, AWS 등의 대기업 등 많은 경쟁사가 있음에도 불구하고 한국의 VESSL AI는 GPU 최적화에 집중하여 자체 개발 공간을 찾고자 합니다. 소송 비용.

사진 출처 참고: 사진은 AI에 의해 생성되었으며 사진은 서비스 제공업체 Midjourney의 승인을 받았습니다.
최근 VESSL AI는 인프라 개발을 가속화하고 주로 맞춤형 LLM(대형 언어 모델) 및 수직 AI 에이전트를 개발하려는 기업에 서비스를 제공하는 것을 목표로 1,200만 달러 규모의 시리즈 A 자금 조달을 성공적으로 완료했습니다. 이 회사는 현재 현대자동차, LIG넥스원(국내 항공 및 무기 제조업체), TMAP 모빌리티(우버와 SK텔레콤의 합작회사) 등 유명 기업을 포함해 50개 기업 고객을 보유하고 있다. 또한 VESSL AI는 Oracle, Google Cloud 등 미국 기업과도 전략적 협력을 구축했습니다.
VESSL AI 창립팀은 안재만(CEO), 천지환(CTO), 류인태(CPO), 이용선(Technical Lead)으로 구성됐다. 회사를 설립하기 전에는 Google, PUBG 유명 기업 및 일부 AI 스타트업에서 근무했습니다. 창립자 안씨는 이전 의료 기술 회사에서 기계 학습 모델을 개발했을 때 프로세스가 번거롭고 리소스가 많이 소모된다는 사실을 깨닫고 하이브리드 인프라를 활용하여 효율성을 높이고 비용을 절감하기로 결정했습니다.
VESSL AI의 MLOps 플랫폼은 멀티 클라우드 전략을 채택하여 기업이 다양한 클라우드 서비스 제공업체의 GPU를 사용하여 GPU 비용을 최대 80% 절감할 수 있도록 지원합니다. 이러한 접근 방식은 GPU 부족 문제를 해결할 뿐만 아니라 AI 모델의 훈련, 배포 및 운영, 특히 대규모 언어 모델 관리를 최적화합니다. An은 시스템이 고객의 비용을 절약하기 위해 가장 비용 효율적이고 효율적인 리소스를 자동으로 선택할 수 있다고 언급했습니다.
VESSL의 제품에는 VESSL Run(자동화된 AI 모델 훈련), VESSL Serve(실시간 배포 지원), VESSL Pipelines(모델 훈련과 데이터 전처리를 통합하여 워크플로 단순화), VESSL Cluster(클러스터 최적화) GPU 등 4가지 핵심 기능이 있습니다. 환경에서의 리소스 사용량). 이번 자금조달 이후 VESSL AI의 총 자금조달액은 1,680만 달러에 이르렀고, 이 회사는 한국과 미국 샌머테이오에 35명의 직원을 두고 있다.
가장 밝은 부분:
VESSL AI는 시리즈 A 파이낸싱에서 1,200만 달러를 완료했으며 기업 GPU 비용 최적화에 전념하고 있습니다.
현재 현대자동차, LIG넥스원 등 유명 기업을 포함해 50개 기업 고객을 보유하고 있다.
플랫폼은 멀티 클라우드 전략을 통해 GPU 비용을 최대 80% 절감하고 다양한 핵심 기능을 제공합니다.
전체적으로 VESSL AI는 고유한 GPU 비용 최적화 전략을 통해 기업에 효율적이고 경제적인 MLOps 플랫폼을 제공하고 시장에서 틈새 시장을 개척했습니다. 성공적인 자금 조달과 많은 유명 고객 또한 기술의 가치와 시장 잠재력을 입증합니다. 앞으로도 VESSL AI의 개발은 계속해서 주목받을 만하다.