人工知能テクノロジーの急速な発展に伴い、企業では機械学習オペレーティング プラットフォーム (MLOps) に対する需要が高まっています。多くの企業は、機械学習モデルを構築、テスト、展開するための効率的でコスト効率の高いソリューションを探しています。韓国の AI 企業 VESSL AI は、GPU コストの最適化と、よりコスト効率の高い MLOps プラットフォームを企業に提供することに重点を置き、異なるアプローチを採用し、大きな成功を収めています。 Downcodes編集長がVESSL AIとAI市場における独自のポジショニングについて詳しく解説します。
人工知能が企業のワークフローや製品にますます統合されるにつれて、機械学習オペレーション プラットフォーム (MLOps) の需要も高まっています。このようなプラットフォームは、企業が機械学習モデルをより簡単に作成、テスト、展開するのに役立ちます。しかし、市場には InfuseAIComet などのスタートアップ企業や Google Cloud、Azure、AWS などの大企業など多くの競合他社が存在しますが、韓国の VESSL AI は GPU の最適化に重点を置くことで独自の開発スペースを見つけたいと考えています。費用がかかります。

画像出典注:画像はAIによって生成され、画像はサービスプロバイダーMidjourneyによって許可されています
最近、VESSL AI は、インフラストラクチャの開発を加速し、カスタマイズされた大規模言語モデル (LLM) と垂直 AI エージェントを開発したい企業に主にサービスを提供することを目的として、1,200 万ドルのシリーズ A ラウンドを成功裡に完了しました。同社には現在、現代自動車、LIG Nex1(韓国の航空・兵器メーカー)、TMAP Mobility(UberとSK Telecomの合弁会社)などの有名企業を含む50社の法人顧客がいる。さらに、VESSL AI は、Oracle や Google Cloud などの米国企業とも戦略的協力関係を確立しています。
VESSL AI の創設チームは、Jaeman Kuss An (CEO)、Jihwan Jay Chun (最高技術責任者)、Intae Ryuo (最高製品責任者)、Yongseon Sean Lee (技術責任者) で構成されています。会社を設立する前、彼らはGoogle、PUBGで有名な企業、およびいくつかのAIスタートアップで働いていました。創業者のアン氏が前職の医療テクノロジー会社で機械学習モデルを開発したとき、そのプロセスが煩雑でリソースを消費することに気づき、効率を高めてコストを削減するためにハイブリッド インフラストラクチャを活用することにしました。
VESSL AI の MLOps プラットフォームはマルチクラウド戦略を採用しており、企業がさまざまなクラウド サービス プロバイダーの GPU を使用することで GPU コストを最大 80% 削減できます。このアプローチは、GPU 不足の問題を解決するだけでなく、AI モデルのトレーニング、デプロイ、運用、特に大規模な言語モデルの管理を最適化します。 A 氏は、システムが最も費用効果が高く効率的なリソースを自動的に選択して顧客のコストを節約できると述べました。
VESSL の製品には、VESSL Run (自動化された AI モデル トレーニング)、VESSL Serve (リアルタイム展開のサポート)、VESSL Pipelines (モデル トレーニングとデータ前処理を統合してワークフローを簡素化)、VESSL Cluster (クラスターの最適化) GPU を含む 4 つのコア機能があります。環境内のリソースの使用量)。この資金調達ラウンドの後、VESSL AI の資金調達総額は 1,680 万ドルに達し、同社は韓国と米国サンマテオに 35 名の従業員を抱えています。
ハイライト:
VESSL AI はシリーズ A で 1,200 万米ドルの資金調達を完了し、エンタープライズ GPU コストの最適化に取り組んでいます。
? 現在、ヒュンダイ自動車やLIG Nex1などの有名企業を含む50社の法人顧客がいます。
このプラットフォームは、マルチクラウド戦略を通じて GPU コストを最大 80% 削減し、複数のコア機能を提供します。
全体として、VESSL AI は、独自の GPU コスト最適化戦略を通じて、企業に効率的で経済的な MLOps プラットフォームを提供し、市場にニッチ市場を切り開いてきました。資金調達の成功と多くの著名な顧客も、そのテクノロジーの価値と市場の可能性を証明しています。今後もVESSL AIの発展に注目していきたい。