人工知能の分野では、AIは最近、最大3億500万ドルのラウンドBファイナンスを発表し、このニュースはすぐに業界から広範囲にわたる注目を集めました。同社の急速な上昇は、最新の詳細な推論モデルであるDeepSeek-R1と密接に関連しています。初期の懸念とは反対に、多くの業界の専門家は、深い推論技術の進歩はインフラストラクチャの需要を減らすだけでなく、この需要を絶えず増加させていると考えています。
2023年の設立以来、AIのミッションは、オープンソースの大手言語モデル(LLMS)のエンタープライズの使用を簡素化することです。時間の経過とともに、同社はプラットフォームを徐々に拡張して、仮想プライベートクラウドとオンプレミス環境でのAIの展開をサポートする「Coingle Platform」と呼ばれるソリューションを起動しました。 2025年、AIはプラットフォーム機能をさらに強化し、推論クラスタリングおよび自律知能(エージェントAI)機能を起動しました。
AIのCEOであるVipul Prakashによると、DeepSeek-R1のパラメーターは6710億個であるため、運用上の推論のコストが過小評価されないようにしています。ますます多くのユーザーのニーズを満たすために、AIは「推論クラスター」サービスを開始し、モデルの最高のパフォーマンスを確保するために128から2,000のチップまでの専用コンピューティングパワーを顧客に提供します。さらに、DeepSeek-R1リクエスト処理時間は通常、平均2〜3分で、インフラストラクチャの需要の増加につながります。
推論モデルの適用に関しては、AIは、コーディングエージェント、モデルの幻想を減らし、強化学習を通じてモデルの自己改善を達成するなど、いくつかの特定の使用シナリオを見てきました。これらのアプリケーションは、作業効率を改善するだけでなく、モデル出力の精度を向上させます。
さらに、AIはCodeSandBoxを取得して、自律的なインテリジェントワークフローでの機能を強化しました。この獲得により、クラウドでコードをすばやく実行して、遅延を減らし、プロキシワークフローのパフォーマンスを向上させることができます。
激しい市場競争に直面して、AIのインフラストラクチャプラットフォームは絶えず最適化されており、Nvidia Blackwellチップスの新世代の展開は、モデルトレーニングと推論のためにより高いパフォーマンスと低下を提供します。 Prakashは、Azureなどの他のプラットフォームと比較して、AIの推論速度が大幅に向上し、高性能AIインフラストラクチャに対する顧客のニーズを大幅に満たしていると指摘しました。
キーポイント:
AIは、詳細な推論モデルの開発を促進するために、3億5,500万米ドルの資金調達を受けました。
DeepSeek-R1の複雑さにより、インフラストラクチャの需要が大幅に増加しており、市場需要を満たすために「推論クラスター」サービスの開始が開始されます。
新しく取得したCodeSandboxとNvidia Blackwellチップは、AIの市場競争力をさらに高めます。