Dans le domaine de l'intelligence artificielle, ensemble, l'IA a récemment annoncé un financement de la ronde B jusqu'à 305 millions de dollars, et les nouvelles ont rapidement attiré l'attention de l'industrie. La montée rapide de l'entreprise est étroitement liée à son dernier modèle de raisonnement approfondi, Deepseek-R1. Contrairement aux préoccupations initiales, de nombreux experts de l'industrie estiment que les progrès de la technologie de raisonnement en profondeur ne réduisent pas seulement la demande d'infrastructures, mais augmentent constamment cette demande.
Depuis sa création en 2023, la mission de l'IA est de simplifier l'utilisation de l'entreprise de modèles de langue grande open source (LLMS). Au fil du temps, la société a progressivement élargi sa plate-forme pour lancer une solution appelée "plate-forme ensemble" qui prend en charge le déploiement de l'IA dans des nuages privés virtuels et des environnements sur site. En 2025, ensemble, l'IA a encore amélioré ses capacités de plate-forme et a lancé ses capacités de clustering d'inférence et d'intelligence autonome (AI agentique).
Selon Vipul Prakash, PDG de Together AI, les paramètres de Deepseek-R1 atteignent 671 milliards de dollars, ce qui fait que le coût de l'inférence opérationnelle ne soit pas sous-estimé. Pour répondre aux besoins des utilisateurs de plus en plus, AI a lancé le service "Cluster Inference Cluster", offrant aux clients une puissance de calcul dédiée de 128 à 2 000 puces pour assurer les meilleures performances du modèle. De plus, les délais de traitement des demandes Deepseek-R1 sont généralement plus longs, avec une moyenne de deux à trois minutes, ce qui entraîne également une augmentation de la demande d'infrastructures.
En termes d'application de modèles d'inférence, l'IA ensemble a vu certains scénarios d'utilisation spécifiques, tels que les agents de codage, la réduction de l'illusion du modèle et la réalisation de l'auto-amélioration du modèle par l'apprentissage du renforcement. Ces applications améliorent non seulement l'efficacité du travail, mais améliorent également la précision de la sortie du modèle.
De plus, ensemble, AI a acquis des codes et une boîte de codes pour améliorer ses capacités dans les flux de travail intelligents autonomes. Cette acquisition lui permet d'exécuter le code rapidement dans le cloud, de réduire la latence et d'améliorer les performances des flux de travail proxy.
Face à une concurrence sur le marché féroce, la plate-forme d'infrastructure de l'IA est constamment optimisée, et le déploiement de sa nouvelle génération de puces Nvidia Blackwell fournira des performances plus élevées et une latence plus faible pour la formation et l'inférence des modèles. Prakash a souligné que par rapport à d'autres plates-formes telles qu'Azure, la vitesse d'inférence de l'IA s'est considérablement améliorée, répondant considérablement aux besoins des clients pour l'infrastructure d'IA à haute performance.
Points clés:
Ensemble, l'IA a reçu 305 millions de dollars de financement US pour promouvoir le développement de modèles de raisonnement approfondie.
La complexité de Deepseek-R1 a considérablement augmenté la demande d'infrastructures, et le lancement du service "Cluster Cluster" est lancé pour répondre à la demande du marché.
Les codes et les puces Nvidia Blackwell, nouvellement acquises, amélioreront encore la compétitivité du marché de l'IA ensemble.