En el campo de la inteligencia artificial, Together AI anunció recientemente una ronda de financiamiento de la ronda B de hasta $ 305 millones, y las noticias rápidamente atrajeron una atención generalizada de la industria. El rápido aumento de la compañía está estrechamente relacionado con su último modelo de razonamiento en profundidad, Deepseek-R1. Al contrario de las preocupaciones iniciales, muchos expertos de la industria creen que los avances en la tecnología de razonamiento profundo no solo no reducen la demanda de infraestructura, sino que constantemente aumentan esta demanda.
Desde su inicio en 2023, la misión de AI es simplificar el uso empresarial de modelos de lenguaje de código abierto (LLM). Con el tiempo, la compañía amplió gradualmente su plataforma para lanzar una solución llamada "plataforma juntas" que admite la implementación de IA en nubes privadas virtuales y entornos locales. En 2025, Juns AI mejoró aún más sus capacidades de plataforma y lanzaron sus capacidades de agrupación de inferencia e inteligencia autónoma (IA agente).
Según Vipul Prakash, CEO de Together AI, los parámetros de Deepseek-R1 son tan altos como 671 mil millones, lo que hace que el costo de la inferencia operativa no se subestime. Para satisfacer las necesidades de más y más usuarios, JUNSA AI ha lanzado el servicio "Inferencia Cluster", proporcionando a los clientes potencia informática dedicada de 128 a 2,000 chips para garantizar el mejor rendimiento del modelo. Además, los tiempos de procesamiento de la solicitud Deepseek-R1 suelen ser más largos, con un promedio de dos a tres minutos, lo que también conduce a un aumento en la demanda de infraestructura.
En términos de la aplicación de modelos de inferencia, Juns AI ha visto algunos escenarios de uso específicos, como los agentes de codificación, reduciendo la ilusión del modelo y logrando la superación personal del modelo a través del aprendizaje de refuerzo. Estas aplicaciones no solo mejoran la eficiencia laboral, sino que también mejoran la precisión de la producción del modelo.
Además, Together AI ha adquirido CodesandBox para mejorar sus capacidades en los flujos de trabajo inteligentes autónomos. Esta adquisición le permite ejecutar código rápidamente en la nube, reduciendo la latencia y mejorando el rendimiento de los flujos de trabajo proxy.
Enfrentados con la feroz competencia del mercado, la plataforma de infraestructura de IA juntos se optimiza constantemente, y el despliegue de su nueva generación de chips Nvidia Blackwell proporcionará un mayor rendimiento y menor latencia para la capacitación e inferencia modelo. Prakash señaló que, en comparación con otras plataformas como Azure, la velocidad de inferencia de IA, ha mejorado significativamente, satisfaciendo en gran medida las necesidades de los clientes de infraestructura de IA de alto rendimiento.
Puntos clave:
Juntos AI recibieron US $ 305 millones en financiamiento para promover el desarrollo de modelos de razonamiento en profundidad.
La complejidad de Deepseek-R1 ha aumentado significativamente la demanda de infraestructura, y el lanzamiento del servicio de "clúster de inferencia" se lanza para satisfacer la demanda del mercado.
Codesandbox y Nvidia Blackwell Chips recién adquiridos mejorarán aún más la competitividad del mercado de AI Together AI.