No campo da inteligência artificial, juntos a IA anunciou recentemente uma rodada de financiamento da Rodada B de até US $ 305 milhões, e as notícias rapidamente atraíram atenção generalizada da indústria. O rápido aumento da empresa está intimamente relacionado ao seu mais recente modelo de raciocínio aprofundado, Deepseek-R1. Ao contrário das preocupações iniciais, muitos especialistas do setor acreditam que os avanços na profunda tecnologia de raciocínio não estão apenas reduzindo a demanda por infraestrutura, mas estão constantemente aumentando essa demanda.
Desde a sua criação em 2023, juntos a missão da IA é simplificar o uso corporativo de modelos de idiomas grandes de código aberto (LLMS). Com o tempo, a empresa expandiu gradualmente sua plataforma para lançar uma solução chamada "Plataforma Troada", que suporta a implantação de IA em nuvens privadas virtuais e ambientes locais. Em 2025, juntos a IA aprimorou ainda mais seus recursos de plataforma e lançou suas capacidades de cluster de inferência e inteligência autônoma (IA Agentic).
De acordo com Vipul Prakash, CEO da AI TOW AI, os parâmetros da Deepseek-R1 são tão altos quanto 671 bilhões, o que faz com que o custo da inferência operacional não seja subestimado. Para atender às necessidades de cada vez mais usuários, a IA lançou o serviço "Inferência do cluster", fornecendo aos clientes poder de computação dedicado de 128 a 2.000 chips para garantir o melhor desempenho do modelo. Além disso, os tempos de processamento de solicitação do DeepSeek-R1 geralmente são mais longos, com uma média de dois a três minutos, o que também leva a um aumento na demanda de infraestrutura.
Em termos de aplicação de modelos de inferência, juntos a IA viu alguns cenários de uso específicos, como agentes de codificação, reduzindo a ilusão do modelo e alcançando o auto-aperfeiçoamento do modelo através da aprendizagem de reforço. Esses aplicativos não apenas melhoram a eficiência do trabalho, mas também melhoram a precisão da saída do modelo.
Além disso, juntos a IA adquiriu códigos e caixas para aprimorar seus recursos em fluxos de trabalho inteligentes autônomos. Essa aquisição permite executar o código rapidamente na nuvem, reduzindo a latência e melhorando o desempenho dos fluxos de trabalho proxy.
Diante da feroz concorrência do mercado, a plataforma de infraestrutura da IA está sendo constantemente otimizada, e a implantação de sua nova geração de chips Nvidia Blackwell proporcionará maior desempenho e menor latência para treinamento e inferência modelo. Prakash apontou que, em comparação com outras plataformas, como o Azure, juntas a velocidade de inferência da IA melhorou significativamente, atendendo muito às necessidades dos clientes de infraestrutura de IA de alto desempenho.
Pontos -chave:
Juntos, a IA recebeu US $ 305 milhões em financiamento para promover o desenvolvimento de modelos detalhados de raciocínio.
A complexidade do Deepseek-R1 aumentou significativamente a demanda de infraestrutura e o lançamento do serviço "Inferência de Cluster" é lançado para atender à demanda do mercado.
O recém -adquirido CodesandBox e NVIDIA Blackwell Chips aumentará ainda mais a competitividade do mercado da AI juntos.