Mistral AI tem feito movimentos frequentes recentemente. Ele lançou uma grande atualização para o modelo básico Mistral7B v0.2 no evento Cerebral Valley. O modelo agora suporta contexto de 32K, cancelou a janela deslizante e definiu o parâmetro Rope Theta para 1e6. O que é ainda mais digno de nota é que a Mistral AI cooperou com a Microsoft e gastou US$ 16 milhões para lançar o modelo de linguagem de grande escala Mistral Large, que comparou diretamente o GPT-4, demonstrando sua forte competitividade e ambiciosos objetivos de desenvolvimento no campo de larga escala. modelos de linguagem. Isto indica que a competição no campo da IA se tornará mais intensa no futuro.
Mistral AI abriu recentemente o código-fonte do modelo Mistral7B v0.2Base, anunciado no evento Cerebral Valley. Após a atualização, ele suporta contexto de 32K, cancela a janela deslizante e define Rope Theta como 1e6. Cooperou com a Microsoft e investiu US$ 16 milhões para lançar o modelo Mistral Large, competindo diretamente com o GPT-4. A Mistral AI, que continua a desenvolver-se, está empenhada em superar os concorrentes tradicionais e lançar novos modelos.A série de ações da Mistral AI indica que ela está expandindo ativamente o mercado e está comprometida em assumir uma posição de liderança na área de modelos de linguagem em larga escala. No futuro, continuaremos a prestar atenção ao desenvolvimento da Mistral AI e ao seu desempenho em competição com outros modelos de linguagem de grande escala.