Mistral AI a récemment effectué des mouvements fréquents. Il a publié une mise à jour majeure du modèle de base Mistral7B v0.2 lors de l'événement Cerebral Valley. Le modèle prend désormais en charge le contexte 32K, a annulé la fenêtre glissante et a défini le paramètre Rope Theta sur 1e6. Ce qui est encore plus remarquable, c'est que Mistral AI a coopéré avec Microsoft et a dépensé 16 millions de dollars pour lancer le modèle de langage à grande échelle Mistral Large, qui a directement comparé GPT-4, démontrant sa forte compétitivité et ses objectifs de développement ambitieux dans le domaine des langages à grande échelle. modèles de langage. Cela indique que la concurrence dans le domaine de l'IA deviendra plus intense à l'avenir.
Mistral AI a récemment rendu open source le modèle Mistral7B v0.2Base, annoncé lors de l'événement Cerebral Valley. Après la mise à jour, il prend en charge le contexte 32K, annule la fenêtre coulissante et définit Rope Theta sur 1e6. A coopéré avec Microsoft et investi 16 millions de dollars américains pour lancer le modèle Mistral Large, en concurrence directe avec GPT-4. Mistral AI, qui continue de se développer, s'engage à surpasser ses concurrents traditionnels et à lancer de nouveaux modèles.La série d’actions de Mistral AI indique qu’elle développe activement le marché et s’engage à prendre une position de leader dans le domaine des modèles de langage à grande échelle. À l'avenir, nous continuerons à prêter attention au développement de Mistral AI et à ses performances en concurrence avec d'autres modèles de langage à grande échelle.