Mistral AI ha estado haciendo movimientos frecuentes recientemente. Lanzó una actualización importante del modelo base Mistral7B v0.2 en el evento de Cerebral Valley. El modelo ahora admite contexto de 32K, canceló la ventana deslizante y configuró el parámetro Rope Theta en 1e6. Lo que es más digno de mención es que Mistral AI cooperó con Microsoft y gastó 16 millones de dólares para lanzar el modelo de lenguaje a gran escala Mistral Large, comparando directamente GPT-4, lo que demuestra su fuerte competitividad y ambiciosos objetivos de desarrollo en el campo de los modelos de lenguaje a gran escala. . Esto indica que la competencia en el campo de la IA será más intensa en el futuro.
Mistral AI ha abierto recientemente el modelo base Mistral7B v0.2, anunciado en el evento de Cerebral Valley. Después de la actualización, admite contexto de 32K, cancela la ventana deslizante y establece Rope Theta en 1e6. Cooperó con Microsoft e invirtió 16 millones de dólares para lanzar el modelo Mistral Large, que compite directamente con GPT-4. Mistral AI, que continúa desarrollándose, apuesta por superar a los competidores tradicionales y lanzar nuevos modelos.La serie de acciones de Mistral AI indican que está expandiendo activamente el mercado y está comprometida a tomar una posición de liderazgo en el campo de los modelos lingüísticos a gran escala. En el futuro, continuaremos prestando atención al desarrollo de Mistral AI y su desempeño en competencia con otros grandes modelos de lenguaje.