В последнее время Mistral AI часто делает ходы. На мероприятии Cerebral Valley компания выпустила крупное обновление базовой модели Mistral7B v0.2. Модель теперь поддерживает контекст 32K, отменила скользящее окно и установила параметр Rope Theta на 1e6. Что еще более примечательно, так это то, что Mistral AI сотрудничал с Microsoft и потратил 16 миллионов долларов США на выпуск крупномасштабной языковой модели Mistral Large, которая напрямую сравнивала GPT-4, демонстрируя свою сильную конкурентоспособность и амбициозные цели развития в области крупномасштабных вычислений. языковые модели. Это указывает на то, что конкуренция в сфере ИИ в будущем станет более интенсивной.
Mistral AI недавно открыл исходный код базовой модели Mistral7B v0.2, анонсированной на мероприятии Cerebral Valley. После обновления он поддерживает контекст 32 КБ, отменяет скользящее окно и устанавливает Rope Theta на 1e6. Сотрудничал с Microsoft и инвестировал 16 миллионов долларов США в выпуск модели Mistral Large, напрямую конкурирующей с GPT-4. Mistral AI, который продолжает развиваться, стремится превзойти традиционных конкурентов и выпустить новые модели.Ряд действий Mistral AI свидетельствует о том, что он активно расширяет рынок и стремится занять лидирующие позиции в области крупномасштабных языковых моделей. В будущем мы продолжим уделять внимание развитию Mistral AI и его эффективности в конкуренции с другими крупномасштабными языковыми моделями.