Mistral AI baru-baru ini merilis model bahasa besar Mixtral 8x7B berdasarkan model SMoE, yang memiliki kinerja sebanding dengan GPT-3.5 dan berkinerja baik dalam tugas-tugas seperti matematika, pembuatan kode, dan pemahaman membaca. Model ini memiliki kecepatan inferensi lebih cepat dan telah bersumber terbuka dengan versi Instruct di bawah lisensi Apache2.0. Langkah ini menandai langkah maju yang besar di bidang model bahasa besar open source, dan juga menandai tujuan ambisius Mistral AI untuk membuat model open source tingkat GPT-4 pada tahun 2024.
Mistral AI meluncurkan Mixtral 8x7B, yang didasarkan pada model SMoE dan memiliki kinerja yang sebanding dengan GPT-3.5. Model ini banyak digunakan dalam tugas-tugas seperti matematika, pembuatan kode, dan pemahaman membaca, dan kecepatan penalarannya lebih cepat. Mixtral8x7B dan Mixtral8x7B – Instruct bersumber terbuka di bawah lisensi Apache2.0. Mistral AI berencana untuk membuka model level GPT-4 open source pada tahun 2024, memimpin bidang model bahasa besar open source.Sumber terbuka Mixtral 8x7B menurunkan ambang masuk untuk model bahasa besar, menyediakan sumber daya berharga bagi pengembang dan peneliti, dan mendorong kemakmuran ekosistem model besar sumber terbuka. Perkembangan selanjutnya dan sumber terbuka GPT patut dinantikan -4 model tingkat.