Hugging Face telah meluncurkan model bahasa kompak baru, SmollM2, yang merupakan terobosan yang menarik. SmollM2 memiliki tiga versi ukuran parameter yang berbeda yang memberikan kinerja yang kuat bahkan pada perangkat yang dibatasi sumber daya, yang sangat penting untuk komputasi tepi dan aplikasi perangkat seluler. Ini unggul dalam berbagai tolok ukur, melampaui model serupa, menunjukkan keunggulannya dalam penalaran ilmiah dan tugas -tugas akal sehat. Lisensi Open Source dan Apache 2.0 SmollM2 juga memudahkan untuk diakses dan diterapkan.
Hugging Face hari ini merilis SmollM2, serangkaian model bahasa kompak baru yang mencapai kinerja yang mengesankan sambil membutuhkan sumber daya komputasi yang jauh lebih sedikit daripada model besar. Model baru ini dirilis di bawah lisensi Apache 2.0 dan hadir dalam tiga ukuran - parameter 135m, 360m dan 1.7B - cocok untuk penyebaran pada smartphone dan perangkat tepi lainnya dengan daya dan memori pemrosesan yang terbatas.

Model SmollM2-1B mengungguli model meta llama1b dalam beberapa tolok ukur utama, terutama dalam penalaran ilmiah dan tugas-tugas akal sehat. Model ini mengungguli model yang bersaing besar pada sebagian besar tolok ukur kognitif, menggunakan kombinasi dataset yang beragam termasuk Fineweb-EdU dan kumpulan data matematika dan pengkodean khusus.
Peluncuran SmollM2 datang pada saat kritis ketika industri AI berjuang untuk mengatasi kebutuhan komputasi untuk menjalankan model bahasa besar (LLM). Sementara perusahaan seperti Openai dan Anthropic terus mendorong batas ukuran model, ada peningkatan pengakuan akan kebutuhan untuk AI yang efisien dan ringan yang dapat berjalan secara lokal pada perangkat.

SmollM2 menawarkan pendekatan yang berbeda untuk membawa kemampuan AI yang kuat langsung ke perangkat pribadi, menunjuk ke masa depan di mana lebih banyak pengguna dan perusahaan dapat menggunakan alat AI canggih, bukan hanya raksasa teknologi dengan pusat data yang sangat besar. Model-model ini mendukung berbagai aplikasi, termasuk penulisan ulang teks, ringkasan, dan panggilan fungsi, cocok untuk penyebaran dalam skenario di mana pembatasan privasi, latensi, atau koneksi membuat solusi AI berbasis cloud tidak praktis.
Sementara model yang lebih kecil ini masih memiliki keterbatasan, mereka mewakili bagian dari tren luas dalam model AI yang lebih efisien. Rilis SmollM2 menunjukkan bahwa masa depan kecerdasan buatan mungkin tidak hanya milik model yang lebih besar, tetapi juga untuk arsitektur yang lebih efisien yang dapat memberikan kinerja yang kuat dengan sumber daya yang lebih sedikit.
Munculnya SmollM2 telah membuka kemungkinan baru untuk aplikasi AI ringan, menunjukkan bahwa teknologi AI akan lebih banyak digunakan dalam berbagai perangkat dan skenario, membawa pengguna pengalaman yang lebih nyaman dan efisien. Fitur open source -nya juga telah mempromosikan pengembangan dan inovasi lebih lanjut dari komunitas AI. Di masa depan, kami diharapkan untuk melihat model AI yang lebih efisien dan kompak muncul, mempromosikan mempopulerkan dan kemajuan teknologi AI.