Llama-Node: Perpustakaan Node.js untuk Model Bahasa Besar

Gambar yang dihasilkan oleh difusi yang stabil.
Proyek ini sedang dalam tahap awal dan tidak siap produksi, kami tidak mengikuti versi semantik. API untuk NodeJs dapat berubah di masa depan, menggunakannya dengan hati -hati.
Ini adalah perpustakaan NodeJS untuk menyimpulkan model turunan Llama, RWKV atau Llama. Itu dibangun di atas LLM (awalnya Llama-RS), llama.cpp dan rwkv.cpp. Ini menggunakan NAPI-RS untuk pesan saluran antara utas Node.js dan Llama.
Llama.cpp Backend Model yang Didukung (dalam format GGML):
LLM (LLAMA-RS) Model yang Didukung Backend (dalam format GGML):
RWKV.CPP Backend Model yang Didukung (dalam format GGML):
Versi Node.js:> = 16
npm install llama-nodeInstal siapa pun dari cadangan inferensi (setidaknya satu)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppSilakan lihat bagaimana memulai dengan kompilasi manual pada panduan kontribusi kami
Harap baca dokumen di situs kami untuk memulai dengan kompilasi manual yang terkait dengan dukungan CUDA
Perpustakaan ini diterbitkan di bawah lisensi MIT/APACHE-2.0. Namun, kami sangat menyarankan Anda untuk mengutip pekerjaan kami/Ketergantungan kami bekerja jika Anda ingin menggunakan kembali kode dari perpustakaan ini.
Bergabunglah dengan komunitas Discord kami sekarang! Klik untuk Bergabung dengan Perselisihan Llama-Node