LLAMA-NODE: Node.js Bibliothèque pour un modèle de grande langue

Image générée par diffusion stable.
Ce projet est à un stade précoce et n'est pas prêt à la production, nous ne suivons pas le versioning sémantique. L'API pour NodeJS peut changer à l'avenir, l'utiliser avec prudence.
Il s'agit d'une bibliothèque NodeJS pour les modèles dérivés de la lama, RWKV ou LLAMA. Il a été construit au-dessus de LLM (à l'origine Llama-RS), llama.cpp et rwkv.cpp. Il utilise Napi-Rs pour les messages de canal entre Node.js et le thread LLAMA.
LLAMA.CPP Backend Prisedate Models (au format GGML):
LLM (LLAMA-RS) Modèles pris en charge backend (au format GGML):
Modèles pris en charge Rwkv.CPP Backend (au format GGML):
Node.js Version:> = 16
npm install llama-nodeInstallez n'importe qui des backends d'inférence (au moins un)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppVeuillez voir comment commencer par la compilation manuelle sur notre guide de contribution
Veuillez lire le document sur notre site pour commencer avec la compilation manuelle liée au support CUDA
Cette bibliothèque a été publiée sous la licence MIT / APACHE-2.0. Cependant, nous vous recommandons fortement de citer nos travaux / nos dépendances fonctionnent si vous souhaitez réutiliser le code de cette bibliothèque.
Rejoignez notre communauté Discord maintenant! Cliquez pour rejoindre la discorde de nœud lama