Nodo Llama: Biblioteca Node.js para un modelo de idioma grande

Imagen generada por difusión estable.
Este proyecto está en una etapa temprana y no está listo para la producción, no seguimos el versiones semánticas. La API para NodeJ puede cambiar en el futuro, usarla con precaución.
Esta es una biblioteca NodeJS para Inferencing Llama, RWKV o modelos derivados de LLAMA. Fue construido sobre LLM (originalmente Llama-RS), Llama.CPP y RWKV.CPP. Utiliza NAPI-RS para mensajes de canal entre Node.js y hilo de llama.
Llama.CPP Backend Modelos compatibles (en formato GGML):
LLM (LLAMA-RS) Backend modelos compatibles (en formato GGML):
RWKV.CPP Backend Modelos compatibles (en formato GGML):
Versión de node.js:> = 16
npm install llama-nodeInstale cualquier persona de los backends de inferencia (al menos uno)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppConsulte cómo comenzar con la compilación manual en nuestra guía de contribución
Lea el documento en nuestro sitio para comenzar con la compilación manual relacionada con el soporte CUDA
Esta biblioteca fue publicada bajo la licencia MIT/Apache-2.0. Sin embargo, le recomendamos encarecidamente que cite nuestro trabajo/nuestro trabajo de dependencias si desea reutilizar el código de esta biblioteca.
¡Únete a nuestra comunidad de Discord ahora! Haga clic para unirse a Discord nodo de Llama