Nó de lhama: biblioteca Node.js para Modelo de Linguagem Grande

Imagem gerada por difusão estável.
Este projeto está em um estágio inicial e não está pronto para a produção, não seguimos o versão semântica. A API para NodeJS pode mudar no futuro, use -a com cautela.
Esta é uma biblioteca NodeJS para inferir modelos derivados de llama, RWKV ou llama. Foi construído sobre o LLM (originalmente llama-rs), llama.cpp e rwkv.cpp. Ele usa o NAPI-RS para mensagens de canal entre o Node.js e o lhama thread.
Modelos suportados por back -end llama.cpp (no formato GGML):
LLM (LLAMA-RS) Modelos suportados por back-end (no formato GGML):
RWKV.CPP MODELOS SUPORTADOS DE Backend (no formato GGML):
Node.js versão:> = 16
npm install llama-nodeInstale qualquer um dos back -ends de inferência (pelo menos um)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppPor favor, veja como começar com a compilação manual em nosso guia de contribuição
Leia o documento em nosso site para começar com a compilação manual relacionada ao suporte CUDA
Esta biblioteca foi publicada na licença MIT/Apache-2.0. No entanto, recomendamos fortemente que você cite nosso trabalho/nossas dependências, se desejar reutilizar o código desta biblioteca.
Junte -se à nossa comunidade Discord agora! Clique para se juntar à discórdia do nó de lhama