Llama-Node: Библиотека Node.js для большой языковой модели

Изображение, сгенерированное стабильной диффузией.
Этот проект находится на ранней стадии и не готов к производству, мы не следуем семантическим версиям. API для Nodejs может измениться в будущем, использовать его с осторожностью.
Это библиотека Nodejs для вывода моделей Llama, RWKV или Llama. Он был построен на вершине LLM (первоначально Llama-RS), Llama.cpp и Rwkv.cpp. Он использует NAPI-RS для сообщений каналов между Node.js и потоком ламы.
Llama.cpp Бэкэнд -поддерживаемые модели (в формате GGML):
LLM (LLAMA-RS) Бэкэнд-поддерживаемые модели (в формате GGML):
RWKV.CPP -поддерживаемые модели (в формате GGML):
Node.js версия:> = 16
npm install llama-nodeУстановите любого из выводов Backends (по крайней мере, один)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppПожалуйста, посмотрите, как начать с ручного компиляции в нашем руководстве по взносу
Пожалуйста, прочитайте документ на нашем сайте, чтобы начать работу с ручной компиляцией, связанной с поддержкой CUDA
Эта библиотека была опубликована по лицензии MIT/Apache-2.0. Тем не менее, мы настоятельно рекомендуем вам процитировать нашу работу/нашу работу, если вы хотите повторно использовать код из этой библиотеки.
Присоединяйтесь к нашему сообществу Discord прямо сейчас! Нажмите, чтобы присоединиться