llama node
1.0.0
骆驼节点:大语模型的node.js库

图片由稳定扩散产生。
该项目正处于早期阶段,还没有准备好生产,我们不遵循语义版本。 NODEJS的API将来可能会发生变化,请谨慎使用。
这是一个用于推断Llama,RWKV或Llama衍生模型的Nodejs库。它建于LLM(最初是Llama-rs),Llama.cpp和rwkv.cpp的顶部。它使用napi-rs来进行node.js和Llama线程之间的频道消息。
Llama.cpp后端支持的模型(GGML格式):
LLM(LLAMA-RS)后端支持模型(以GGML格式):
RWKV.CPP后端支持的模型(以GGML格式):
node.js版本:> = 16
npm install llama-node安装任何推理后端(至少一个)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cpp请查看如何从我们的贡献指南中的手动编译开始
请阅读我们网站上的文档,以开始使用与CUDA支持有关的手册编译
该库是根据MIT/Apache-2.0许可发布的。但是,如果您想从此库中重新使用代码,我们强烈建议您引用我们的工作/依赖项工作。
立即加入我们的Discord社区!点击加入骆驼节点不和谐