llama node
1.0.0
駱駝節點:大語模型的node.js庫

圖片由穩定擴散產生。
該項目正處於早期階段,還沒有準備好生產,我們不遵循語義版本。 NODEJS的API將來可能會發生變化,請謹慎使用。
這是一個用於推斷Llama,RWKV或Llama衍生模型的Nodejs庫。它建於LLM(最初是Llama-rs),Llama.cpp和rwkv.cpp的頂部。它使用napi-rs來進行node.js和Llama線程之間的頻道消息。
Llama.cpp後端支持的模型(GGML格式):
LLM(LLAMA-RS)後端支持模型(以GGML格式):
RWKV.CPP後端支持的模型(以GGML格式):
node.js版本:> = 16
npm install llama-node安裝任何推理後端(至少一個)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cpp請查看如何從我們的貢獻指南中的手動編譯開始
請閱讀我們網站上的文檔,以開始使用與CUDA支持有關的手冊編譯
該庫是根據MIT/Apache-2.0許可發布的。但是,如果您想從此庫中重新使用代碼,我們強烈建議您引用我們的工作/依賴項工作。
立即加入我們的Discord社區!點擊加入駱駝節點不和諧