LAMA-NODE: Node.js Library für Großsprachenmodell

Bild erzeugt durch stabile Diffusion.
Dieses Projekt befindet sich in einer frühen Phase und ist nicht bereit produziert, wir folgen nicht der semantischen Versionierung. Die API für NodeJs kann sich in Zukunft ändern, sie mit Vorsicht verwenden.
Dies ist eine NodeJS -Bibliothek für die Inferenzmodelle für Lama-, RWKV- oder Lama -abgeleitete Modelle. Es wurde auf LLM (ursprünglich Lama-Rs), lama.cpp und rwkv.cpp gebaut. Es verwendet NAPI-RS für Kanalmeldungen zwischen Node.js und Lama-Thread.
Lama.CPP Backend unterstützte Modelle (im GGML -Format):
LLM (LLAMA-RS) Backend unterstützte Modelle (im GGML-Format):
RWKV.CPP Backend unterstützte Modelle (im GGML -Format):
Node.js Version:> = 16
npm install llama-nodeInstallieren Sie jemanden der Inferenz -Backends (mindestens einen)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppWeitere Informationen finden Sie in unserem Beitragshandbuch, wie Sie mit manueller Zusammenstellung beginnen
Bitte lesen Sie das Dokument auf unserer Website, um mit manueller Zusammenstellung im Zusammenhang mit der CUDA -Unterstützung zu beginnen
Diese Bibliothek wurde unter MIT/Apache-2.0-Lizenz veröffentlicht. Wir empfehlen Ihnen jedoch dringend, unsere Arbeit/unsere Abhängigkeiten zu zitieren, wenn Sie den Code aus dieser Bibliothek wiederverwenden möchten.
Treten Sie jetzt unserer Discord -Community bei! Klicken Sie hier