Llama-Node: Node.js Library لنموذج اللغة الكبيرة

الصورة الناتجة عن الانتشار المستقر.
هذا المشروع في مرحلة مبكرة وليس جاهزًا للإنتاج ، ولا نتبع النسخة الدلالية. قد تتغير API لـ Nodejs في المستقبل ، وتستخدمها بحذر.
هذه مكتبة NodeJS لاستدلال Llama أو RWKV أو Llama المشتقة. تم بناؤه على قمة LLM (في الأصل LAMA-RS) ، LLAMA.CPP و RWKV.CPP. يستخدم NAPI-RS لرسائل القناة بين NODE.JS و LLAMA.
Llama.cpp الخلفية المدعومة من النماذج (بتنسيق GGML):
LLM (LLAMA-RS) النماذج المدعومة من الخلفية (بتنسيق GGML):
RWKV.CPP الخلفية المدعومة من النماذج (بتنسيق GGML):
إصدار Node.js:> = 16
npm install llama-nodeتثبيت أي شخص من الخلفية الاستدلال (واحد على الأقل)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppيرجى الاطلاع على كيفية البدء مع التجميع اليدوي على دليل المساهمة لدينا
يرجى قراءة المستند على موقعنا للبدء في التجميع اليدوي المتعلق بدعم CUDA
تم نشر هذه المكتبة بموجب ترخيص MIT/Apache-2.0. ومع ذلك ، فإننا نوصيك بشدة بالاستشهاد بعملنا/عملنا في عملنا إذا كنت ترغب في إعادة استخدام الرمز من هذه المكتبة.
انضم إلى مجتمع الخلاف الآن! انقر للانضمام إلى Discord Llama-Ude