llama-node: library node.js สำหรับรูปแบบภาษาขนาดใหญ่

ภาพที่สร้างขึ้นโดยการแพร่กระจายที่มั่นคง
โครงการนี้อยู่ในช่วงเริ่มต้นและยังไม่พร้อมการผลิตเราไม่ปฏิบัติตามเวอร์ชันความหมาย API สำหรับ nodejs อาจเปลี่ยนแปลงในอนาคตใช้ด้วยความระมัดระวัง
นี่คือไลบรารี NodeJS สำหรับการอนุมาน LLAMA, RWKV หรือ LLAMA ที่ได้มาจากโมเดล มันถูกสร้างขึ้นที่ด้านบนของ LLM (เดิมที LLAMA-RS), llama.cpp และ rwkv.cpp มันใช้ napi-rs สำหรับข้อความช่องระหว่าง node.js และเธรด llama
LLAMA.CPP แบ็กเอนด์รุ่นที่รองรับ (ในรูปแบบ GGML):
LLM (LLAMA-RS) รุ่นแบ็กเอนด์ที่รองรับ (ในรูปแบบ GGML):
RWKV.CPP แบ็กเอนด์รุ่นรองรับ (ในรูปแบบ GGML):
node.js เวอร์ชัน:> = 16
npm install llama-nodeติดตั้งแบ็กเอนด์การอนุมานทุกคน (อย่างน้อยหนึ่ง)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cppโปรดดูวิธีเริ่มต้นด้วยการรวบรวมด้วยตนเองในคู่มือการบริจาคของเรา
โปรดอ่านเอกสารบนเว็บไซต์ของเราเพื่อเริ่มต้นด้วยการรวบรวมด้วยตนเองที่เกี่ยวข้องกับการสนับสนุน CUDA
ห้องสมุดนี้ได้รับการเผยแพร่ภายใต้ใบอนุญาต MIT/Apache-2.0 อย่างไรก็ตามเราขอแนะนำให้คุณอ้างถึงการทำงานของเรา/การพึ่งพาของเราทำงานหากคุณต้องการนำรหัสกลับมาใช้ใหม่จากไลบรารีนี้
เข้าร่วมชุมชน Discord ของเราตอนนี้! คลิกเพื่อเข้าร่วม Llama-Node Discord