llama node
1.0.0
llama-node : 큰 언어 모델을위한 node.js 라이브러리

안정적인 확산으로 생성 된 그림.
이 프로젝트는 초기 단계에 있으며 생산 준비가되어 있지 않으며 시맨틱 버전을 따르지 않습니다. NODEJS 용 API는 향후 변경 될 수 있으며주의해서 사용할 수 있습니다.
이것은 llama, rwkv 또는 llama 파생 모델을 추론하기위한 Nodejs 라이브러리입니다. LLM (원래 LLAMA-RS), LLAMA.CPP 및 RWKV.CPP 위에 제작되었습니다. node.js와 llama 스레드 사이의 채널 메시지에 NAPI-R을 사용합니다.
llama.cpp backend 지원 된 모델 (GGML 형식) :
LLM (LLAMA-RS) 백엔드 지원 모델 (GGML 형식) :
rwkv.cpp 백엔드 지원 모델 (GGML 형식) :
node.js 버전 :> = 16
npm install llama-node추론 백엔드를 설치하십시오 (최소 1 개)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cpp기여 가이드에서 수동 편집으로 시작하는 방법을 참조하십시오.
CUDA 지원과 관련된 수동 편집을 시작하려면 사이트의 문서를 읽으십시오.
이 라이브러리는 MIT/Apache-2.0 라이센스에 따라 게시되었습니다. 그러나이 라이브러리에서 코드를 재사용하려면 업무/의존성 작업을 인용하는 것이 좋습니다.
지금 우리의 불화 커뮤니티에 가입하십시오! Llama-Node Discord에 가입하려면 클릭하십시오