llama node
1.0.0
llama-node:大規模な言語モデル用のnode.jsライブラリ

安定した拡散によって生成された画像。
このプロジェクトは初期段階であり、生産の準備ができていません。セマンティックバージョンのフォローには従いません。 nodejsのAPIは将来変更される可能性があります。慎重に使用してください。
これは、llama、rwkv、またはllama派生モデルを推論するためのNodejsライブラリです。 LLM(元々はLlama-Rs)、llama.cpp、rwkv.cppの上に構築されました。 node.jsとllamaスレッド間のチャネルメッセージにNAPI-RSを使用します。
llama.cppバックエンドサポートモデル(GGML形式):
LLM(LLAMA-RS)バックエンドサポートモデル(GGML形式):
RWKV.CPPバックエンドサポートモデル(GGML形式):
node.jsバージョン:> = 16
npm install llama-node推論バックエンドの誰かをインストールします(少なくとも1つ)
npm install @llama-node/llama-cppnpm install @llama-node/corenpm install @llama-node/rwkv-cpp私たちの貢献ガイドで手動編集から始める方法をご覧ください
CUDAサポートに関連する手動のコンピレーションを始めるために、当社のサイトのドキュメントを読んでください
このライブラリは、MIT/Apache-2.0ライセンスの下で公開されました。ただし、このライブラリからコードを再利用する場合は、作業/依存関係を引用することを強くお勧めします。
今すぐ私たちのDiscordコミュニティに参加してください!クリックしてLlama-Node Discordに参加します