|ドキュメント|ブログ|不和|ロードマップ|
Edgenchat、edgenを搭載したローカルチャットアプリ
edgenでは、アプリでGenaiを使用して、ユーザーのデバイスで完全にローカルで、無料でデータプリバシーを使用できます。これは、OpenAIのドロップイン交換(A互換性のあるAPIを使用)であり、テキスト生成、音声からテキスト、Windows、Linux、MacOの作業などのさまざまな機能をサポートしています。
ドキュメントを確認してください
データプライベート:デバイス上の推論は、ユーザーのデータがデバイスを離れることはないことを意味します。
スケーラブル:ますます多くのユーザー?クラウドコンピューティングインフラストラクチャをインクリメントする必要はありません。ユーザーに独自のハードウェアを使用させてください。
信頼性:インターネット、ダウンタイム、レート制限、APIキーなし。
無料:ユーザーがすでに所有しているハードウェアでローカルに実行されます。
独自のGenaiアプリケーションを開始する準備はできましたか?ガイドをチェックアウトしてください!
edgenの使用法:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve :
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
Edgenは、Vulkan、Cuda、Metalを介して、ソースから構築するときに、GPUでの編集と実行もサポートしています。次の貨物機能により、GPUが可能になります。
llama_vulkan Vulkanを使用してLLMモデルを実行します。 Vulkan SDKをインストールする必要があります。llama_cuda -cudaを使用してLLMモデルを実行します。 CUDAツールキットをインストールする必要があります。llama_metal金属を使用してLLMモデルを実行します。whisper_cuda cudaを使用してささやきモデルを実行します。 CUDAツールキットをインストールする必要があります。現時点では、 llama_vulkan 、 llama_cuda 、 llama_metal同時に有効にすることはできないことに注意してください。
使用法の例(ソースからの構築、最初に前提条件をインストールする必要があります):
cargo run --features llama_vulkan --release -- serve
edgenアーキテクチャの概要
どこから始めればよいかわからない場合は、Edgenのロードマップを確認してください!何かに取り組み始める前に、既存の問題/Pull-Requestがあるかどうかを確認してください。不一致に飛び込んでチームに確認するか、誰かがすでにそれに取り組んでいるかどうかを確認してください。
llama.cpp 、 whisper.cpp 、およびggml 、このスペースの優れた獲得ポイントであるためです。