edgen
v0.1.4
|文檔|博客|不和諧|路線圖|
EDGENCHAT,由⚡Edgen提供動力的本地聊天應用
⚡EDGEN可讓您免費在用戶的設備上本地使用Genai,並免費提供數據私人。這是OpenAI(使用A兼容API)的替換,它支持文本生成,語音到文本以及Windows,Linux和MacOS上的作品等各種功能。
檢查文檔
數據私有:啟用推理意味著用戶的數據永遠不會離開其設備。
可擴展:越來越多的用戶?無需增加雲計算基礎架構。只需讓您的用戶使用自己的硬件即可。
可靠:沒有互聯網,沒有停機時間,沒有費率限制,沒有API密鑰。
免費:它在用戶已經擁有的硬件上本地運行。
準備啟動自己的Genai應用程序了嗎?結帳我們的指南!
⚡Edgen用法:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve用法:
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡EDGEN還通過Vulkan,Cuda和Metal構建時,還支持GPU上的彙編和執行。以下貨物功能使GPU:
llama_vulkan使用Vulkan執行LLM型號。需要安裝Vulkan SDK。llama_cuda使用CUDA執行LLM型號。需要安裝一個CUDA工具包。llama_metal使用金屬執行LLM型號。whisper_cuda使用cuda執行耳語模型。需要安裝一個CUDA工具包。請注意,目前無法同時啟用llama_vulkan , llama_cuda和llama_metal 。
示例用法(從源構建,您需要首先安裝先決條件):
cargo run --features llama_vulkan --release -- serve
⚡EDGEN架構概述
如果您不知道從哪裡開始,請查看Edgen的路線圖!在開始研究某件事之前,請查看是否存在現有問題/拉普雷斯。彈出不和諧與團隊聯繫,或者查看某人是否已經在解決這個問題。
llama.cpp , whisper.cpp和ggml是這個空間的出色點。