edgen
v0.1.4
|文档|博客|不和谐|路线图|
EDGENCHAT,由⚡Edgen提供动力的本地聊天应用
⚡EDGEN可让您免费在用户的设备上本地使用Genai,并免费提供数据私人。这是OpenAI(使用A兼容API)的替换,它支持文本生成,语音到文本以及Windows,Linux和MacOS上的作品等各种功能。
检查文档
数据私有:启用推理意味着用户的数据永远不会离开其设备。
可扩展:越来越多的用户?无需增加云计算基础架构。只需让您的用户使用自己的硬件即可。
可靠:没有互联网,没有停机时间,没有费率限制,没有API密钥。
免费:它在用户已经拥有的硬件上本地运行。
准备启动自己的Genai应用程序了吗?结帐我们的指南!
⚡Edgen用法:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve用法:
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡EDGEN还通过Vulkan,Cuda和Metal构建时,还支持GPU上的汇编和执行。以下货物功能使GPU:
llama_vulkan使用Vulkan执行LLM型号。需要安装Vulkan SDK。llama_cuda使用CUDA执行LLM型号。需要安装一个CUDA工具包。llama_metal使用金属执行LLM型号。whisper_cuda使用cuda执行耳语模型。需要安装一个CUDA工具包。请注意,目前无法同时启用llama_vulkan , llama_cuda和llama_metal 。
示例用法(从源构建,您需要首先安装先决条件):
cargo run --features llama_vulkan --release -- serve
⚡EDGEN架构概述
如果您不知道从哪里开始,请查看Edgen的路线图!在开始研究某件事之前,请查看是否存在现有问题/拉普雷斯。弹出不和谐与团队联系,或者查看某人是否已经在解决该团队。
llama.cpp , whisper.cpp和ggml是这个空间的出色点。