| Документация | Блог | Раздор | Дорожная карта |
Edgenchat, локальное приложение чата, основанное на ⚡edgen
⚡edgen позволяет использовать Genai в вашем приложении, полностью локально на устройствах вашего пользователя, бесплатно и с помощью данных . Это замена для открытия (он использует совместимый API), поддерживает различные функции, такие как генерация текста, речь в тексте и работает на Windows, Linux и MacOS.
Проверьте документацию
Data Private : вывод на устройстве означает, что данные пользователей никогда не оставляют свои устройства.
Scalable : все больше и больше пользователей? Нет необходимости увеличивать инфраструктуру облачных вычислений. Просто позвольте вашим пользователям использовать свое собственное оборудование.
Надежный : нет интернета, нет времени простоя, без ограничений по ставке, нет ключей API.
Бесплатно : он работает локально на аппаратном обеспечении, которым пользователь уже владеет.
Готовы начать собственное приложение Genai? Проверьте наши гиды!
⚡edgen Использование:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve использования:
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡EDGEN также поддерживает компиляцию и исполнение на графическом процессоре при строительстве из источника, через Vulkan, CUDA и Metal. Следующие функции груза включают GPU:
llama_vulkan - выполнить модели LLM с использованием Vulkan. Требуется вулкан SDK, который будет установлен.llama_cuda - выполнить модели LLM с использованием CUDA. Требуется установка инструментария CUDA.llama_metal - выполнить модели LLM с помощью металла.whisper_cuda - выполнить модели шепота с помощью CUDA. Требуется установка инструментария CUDA. Обратите внимание, что на данный момент llama_vulkan , llama_cuda и llama_metal не могут быть включены в одно и то же время.
Пример использования (здание из источника, вам нужно сначала установить предпосылки):
cargo run --features llama_vulkan --release -- serve
⚡edgen Architecture Обзор
Если вы не знаете, с чего начать, проверьте дорожную карту Эдгена! Прежде чем начать работать над чем-то, посмотрите, существует ли существующая проблема/pull-request. Зайдите в Discord, чтобы проверить с командой или посмотреть, кто -то уже справится с этим.
llama.cpp , whisper.cpp и ggml за то, что они отлично подходят для этого пространства.