| 문서 | 블로그 | 불화 | 로드맵 |
Edgenchat, ⚡edgen이 구동하는 로컬 채팅 앱
⚡edgen을 사용하면 앱에서 Genai를 사용자의 장치에서 완전히 로컬로 사용할 수 있으며 무료 및 데이터-불안감 으로 사용할 수 있습니다. OpenAI (A 호환 API를 사용)를 드롭 인 교체하고 텍스트 생성, 음성-텍스트와 같은 다양한 기능을 지원하며 Windows, Linux 및 MacOS에서 작동합니다.
문서를 확인하십시오
데이터 개인 : 기기 전 추론은 사용자의 데이터가 장치를 남기지 않는다는 것을 의미합니다.
확장 가능 : 점점 더 많은 사용자? 클라우드 컴퓨팅 인프라를 증가시킬 필요가 없습니다. 사용자가 자신의 하드웨어를 사용하도록하십시오.
신뢰할 수있는 : 인터넷 없음, 가동 중지 시간, 요금 제한 없음, API 키 없음.
무료 : 사용자가 이미 소유 한 하드웨어에서 로컬로 실행됩니다.
자신의 Genai 응용 프로그램을 시작할 준비가 되셨습니까? 우리 가이드를 확인하십시오!
Edgen 사용 :
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve 사용 :
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡edgen은 또한 소스에서 구축 할 때 Vulkan, Cuda 및 Metal을 통해 GPU의 편집 및 실행을 지원합니다. 다음화물 기능은 GPU를 활성화합니다.
llama_vulkan vulkan을 사용하여 LLM 모델을 실행합니다. Vulkan SDK를 설치해야합니다.llama_cuda CUDA를 사용하여 LLM 모델을 실행합니다. CUDA 툴킷을 설치해야합니다.llama_metal 금속을 사용하여 LLM 모델을 실행합니다.whisper_cuda Cuda를 사용하여 Whisper 모델을 실행하십시오. CUDA 툴킷을 설치해야합니다. 현재 llama_vulkan , llama_cuda 및 llama_metal 동시에 활성화 할 수 없습니다.
예제 사용 (소스에서 구축하면 먼저 전제 조건을 설치해야 함) :
cargo run --features llama_vulkan --release -- serve
⚡edgen 아키텍처 개요
어디서부터 시작 해야할지 모르면 Edgen의 로드맵을 확인하십시오! 작업을 시작하기 전에 기존 문제/풀 수감이 있는지 확인하십시오. 불화로 튀어 나와 팀에 확인하거나 누군가가 이미 다루고 있는지 확인하십시오.
llama.cpp , whisper.cpp 및 ggml 공간에 대한 훌륭한 입장점이되었습니다.