| Dokumentation | Blog | Zwietracht | Roadmap |
Edgenchat, eine lokale Chat -App, die von ⚡edgen betrieben wird
Mit ⚡Dgen können Sie Genai in Ihrer App, vollständig lokal auf den Geräten Ihres Benutzers, kostenlos und mit Daten im Bereich verwenden. Es ist ein Drop-In-Ersatz für OpenAI (es verwendet eine kompatible API), unterstützt verschiedene Funktionen wie Textgenerierung, Sprache zu Text und funktioniert unter Windows, Linux und MacOS.
Überprüfen Sie die Dokumentation
Daten privat : Inferenz für das Gerät bedeutet, dass die Daten der Benutzer ihre Geräte niemals verlassen.
Skalierbar : Immer mehr Benutzer? Es ist nicht erforderlich, die Cloud -Computing -Infrastruktur zu erhöhen. Lassen Sie Ihre Benutzer einfach ihre eigene Hardware verwenden.
Zuverlässig : Kein Internet, keine Ausfallzeit, keine Tarifbegrenzungen, keine API -Schlüssel.
KOSTENLOS : Es wird lokal auf Hardware ausgeführt, die der Benutzer bereits besitzt.
Bereit, eine eigene Genai -Anwendung zu starten? Checkout in unseren Führern!
⚡edgen -Verwendung:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
Nutzung edgen serve :
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡Edgen unterstützt auch Zusammenstellung und Ausführung auf einer GPU, wenn sie aus der Quelle über Vulkan, Cuda und Metall baut. Die folgenden Frachtmerkmale ermöglichen die GPU:
llama_vulkan - LLM -Modelle mit Vulkan ausführen. Erfordert ein Vulkan -SDK installiert.llama_cuda - LLM -Modelle mit CUDA ausführen. Benötigt ein CUDA -Toolkit.llama_metal - Führen Sie LLM -Modelle mit Metall aus.whisper_cuda - Führen Sie Whisper -Modelle mit CUDA aus. Benötigt ein CUDA -Toolkit. Beachten Sie, dass llama_vulkan , llama_cuda und llama_metal im Moment nicht gleichzeitig aktiviert werden können.
Beispielnutzung (Gebäude aus der Quelle, Sie müssen zuerst die Voraussetzungen installieren):
cargo run --features llama_vulkan --release -- serve
⚡Dgen Architekturübersicht
Wenn Sie nicht wissen, wo Sie anfangen sollen, überprüfen Sie die Roadmap von Edgen! Bevor Sie an etwas arbeiten, prüfen Sie, ob es ein vorhandenes Problem/eine Pull-Request gibt. Gehen Sie in Discord, um sich beim Team zu erkundigen oder zu sehen, ob jemand es bereits angeht.
llama.cpp , whisper.cpp und ggml für einen hervorragenden Punkt für diesen Raum.