| Documentation | Blog | Discorde | Feuille de route |
EdGenchat, une application de chat locale propulsée par ⚡edgen
⚡Edgen vous permet d'utiliser Genai dans votre application, complètement localement sur les appareils de votre utilisateur, gratuitement et avec la privilège de données . Il est un remplacement d'allumage pour OpenAI (il utilise l'API A compatible), prend en charge diverses fonctions comme la génération de texte, la parole en texte et fonctionne sur Windows, Linux et MacOS.
Vérifier la documentation
Données privées : l'inférence à disposition signifie que les données des utilisateurs ne laissent jamais leurs appareils.
Stumable : de plus en plus d'utilisateurs? Pas besoin d'incrémenter l'infrastructure du cloud computing. Laissez simplement vos utilisateurs utiliser leur propre matériel.
Fiable : pas Internet, pas de temps d'arrêt, pas de limites de taux, pas de clés API.
GRATUIT : il s'exécute localement sur le matériel que l'utilisateur possède déjà.
Prêt à démarrer votre propre application Genai? Découvrez nos guides!
⚡Edgen Utilisation:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
Utilisation edgen serve :
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡Edgen prend également en charge la compilation et l'exécution sur un GPU, lors de la construction de Source, via Vulkan, Cuda et Metal. Les fonctionnalités de cargaison suivantes permettent le GPU:
llama_vulkan - EXÉCUTER les modèles LLM à l'aide de Vulkan. Nécessite l'installation d'un SDK Vulkan.llama_cuda - EXÉCUTER LLM Modèles à l'aide de CUDA. Nécessite une boîte à outils CUDA à installer.llama_metal - EXÉCUTER les modèles LLM utilisant du métal.whisper_cuda - Exécutez des modèles Whisper à l'aide de CUDA. Nécessite une boîte à outils CUDA à installer. Notez que, pour le moment, llama_vulkan , llama_cuda et llama_metal ne peuvent pas être activés en même temps.
Exemple d'utilisation (construction de Source, vous devez d'abord installer les conditions préalables):
cargo run --features llama_vulkan --release -- serve
⚡EDGEN Architecture Présentation
Si vous ne savez pas par où commencer, consultez la feuille de route d'Edgen! Avant de commencer à travailler sur quelque chose, voyez s'il y a un problème / une demande de traction existant. Appartez dans Discord pour vérifier avec l'équipe ou voir si quelqu'un s'attaque déjà.
llama.cpp , whisper.cpp et ggml pour être un excellent point de mise à pied pour cet espace.