| Documentación | Blog | Discordia | Hoja de ruta |
Edgenchat, una aplicación de chat local impulsada por ⚡Edgen
⚡Edgen le permite usar Genai en su aplicación, completamente localmente en los dispositivos de su usuario, de forma gratuita y con la privacidad de datos . Es un reemplazo de entrega de OpenAI (utiliza una API compatible), admite varias funciones como generación de texto, voz a texto y funciona en Windows, Linux y macOS.
Verifique la documentación
Datos privados : la inferencia en el dispositivo significa que los datos de los usuarios nunca dejan sus dispositivos.
Escalable : ¿Más y más usuarios? No hay necesidad de incrementar la infraestructura de computación en la nube. Solo deje que sus usuarios usen su propio hardware.
Confiable : sin internet, sin tiempo de inactividad, sin límites de tasa, sin claves API.
GRATIS : se ejecuta localmente en el hardware que el usuario ya posee.
¿Listo para comenzar su propia aplicación Genai? ¡Vea nuestras guías!
⚡Edgen Uso:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve USAGE:
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡Edgen también admite la compilación y la ejecución en una GPU, cuando se construye desde la fuente, a través de Vulkan, Cuda y Metal. Las siguientes características de carga habilitan la GPU:
llama_vulkan - Ejecutar modelos LLM usando Vulkan. Requiere que se instale un SDK Vulkan.llama_cuda - Ejecutar modelos LLM usando CUDA. Requiere que se instale un kit de herramientas CUDA.llama_metal - Ejecutar modelos LLM usando metal.whisper_cuda - Ejecutar modelos Whisper usando CUDA. Requiere que se instale un kit de herramientas CUDA. Tenga en cuenta que, por el momento, llama_vulkan , llama_cuda y llama_metal no se pueden habilitar al mismo tiempo.
Ejemplo de uso (edificio desde la fuente, primero debe instalar los requisitos previos):
cargo run --features llama_vulkan --release -- serve
⚡Encantario de la arquitectura de EDGEN
Si no sabe por dónde comenzar, ¡revise la hoja de ruta de Edgen! Antes de comenzar a trabajar en algo, vea si hay un problema/solicitud de extracción existente. Pase en Discord para consultar con el equipo o ver si alguien ya lo está abordando.
llama.cpp , whisper.cpp y ggml por ser un excelente punto para este espacio.