| Dokumentasi | Blog | Perselisihan | Peta jalan |
Edgenchat, aplikasi obrolan lokal yang ditenagai oleh ⚡edgen
⚡EdGen memungkinkan Anda menggunakan Genai di aplikasi Anda, sepenuhnya secara lokal di perangkat pengguna Anda, gratis dan dengan privasi data . Ini adalah penggantian drop-in untuk OpenAI (menggunakan API A yang kompatibel), mendukung berbagai fungsi seperti pembuatan teks, ucapan-ke-teks dan bekerja di Windows, Linux, dan MacOS.
Periksa dokumentasi
Data Private : Inferensi di perangkat berarti data pengguna tidak pernah meninggalkan perangkat mereka.
SCalable : Semakin banyak pengguna? Tidak perlu meningkatkan infrastruktur komputasi awan. Biarkan saja pengguna Anda menggunakan perangkat keras mereka sendiri.
Dapat Diandalkan : Tidak ada internet, tidak ada downtime, tidak ada batasan tarif, tidak ada kunci API.
GRATIS : Ini berjalan secara lokal pada perangkat keras yang sudah dimiliki pengguna.
Siap memulai aplikasi Genai Anda sendiri? Lihat pemandu kami!
⚡Edgen Usage:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve penggunaan:
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡Edgen juga mendukung kompilasi dan eksekusi pada GPU, ketika membangun dari sumber, melalui vulkan, cuda dan logam. Fitur kargo berikut memungkinkan GPU:
llama_vulkan - Jalankan model LLM menggunakan Vulkan. Membutuhkan SDK Vulkan untuk diinstal.llama_cuda - Jalankan model LLM menggunakan CUDA. Membutuhkan toolkit CUDA untuk diinstal.llama_metal - Jalankan model LLM menggunakan logam.whisper_cuda - Jalankan Model Whisper menggunakan CUDA. Membutuhkan toolkit CUDA untuk diinstal. Perhatikan bahwa, saat ini, llama_vulkan , llama_cuda dan llama_metal tidak dapat diaktifkan pada saat yang sama.
Contoh Penggunaan (Bangunan dari Sumber, Anda harus terlebih dahulu menginstal prasyarat):
cargo run --features llama_vulkan --release -- serve
Tinjauan Arsitektur Generasi
Jika Anda tidak tahu harus mulai dari mana, periksa peta jalan Edgen! Sebelum Anda mulai mengerjakan sesuatu, lihat apakah ada masalah/tarik-permintaan yang ada. Masukkan ke dalam perselisihan untuk memeriksa dengan tim atau melihat apakah seseorang sudah menanganinya.
llama.cpp , whisper.cpp , dan ggml karena menjadi titik yang sangat baik untuk ruang ini.