| الوثائق | بلوق | خلاف | خريطة الطريق |
Edgenchat ، تطبيق دردشة محلي مدعوم من ⚡edgen
يتيح لك ⚡edgen استخدام Genai في تطبيقك ، محليًا تمامًا على أجهزة المستخدم الخاصة بك ، مجانًا وبتعويض البيانات . إنه بديل في Openai (يستخدم واجهة برمجة التطبيقات المتوافقة مع API) ، ويدعم وظائف مختلفة مثل توليد النصوص ، والخطاب إلى النص ، والأعمال على Windows و Linux و MacOS.
تحقق في الوثائق
البيانات الخاصة : الاستدلال على الجهاز يعني أن بيانات المستخدمين لا تترك أجهزتهم أبدًا.
قابلة للتطوير : المزيد والمزيد من المستخدمين؟ لا حاجة لزيادة البنية التحتية للحوسبة السحابية. فقط دع المستخدمين يستخدمون أجهزتهم الخاصة.
موثوقة : لا الإنترنت ، لا توقف ، لا حدود سعر ، لا مفاتيح واجهة برمجة التطبيقات.
مجانًا : يتم تشغيله محليًا على الأجهزة التي يمتلكها المستخدم بالفعل.
هل أنت مستعد لبدء تطبيق Genai الخاص بك؟ الخروج من أدلةنا!
استخدام ⚡edgen:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
استخدام edgen serve :
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
يدعم ⚡edgen أيضًا التجميع والتنفيذ على وحدة معالجة الرسومات ، عند البناء من المصدر ، من خلال Vulkan و Cuda والمعادن. تتيح ميزات الشحن التالية وحدة معالجة الرسومات:
llama_vulkan - تنفيذ نماذج LLM باستخدام Vulkan. يتطلب تثبيت SDK Vulkan.llama_cuda - تنفيذ نماذج LLM باستخدام CUDA. يتطلب تثبيت مجموعة أدوات CUDA.llama_metal - تنفيذ نماذج LLM باستخدام المعدن.whisper_cuda - تنفيذ نماذج الهمس باستخدام CUDA. يتطلب تثبيت مجموعة أدوات CUDA. لاحظ أنه في الوقت الحالي ، لا يمكن تمكين llama_vulkan و llama_cuda و llama_metal في نفس الوقت.
مثال على الاستخدام (بناء من المصدر ، تحتاج أولاً إلى تثبيت المتطلبات المسبقة):
cargo run --features llama_vulkan --release -- serve
⚡edgen نظرة عامة على الهندسة المعمارية
إذا كنت لا تعرف من أين تبدأ ، تحقق من خريطة طريق إدجن! قبل البدء في العمل على شيء ما ، تعرف على ما إذا كانت هناك مشكلة/سحرة موجودة. انطلق في Discord للتحقق من الفريق أو معرفة ما إذا كان شخص ما يعالجه بالفعل.
llama.cpp ، whisper.cpp ، و ggml لكونها نقطة الحصول على هذه المساحة ممتازة.