- เอกสาร บล็อก | ความไม่ลงรอยกัน ROADMAP
Edgenchat แอพแชทในท้องถิ่นขับเคลื่อนโดย⚡edgen
⚡edgenช่วยให้คุณใช้ Genai ในแอพของคุณ ได้ อย่างสมบูรณ์ในอุปกรณ์ของผู้ใช้ของคุณ ฟรี และด้วย ความพร้อมด้านข้อมูล เป็นการแทนที่แบบเลื่อนลงสำหรับ OpenAI (ใช้ API ที่เข้ากันได้) รองรับฟังก์ชั่นต่าง ๆ เช่นการสร้างข้อความการพูดเป็นข้อความและทำงานบน Windows, Linux และ MacOS
ตรวจสอบเอกสาร
Data Private : การอนุมานอย่างต่อเนื่องหมายถึง ข้อมูลของผู้ใช้ ไม่เคยออกจากอุปกรณ์
ปรับขนาดได้ : ผู้ใช้มากขึ้นเรื่อย ๆ ? ไม่จำเป็นต้องเพิ่มโครงสร้างพื้นฐานการประมวลผลแบบคลาวด์ เพียงแค่ให้ผู้ใช้ของคุณใช้ฮาร์ดแวร์ของตัวเอง
เชื่อถือได้ : ไม่มีอินเทอร์เน็ตไม่มีการหยุดทำงานไม่มีขีด จำกัด อัตราไม่มีปุ่ม API
ฟรี : มันทำงานในเครื่องฮาร์ดแวร์ที่ผู้ใช้เป็นเจ้าของแล้ว
พร้อมที่จะเริ่มแอปพลิเคชัน Genai ของคุณเองหรือยัง? เช็คเอาต์ไกด์ของเรา!
⚡การใช้งาน:
Usage: edgen [<command>] [<args>]
Toplevel CLI commands and options. Subcommands are optional. If no command is provided "serve" will be invoked with default options.
Options:
--help display usage information
Commands:
serve Starts the edgen server. This is the default command when no
command is provided.
config Configuration-related subcommands.
version Prints the edgen version to stdout.
oasgen Generates the Edgen OpenAPI specification.
edgen serve บริการการใช้งาน:
Usage: edgen serve [-b <uri...>] [-g]
Starts the edgen server. This is the default command when no command is provided.
Options:
-b, --uri if present, one or more URIs/hosts to bind the server to.
`unix://` (on Linux), `http://`, and `ws://` are supported.
For use in scripts, it is recommended to explicitly add this
option to make your scripts future-proof.
-g, --nogui if present, edgen will not start the GUI; the default
behavior is to start the GUI.
--help display usage information
⚡edgenยังรองรับการรวบรวมและดำเนินการกับ GPU เมื่อสร้างจากแหล่งที่มาผ่าน Vulkan, Cuda และ Metal คุณสมบัติการขนส่งสินค้าต่อไปนี้เปิดใช้งาน GPU:
llama_vulkan - ดำเนินการโมเดล LLM โดยใช้ Vulkan ต้องมีการติดตั้ง Vulkan SDKllama_cuda - ดำเนินการโมเดล LLM โดยใช้ CUDA ต้องมีชุดเครื่องมือ CUDA ที่จะติดตั้งllama_metal - ดำเนินการรุ่น LLM โดยใช้โลหะwhisper_cuda - ดำเนินการโมเดล Whisper โดยใช้ cuda ต้องมีชุดเครื่องมือ CUDA ที่จะติดตั้ง โปรดทราบว่าในขณะนี้ llama_vulkan , llama_cuda และ llama_metal ไม่สามารถเปิดใช้งานได้ในเวลาเดียวกัน
ตัวอย่างการใช้งาน (อาคารจากแหล่งที่มาคุณต้องติดตั้งสิ่งที่จำเป็นต้องมีก่อน):
cargo run --features llama_vulkan --release -- serve
ภาพรวมสถาปัตยกรรม
หากคุณไม่ทราบว่าจะเริ่มต้นที่ไหนให้ตรวจสอบแผนงานของ Edgen! ก่อนที่คุณจะเริ่มทำงานกับบางสิ่งให้ดูว่ามีปัญหา/คำตอบแบบดึงที่มีอยู่หรือไม่ เข้าสู่ Discord เพื่อตรวจสอบกับทีมหรือดูว่ามีคนจัดการกับมันอยู่แล้วหรือไม่
llama.cpp , whisper.cpp และ ggml สำหรับการเป็นจุดเริ่มต้นที่ยอดเยี่ยมสำหรับพื้นที่นี้