Open WebUI เป็น WebUI ที่โฮสต์ในตัวเองที่ขยายได้ มีคุณลักษณะหลากหลาย และใช้งานง่าย ซึ่งออกแบบมาเพื่อทำงานแบบออฟไลน์ทั้งหมด รองรับ LLM runners หลากหลาย รวมถึง Ollama และ API ที่เข้ากันได้กับ OpenAI สำหรับข้อมูลเพิ่มเติม โปรดตรวจสอบเอกสาร Open WebUI ของเรา

- การตั้งค่าที่ง่ายดาย : ติดตั้งได้อย่างราบรื่นโดยใช้ Docker หรือ Kubernetes (kubectl, kustomize หรือ helm) เพื่อประสบการณ์ที่ไม่ยุ่งยากพร้อมรองรับทั้งรูปภาพที่แท็ก :ollama และ :cuda
- การรวม Ollama/OpenAI API : ผสานรวม API ที่เข้ากันได้กับ OpenAI ได้อย่างง่ายดายเพื่อการสนทนาที่หลากหลายควบคู่ไปกับโมเดล Ollama ปรับแต่ง URL ของ OpenAI API เพื่อเชื่อมโยงกับ LMStudio, GroqCloud, Mistral, OpenRouter และอื่นๆ
- ไปป์ไลน์ การสนับสนุนปลั๊กอิน Open WebUI : ผสานรวมตรรกะที่กำหนดเองและไลบรารี Python เข้ากับ Open WebUI ได้อย่างราบรื่นโดยใช้ Pipelines Plugin Framework เปิดใช้งานอินสแตนซ์ Pipelines ของคุณ ตั้งค่า OpenAI URL เป็น Pipelines URL และสำรวจความเป็นไปได้ที่ไม่มีที่สิ้นสุด ตัวอย่าง ได้แก่ การเรียกใช้ฟังก์ชัน การจำกัดอัตรา ผู้ใช้เพื่อควบคุมการเข้าถึง การตรวจสอบการใช้งาน ด้วยเครื่องมือเช่น Langfuse การแปลสดด้วย LibreTranslate สำหรับการรองรับหลายภาษา การกรองข้อความที่เป็นพิษ และอื่นๆ อีกมากมาย
- การออกแบบที่ตอบสนอง : เพลิดเพลินไปกับประสบการณ์ที่ราบรื่นบนเดสก์ท็อปพีซี แล็ปท็อป และอุปกรณ์มือถือ
- Progressive Web App (PWA) สำหรับมือถือ : เพลิดเพลินกับประสบการณ์เหมือนแอพดั้งเดิมบนอุปกรณ์มือถือของคุณด้วย PWA ของเรา ซึ่งให้การเข้าถึงแบบออฟไลน์บน localhost และอินเทอร์เฟซผู้ใช้ที่ราบรื่น
? การสนับสนุน Markdown และ LaTeX เต็มรูปแบบ : ยกระดับประสบการณ์ LLM ของคุณด้วยความสามารถ Markdown และ LaTeX ที่ครอบคลุมเพื่อการโต้ตอบที่สมบูรณ์ยิ่งขึ้น
- การโทรด้วยเสียง/วิดีโอแบบแฮนด์ฟรี : สัมผัสประสบการณ์การสื่อสารที่ราบรื่นด้วยฟีเจอร์การโทรด้วยเสียงและวิดีโอแบบแฮนด์ฟรีในตัว ช่วยให้มีสภาพแวดล้อมการแชทแบบไดนามิกและโต้ตอบได้มากขึ้น
️ Model Builder : สร้างโมเดล Ollama ได้อย่างง่ายดายผ่าน Web UI สร้างและเพิ่มตัวละคร/เอเจนต์ที่กำหนดเอง ปรับแต่งองค์ประกอบการแชท และนำเข้าโมเดลได้อย่างง่ายดายผ่านการผสานรวม Open WebUI Community
- เครื่องมือเรียกใช้ฟังก์ชัน Native Python : ปรับปรุง LLM ของคุณด้วยการสนับสนุนตัวแก้ไขโค้ดในตัวในพื้นที่ทำงานของเครื่องมือ Bring Your Own Function (BYOF) เพียงเพิ่มฟังก์ชัน Python ของคุณ ทำให้สามารถทำงานร่วมกับ LLM ได้อย่างราบรื่น
- การบูรณาการ RAG ในพื้นที่ : ดำดิ่งสู่อนาคตของการโต้ตอบการแชทด้วยการสนับสนุนการเรียกข้อมูล Augmented Generation (RAG) ที่ก้าวล้ำ ฟีเจอร์นี้จะรวมการโต้ตอบกับเอกสารเข้ากับประสบการณ์แชทของคุณได้อย่างราบรื่น คุณสามารถโหลดเอกสารลงในแชทได้โดยตรง หรือเพิ่มไฟล์ลงในไลบรารีเอกสารของคุณ เข้าถึงเอกสารเหล่านั้นได้อย่างง่ายดายโดยใช้คำสั่ง # ก่อนสอบถาม
- ค้นหาเว็บสำหรับ RAG : ทำการค้นหาเว็บโดยใช้ผู้ให้บริการเช่น SearXNG , Google PSE , Brave Search , serpstack , serper , Serply , DuckDuckGo , TavilySearch และ SearchApi และแทรกผลลัพธ์ลงในประสบการณ์การแชทของคุณโดยตรง
- ความสามารถในการท่องเว็บ : ผสานรวมเว็บไซต์เข้ากับประสบการณ์แชทของคุณได้อย่างราบรื่นโดยใช้คำสั่ง # ตามด้วย URL คุณลักษณะนี้ช่วยให้คุณสามารถรวมเนื้อหาเว็บเข้ากับการสนทนาของคุณได้โดยตรง เพิ่มความสมบูรณ์และความลึกของการโต้ตอบของคุณ
- การบูรณาการการสร้างภาพ : รวมความสามารถในการสร้างภาพอย่างราบรื่นโดยใช้ตัวเลือกต่างๆ เช่น AUTOMATIC1111 API หรือ ComfyUI (ในเครื่อง) และ DALL-E ของ OpenAI (ภายนอก) ช่วยเพิ่มประสบการณ์การแชทของคุณด้วยเนื้อหาภาพแบบไดนามิก
⚙️ การสนทนากับโมเดลหลายแบบ : มีส่วนร่วมกับโมเดลต่างๆ พร้อมๆ กันได้อย่างง่ายดาย โดยใช้จุดแข็งที่เป็นเอกลักษณ์เพื่อการตอบสนองที่ดีที่สุด ยกระดับประสบการณ์ของคุณด้วยการใช้ประโยชน์จากชุดรูปแบบที่หลากหลายไปพร้อมๆ กัน
- การควบคุมการเข้าถึงตามบทบาท (RBAC) : รับประกันการเข้าถึงที่ปลอดภัยด้วยสิทธิ์ที่จำกัด เฉพาะบุคคลที่ได้รับอนุญาตเท่านั้นที่สามารถเข้าถึง Ollama ของคุณได้ และสิทธิ์ในการสร้าง/ดึงโมเดลแต่เพียงผู้เดียวนั้นสงวนไว้สำหรับผู้ดูแลระบบ
- การสนับสนุนหลายภาษา : สัมผัสประสบการณ์ Open WebUI ในภาษาที่คุณต้องการด้วยการสนับสนุนที่เป็นสากล (i18n) ของเรา เข้าร่วมกับเราในการขยายภาษาที่เราสนับสนุน! เรากำลังมองหาผู้ร่วมให้ข้อมูลอย่างแข็งขัน!
- การอัปเดตอย่างต่อเนื่อง : เรามุ่งมั่นที่จะปรับปรุง Open WebUI ด้วยการอัปเดต การแก้ไข และคุณสมบัติใหม่เป็นประจำ
ต้องการเรียนรู้เพิ่มเติมเกี่ยวกับคุณสมบัติของ Open WebUI หรือไม่ ตรวจสอบเอกสาร Open WebUI ของเราเพื่อดูภาพรวมที่ครอบคลุม!
อย่าลืมสำรวจโปรเจ็กต์พี่น้องของเรา นั่นคือ Open WebUI Community ซึ่งคุณสามารถค้นพบ ดาวน์โหลด และสำรวจ Modelfiles ที่ปรับแต่งเองได้ ชุมชน Open WebUI นำเสนอความเป็นไปได้ที่น่าตื่นเต้นมากมายในการปรับปรุงการโต้ตอบการแชทของคุณด้วย Open WebUI! -
สามารถติดตั้ง Open WebUI ได้โดยใช้ pip ซึ่งเป็นโปรแกรมติดตั้งแพ็คเกจ Python ก่อนดำเนินการต่อ ตรวจสอบให้แน่ใจว่าคุณใช้ Python 3.11 เพื่อหลีกเลี่ยงปัญหาความเข้ากันได้
ติดตั้ง Open WebUI : เปิดเทอร์มินัลของคุณและรันคำสั่งต่อไปนี้เพื่อติดตั้ง Open WebUI:
pip install open-webuiการเรียกใช้ Open WebUI : หลังการติดตั้ง คุณสามารถเริ่ม Open WebUI ได้โดยดำเนินการ:
open-webui serveนี่จะเป็นการเริ่มเซิร์ฟเวอร์ Open WebUI ซึ่งคุณสามารถเข้าถึงได้ที่ http://localhost:8080
บันทึก
โปรดทราบว่าสำหรับสภาพแวดล้อม Docker บางอย่าง อาจจำเป็นต้องมีการกำหนดค่าเพิ่มเติม หากคุณพบปัญหาการเชื่อมต่อ คำแนะนำโดยละเอียดของเราเกี่ยวกับเอกสาร Open WebUI พร้อมที่จะช่วยเหลือคุณ
คำเตือน
เมื่อใช้ Docker เพื่อติดตั้ง Open WebUI ตรวจสอบให้แน่ใจว่าได้รวม -v open-webui:/app/backend/data ไว้ในคำสั่ง Docker ของคุณ ขั้นตอนนี้มีความสำคัญเนื่องจากช่วยให้แน่ใจว่าฐานข้อมูลของคุณติดตั้งอย่างเหมาะสมและป้องกันการสูญเสียข้อมูล
เคล็ดลับ
หากคุณต้องการใช้ Open WebUI พร้อม Ollama หรือการเร่งความเร็ว CUDA เราขอแนะนำให้ใช้รูปภาพอย่างเป็นทางการของเราที่แท็กด้วย :cuda หรือ :ollama หากต้องการเปิดใช้งาน CUDA คุณต้องติดตั้งชุดเครื่องมือคอนเทนเนอร์ Nvidia CUDA บนระบบ Linux/WSL ของคุณ
หาก Ollama อยู่ในคอมพิวเตอร์ของคุณ ให้ใช้คำสั่งนี้:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainหาก Ollama อยู่บนเซิร์ฟเวอร์อื่น ให้ใช้คำสั่งนี้:
หากต้องการเชื่อมต่อกับ Ollama บนเซิร์ฟเวอร์อื่น ให้เปลี่ยน OLLAMA_BASE_URL เป็น URL ของเซิร์ฟเวอร์:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainหากต้องการรัน Open WebUI พร้อมรองรับ Nvidia GPU ให้ใช้คำสั่งนี้:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cudaหากคุณใช้เฉพาะ OpenAI API ให้ใช้คำสั่งนี้:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainวิธีการติดตั้งนี้ใช้คอนเทนเนอร์อิมเมจเดียวที่รวม Open WebUI เข้ากับ Ollama ซึ่งช่วยให้การตั้งค่ามีความคล่องตัวผ่านคำสั่งเดียว เลือกคำสั่งที่เหมาะสมตามการตั้งค่าฮาร์ดแวร์ของคุณ:
ด้วยการรองรับ GPU : ใช้ทรัพยากร GPU โดยการรันคำสั่งต่อไปนี้:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollamaสำหรับ CPU เท่านั้น : หากคุณไม่ได้ใช้ GPU ให้ใช้คำสั่งนี้แทน:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollamaคำสั่งทั้งสองอำนวยความสะดวกในการติดตั้งทั้ง Open WebUI และ Ollama ในตัวที่ไม่ยุ่งยาก ทำให้มั่นใจได้ว่าคุณสามารถเริ่มต้นและรันทุกอย่างได้อย่างรวดเร็ว
หลังการติดตั้ง คุณสามารถเข้าถึง Open WebUI ได้ที่ http://localhost:3000 สนุก! -
เรามีทางเลือกในการติดตั้งที่หลากหลาย รวมถึงวิธีการติดตั้งแบบเนทิฟที่ไม่ใช่ Docker, Docker Compose, Kustomize และ Helm เยี่ยมชมเอกสาร Open WebUI ของเราหรือเข้าร่วมชุมชน Discord ของเราเพื่อรับคำแนะนำที่ครอบคลุม
ประสบปัญหาการเชื่อมต่อ? เอกสาร Open WebUI ของเราพร้อมช่วยคุณแล้ว หากต้องการความช่วยเหลือเพิ่มเติมและเข้าร่วมชุมชนที่มีชีวิตชีวาของเรา โปรดไปที่ Open WebUI Discord
หากคุณประสบปัญหาการเชื่อมต่อ มักมีสาเหตุมาจากคอนเทนเนอร์นักเทียบท่า WebUI ไม่สามารถเข้าถึงเซิร์ฟเวอร์ Ollama ที่ 127.0.0.1:11434 (host.docker.internal:11434) ภายในคอนเทนเนอร์ ใช้แฟล็ก --network=host ในคำสั่งนักเทียบท่าของคุณเพื่อแก้ไขปัญหานี้ โปรดทราบว่าพอร์ตเปลี่ยนจาก 3000 เป็น 8080 ส่งผลให้เกิดลิงก์: http://localhost:8080
ตัวอย่างคำสั่งนักเทียบท่า :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:mainในกรณีที่คุณต้องการอัปเดตการติดตั้ง Docker ในเครื่องของคุณเป็นเวอร์ชันล่าสุด คุณสามารถทำได้ด้วย Watchtower:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui ในส่วนสุดท้ายของคำสั่ง ให้แทนที่ open-webui ด้วยชื่อคอนเทนเนอร์ของคุณหากเป็นชื่ออื่น
ตรวจสอบคู่มือการย้ายข้อมูลของเราในเอกสาร Open WebUI ของเรา
คำเตือน
สาขา :dev มีคุณสมบัติและการเปลี่ยนแปลงล่าสุดที่ไม่เสถียร ใช้โดยยอมรับความเสี่ยงเองเนื่องจากอาจมีข้อบกพร่องหรือคุณสมบัติที่ไม่สมบูรณ์
หากคุณต้องการลองใช้ฟีเจอร์ใหม่ล่าสุดและไม่มีปัญหากับความไม่เสถียรเป็นครั้งคราว คุณสามารถใช้แท็ก :dev ได้ดังนี้:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:devค้นพบคุณสมบัติที่กำลังจะมีขึ้นบนแผนงานของเราในเอกสาร Open WebUI
โครงการนี้ได้รับอนุญาตภายใต้ใบอนุญาต MIT - ดูรายละเอียดในไฟล์ใบอนุญาต -
หากคุณมีคำถาม ข้อเสนอแนะ หรือต้องการความช่วยเหลือ โปรดเปิดประเด็นหรือเข้าร่วมชุมชน Open WebUI Discord เพื่อเชื่อมต่อกับเรา! -

สร้างโดย Timothy Jaeryang Baek - มาทำให้ Open WebUI น่าทึ่งยิ่งขึ้นไปด้วยกัน! -