Llocalsearch เป็น wrapper รอบ ๆ Large Language Models ในท้องถิ่น (เช่น CHATGTP แต่มีขนาดเล็กลงและน้อยลง "สมาร์ท") ซึ่งช่วยให้พวกเขาเลือกจากชุดเครื่องมือ เครื่องมือเหล่านี้อนุญาตให้พวกเขาค้นหาข้อมูลปัจจุบันเกี่ยวกับคำถามของคุณ กระบวนการนี้เป็นการเรียกซ้ำซึ่งหมายความว่าการทำงาน LLM สามารถเลือกใช้เครื่องมือได้อย่างอิสระ (แม้หลายครั้ง) ตามข้อมูลที่ได้รับจากคุณและเครื่องมืออื่น ๆ
xy ?แผนระยะยาวซึ่ง Openai ขายให้กับบ้านสื่อขนาดใหญ่:
นอกจากนี้สมาชิกของโปรแกรมยังได้รับตำแหน่งลำดับความสำคัญและ“ การแสดงออกของแบรนด์ที่สมบูรณ์ยิ่งขึ้น” ในการสนทนาแชทและเนื้อหาของพวกเขาได้รับประโยชน์จากการรักษาลิงก์ที่โดดเด่นมากขึ้น
หากคุณไม่ชอบความคิดที่จะได้รับการจัดการโดยผู้ประมูลสูงสุดคุณอาจต้องการลองเลือกทางเลือกที่เลือกปฏิบัติน้อยลงเช่นโครงการนี้
Langchain Library IM ที่ใช้ไม่ได้เคารพคำหยุด Llama3 ซึ่งส่งผลให้ Llama3 เริ่มที่จะเห็นภาพหลอนในตอนท้ายของเทิร์น ฉันมีแพทช์ที่ใช้งานได้ (เช็คเอาต์สาขาการทดลอง) แต่เนื่องจากฉันไม่แน่ใจว่าทางของฉันเป็นวิธีที่ถูกต้องในการแก้ปัญหานี้ฉันยังคงรอการตอบกลับจากทีม Langchaingo
การยกเครื่องอินเทอร์เฟซช่วยให้แผงที่ยืดหยุ่นมากขึ้นและการใช้พื้นที่อย่างมีประสิทธิภาพมากขึ้น แรงบันดาลใจจากรูปแบบปัจจุบันของ Obsidian
ยังต้องการงานจำนวนมากเช่นการปรับโครงสร้างข้อมูลภายในจำนวนมากเพื่อให้วิธีที่ดีขึ้นและยืดหยุ่นมากขึ้นในการขยายการทำงานในอนาคตโดยไม่ต้องเขียนการส่งข้อมูลทั้งหมดและส่วนอินเตอร์เฟสอีกครั้ง
รากฐานสำหรับข้อมูลส่วนตัวภายในห่วงโซ่ RAG เช่นการอัปโหลดเอกสารของคุณเองหรือเชื่อมต่อ LLOCALSEARCH กับบริการเช่น Google Drive หรือ Confluence
ไม่แน่ใจว่ามีวิธีที่ถูกต้องในการใช้งานนี้หรือไม่ แต่ให้ข้อมูลเกี่ยวกับโซ่ตัวแทนหลักเกี่ยวกับผู้ใช้เช่นการตั้งค่าและมี db namespace เวกเตอร์เพิ่มเติมต่อผู้ใช้สำหรับข้อมูลถาวร
[email protected]:nilsherzig/LLocalSearch.git
cd LLocalSearch.env หากคุณต้องการเปลี่ยนการตั้งค่าเริ่มต้นบางอย่าง โดยทั่วไปแล้วจะจำเป็นก็ต่อเมื่อคุณมี Ollama ทำงานบนอุปกรณ์อื่นหรือหากคุณต้องการสร้างการตั้งค่าที่ซับซ้อนมากขึ้น (มากกว่าการใช้งานส่วนตัวของคุณ F.EX) โปรดอ่านคู่มือการตั้งค่า Ollama หากคุณดิ้นรนเพื่อให้การเชื่อมต่อ Ollama ทำงาน touch .env
code .env # open file with vscode
nvim .env # open file with neovimdocker-compose up -d