local rag qa engine
1.0.0
โคลน repo:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engineติดตั้งการพึ่งพา (ต้องใช้บทกวี):
poetry installดึง LLM ของคุณ (LLAMA3.2: 1B โดยค่าเริ่มต้น):
ollama pull llama3.2:1bเรียกใช้เซิร์ฟเวอร์ Ollama
ollama serveเริ่ม Ragbase:
poetry run streamlit run app.pyแยกข้อความจากเอกสาร PDF และสร้างชิ้น (โดยใช้ความหมายและตัวแยกอักขระ) ที่เก็บไว้ใน databse เวกเตอร์
เมื่อได้รับการค้นหาให้ค้นหาเอกสารที่คล้ายกัน Reranks ผลลัพธ์และใช้ตัวกรองโซ่ LLM ก่อนที่จะส่งคืนการตอบกลับ
รวม LLM กับ Retriever เพื่อตอบคำถามผู้ใช้ที่กำหนด