local rag qa engine
1.0.0
استنساخ الريبو:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engineتثبيت التبعيات (يتطلب الشعر):
poetry installجلب LLM الخاص بك (llama3.2: 1b بشكل افتراضي):
ollama pull llama3.2:1bقم بتشغيل خادم Ollama
ollama serveابدأ Ragbase:
poetry run streamlit run app.pyيستخلص النص من مستندات PDF ويقوم بإنشاء أجزاء (باستخدام الخائن الدلالي والحرمان) التي يتم تخزينها في قاعدة بيانات المتجهات
بالنظر إلى الاستعلام ، يبحث عن مستندات مماثلة ، ويعيد النتيجة وتطبيق مرشح سلسلة LLM قبل إعادة الاستجابة.
يجمع بين LLM مع المسترد للإجابة على سؤال مستخدم معين