local rag qa engine
1.0.0
Klonen Sie das Repo:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engineInstallieren Sie die Abhängigkeiten (erfordert Gedichte):
poetry installAbrufen Sie Ihre LLM (llama3.2: 1b standardmäßig):
ollama pull llama3.2:1bFühren Sie den Ollama -Server aus
ollama serveStarten Sie Ragbase:
poetry run streamlit run app.pyExtrahiert Text aus PDF
Bei einer Abfrage suchen Sie nach ähnlichen Dokumenten, lehnt das Ergebnis und wendet vor Rückgabe der Antwort den LLM -Kettenfilter an.
Kombiniert die LLM mit dem Retriever, um eine bestimmte Benutzerfrage zu beantworten