local rag qa engine
1.0.0
Cloner le repo:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engineInstallez les dépendances (nécessite de la poésie):
poetry installRépondez votre LLM (LLAMA3.2: 1B par défaut):
ollama pull llama3.2:1bExécutez le serveur Olllama
ollama serveDémarrer Ragbase:
poetry run streamlit run app.pyExtrait le texte des documents PDF et crée des morceaux (en utilisant un séparateur sémantique et de caractère) qui sont stockés dans une données vectorielle
Compte tenu d'une requête, recherche de documents similaires, relance le résultat et applique le filtre de chaîne LLM avant de renvoyer la réponse.
Combine le LLM avec le retriever pour répondre à une question utilisateur donnée