local rag qa engine
1.0.0
Clone o repo:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engineInstale as dependências (requer poesia):
poetry installBusque seu LLM (llama3.2: 1b por padrão):
ollama pull llama3.2:1bExecute o servidor Ollama
ollama serveInicie o RAGBASE:
poetry run streamlit run app.pyExtrai o texto de documentos em PDF e cria pedaços (usando splitter semântico e de caracteres) que são armazenados em um banco de dados vetorial
Dada uma consulta, pesquisam documentos semelhantes, reerranjam o resultado e aplica filtro de cadeia LLM antes de retornar a resposta.
Combina o LLM com o Retriever para responder a uma determinada pergunta do usuário