local rag qa engine
1.0.0
Clon el repositorio:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engineInstale las dependencias (requiere poesía):
poetry installObtenga su LLM (Llama3.2: 1b por defecto):
ollama pull llama3.2:1bEjecute el servidor Ollama
ollama serveComienza Ragbase:
poetry run streamlit run app.pyExtrae texto de documentos PDF y crea fragmentos (utilizando un divisor semántico y de personajes) que se almacenan en un vector de datos
Dada una consulta, busca documentos similares, vuelva a ascender el resultado y aplica el filtro de cadena LLM antes de devolver la respuesta.
Combina el LLM con el Retriever para responder a una pregunta de usuario determinada