local rag qa engine
1.0.0
Клонировать репо:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engineУстановите зависимости (требует поэзии):
poetry installПринесите свой LLM (Llama3.2: 1b по умолчанию):
ollama pull llama3.2:1bЗапустите сервер Ollama
ollama serveНачать рагбазу:
poetry run streamlit run app.pyИзвлекат текст из PDF -документов и создает куски (используя семантический и символьный сплиттер), которые хранятся в векторной базе данных
Учитывая запрос, поиск аналогичных документов переворачивает результат и применяет цепный фильтр LLM, прежде чем возвращать ответ.
Объединяет LLM с ретривером, чтобы ответить на заданный вопрос