local rag qa engine
1.0.0
레포를 복제하십시오 :
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engine의존성 설치 (시 필요) :
poetry installLLM을 가져 오십시오 (LLAMA3.2 : 1B 기본적으로) :
ollama pull llama3.2:1bOllama 서버를 실행하십시오
ollama serveRagbase 시작 :
poetry run streamlit run app.pyPDF 문서에서 텍스트를 추출하고 벡터 데이터베스에 저장된 청크 (시맨틱 및 캐릭터 스플리터 사용)를 만듭니다.
쿼리가 주어지면 유사한 문서를 검색하고 결과를 재고하고 응답을 반환하기 전에 LLM 체인 필터를 적용합니다.
LLM을 리트리버와 결합하여 주어진 사용자 질문에 답하십시오.