local rag qa engine
1.0.0
リポジトリのクローン:
git https://github.com/pratapyash/local-rag-qa-engine
cd local-rag-qa-engine依存関係をインストールします(詩が必要です):
poetry installLLMを取得します(llama3.2:1bデフォルトで):
ollama pull llama3.2:1bOllamaサーバーを実行します
ollama serveRagbaseを開始:
poetry run streamlit run app.pyPDFドキュメントからテキストを抽出し、ベクトルデータベースに保存されているチャンク(セマンティックおよび文字スプリッターを使用)を作成します
クエリが与えられた場合、同様のドキュメントを検索し、結果を再表示し、応答を返す前にLLMチェーンフィルターを適用します。
LLMとレトリバーを組み合わせて、特定のユーザーの質問に答えます