RAGパイプラインを作成するためのユーザーフレンドリーなインターフェイスを提供するためにRiremlitを使用するアプリ。このアプリを使用すると、ユーザーは自分のPDF FIEをアップロードでき、その後、新しい(または既存の)ベクトルデータベースに処理および保存されます。
その後、ユーザーはデータベースを照会し、LLMモデルから生成された最も関連性の高い応答を受信できます。使用することを選択したLLMはGemma:2Bモデルであり、モデルサービングにはOllamaを使用します。
このアプリは、既存のデータベースを削除する機能も提供しますが、現在この機能はWindowsで制限されています。
アプリを実行するには、まずこのリポジトリをクローンする必要があります。これは、コマンドで実行できます。
git clone https://github.com/Jimlibo/custom-rag-app.gitリポジトリをクローン化したら、アプリのディレクトリに移動できます。
cd custom-rag-appDockerとDocker-Composeがインストールされている場合は、次のコマンドでアプリを実行できます。
docker-compose upDockerがインストールされていない場合は、最初に要件から必要なパッケージをインストールしてから、Restreamを介してアプリを実行できます。これは、次のコマンドで実行できます。
cd src
pip install -r requirements.txt
streamlit run app.pyLLMで推論を実行するには、Ollamaサービスを稼働させる必要もあります。アプリを初めて実行した場合は、 Gemma:2BモデルをOllamaリポジトリから提供する前にプルする必要があります。モデルをプルするには、別の端末を開き、コマンドを実行します。
ollama pull gemma:2bモデルを提供するには、実行してください。
ollama serveMITライセンスの下で配布されます。詳細については、ライセンスを参照してください。