Seerat e Nabi Model with Llama Index
1.0.0
このプロジェクトは、FastAPIバックエンドを使用して、ベクトルストレージとクエリのためにLLAMAインデックスを使用してSeerat-e-Nabiモデルに関する質問への回答を提供するWebアプリケーションです。
main.pyを使用してエンドポイントをセットアップするメインアプリケーションファイル。llama_model.py :スクリプトデータを読み込み、インデックスを作成し、llamaインデックスを使用して照会します。clean.py :インデックス作成に適したクリーンデータセットを作成するための生データをプリプセスします。 main.py )GET / :「OK」を返すSimple Health Check。GET /response/{question} :質問を受け入れ、モデルの応答を返します。port 8000でサーバーを実行します。llama_model.py )clean.py )git clone https://github.com/faisal-fida/seerat-e-nabi-model-llama-index.git
cd seerat-e-nabi-model-llama-index
pip install -r requirements.txt
uvicorn main:app --reloadこのプロジェクトは、インデックス付きデータに基づいて質問に答えることができるレスポンシブWebアプリケーションを作成するためのFastapiとLlama Indexの統合を示しています。モデル統合、データの前処理、効率的なクエリの複雑さを強調しています。
問題が発生した場合は、お気軽に貢献したり、問題を提起したりしてください!