llamaindexを使用してrag-chatbotを開発しました
バックエンド??:
開始-------------------------------------------------------------最初の、環境をセットアップします。
poetry install
poetry shell
デフォルトでは、Openai LLMを使用します(ただし、カスタマイズできますが、App/Context.pyを参照してください)。その結果、このディレクトリの.ENVファイルにOpenAI_API_KEYを指定する必要があります。
例.ENVファイル:
OPENAI_API_KEY=<openai_api_key>
次に、./dataディレクトリにドキュメントの埋め込みを生成します(このフォルダーが存在する場合 - そうでなければ、この手順をスキップします):
python app/engine/generate.py
「埋め込みのgenrate embeddingおよびベクター検索インデックスの詳細については、https://github.com/run-llama/mongodb-demo/tree/main?tab = readme-ov-file#create-a-vector-search-indexを参照してください。
第三に、開発サーバーを実行します。
python main.py
次に、APIエンドポイント /API /チャットを呼び出して結果を確認します。
curl --location 'localhost:8000/api/chat'
--header 'Content-Type: application/json'
--data '{ "messages": [{ "role": "user", "content": "Hello" }] }'
You can start editing the API by modifying app/api/routers/chat.py. The endpoint auto-updates as you save the file.
http:// localhost:8000/docsを使用して、apiのswagger uiを表示します。
APIにより、すべての起源のCORが開発を簡素化できます。環境環境変数をProDに設定することにより、この動作を変更できます。
ENVIRONMENT=prod uvicorn main:app
Llamaindexの詳細については、次のリソースをご覧ください。
Llamaindexドキュメント-Llamaindexについて学びます。 Llamaindex Githubリポジトリをご覧ください - フィードバックと貢献は大歓迎です!
フロントエンド ??:
開始--------------------------最初に依存関係をインストールします。
npm install
第二に、開発サーバーを実行します。
npm run dev
Open http://localhost:3000 with your browser to see the result.
app/page.tsxを変更して、ページの編集を開始できます。ファイルを編集するときにページ自動更新。
このプロジェクトでは、Next/Fontを使用して、カスタムGoogleフォントであるInterを自動的に最適化およびロードします。
Llamaindexの詳細については、次のリソースをご覧ください。
Llamaindexドキュメント-LlamainDex(Python機能)について学びます。 LlamainDextsドキュメント-LlamainDex(TypeScript機能)について学びます。 llamaindexts githubリポジトリを確認できます - フィードバックと貢献は大歓迎です!