改善されたラグアーキテクチャ
FrameworkとしてLangchainを使用すると、以前のプロジェクトからRAGアーキテクチャが改善されました。
- モデルのローカリを実行するのではなく。私はむしろ一緒にAPIを使用したいので、そうすることでラップトップを破壊しません。 (彼らはまた、より良いモデルを提供するので、プロンプトの結果はWayyyyよりも優れています)。また、LLMのパラメーターを調整して、特定のユースケースの結果やモデル選択を行うこともできます。
- 手動チャンキングではなく、チャンカーとしてLLM(セマンティックチャンカー)を使用して、チャンキングの問題を修正します。
- LLMを使用してクエリを書き直してから、検索目的のためにベクトルに変えて、より良い検索を行います。
- FAISS(Facebook AI類似性検索)であるベクターDBにセマンティック検索(コンテキスト)と語彙検索(キーワード)の両方を使用しています。
- 再ランキング+AutoCut Algorithmは、より良い出力を得るために検索後。
Ragasはこのプロジェクトでも実装できます。Ragアーキテクチャのベンチマークは、Graphragのように本当に興味のある他の方法があります。
詩
- 私のセマンティックチャンカーはVerrryを遅く実行しています、私はあなたが固定サイズの通常のテキストスプリッターを使用し、パフォーマンスを高速化するためにオーバーラップすることをお勧めします
- ローカルでDBをホストしたくない場合は、PineconeやMongodb Atlasなどのサービスを使用してクラスターを作成できます。
- 推論と書き換えに他のモデルを使用することをお勧めします。ユーザーに最適なモデルを見つけてください
Skibidi Sigma Rizz +1000 Aura