Rag-Nificent:カスタムPDF、レポート、およびガイドラインの引用のためにLLMSを搭載したAIチャットボット
現在、メタAIによるLlama-3.1をサポートしています

Rag-Nificentは、検索された高級世代(RAG)の力を活用して、WHOの推奨文書などの特定のトピックに関する情報を含むPDFのキュレーションされたディレクトリから即座の回答と参照を提供する最先端のリポジトリです。このシステムは、研究者、政策立案者、および一般の人々が、広範な文書内で特定の情報を迅速に見つけるのを支援するように設計されています。
特徴
- 会話インターフェイス:自然言語クエリを使用してシステムと関わり、PDFから直接供給された応答を受け取ります。
- 直接引用:システムからのすべての応答には、ソースPDFページへの直接リンクが含まれており、トレーサビリティと検証が確保されます。
- PDFディレクトリ:現在、住血吸虫症やマラリアなどの主要な健康トピックに関するWHOの推奨事項を含む、定義された主要なPDFドキュメント。
利用可能なモデル
- ? llama-3.1-8b-instant :このモデルで迅速な相互作用のために最適化されたインスタントで効率的な応答を体験します。
- ? llama-3.1-70b-versatile :この多用途のモデルを利用して、高精度で幅広い複雑な言語タスクを使用します。
- GPT-3.5-Turbo :さまざまな会話タスクに適した高度な人間のような相互作用に従事します。
- ? llama3-70b-8192 :深い学習の洞察に最適なこの大規模なモデルで、ハイエンドのパフォーマンスをお楽しみください。
- ? LLAMA3-8B-8192 :このアクセスしやすいバージョンのLLAMA3を使用して、幅広いAIアプリケーションに最適です。
- ? Mixtral-8x7B-32768 :Mixtralの微妙な理解と応答生成のためのMixtralの広範な能力を備えたアンサンブルモデリングの力を活用します。
- ? GEMMA-7B-IT :ITと技術コンテンツに合わせたGEMMAとの専門的な相互作用と技術中心のソリューションを探索します。
デモ

それがどのように機能するか
このアプリケーションは、Openai埋め込み、Pinecone Vector Search、および会話インターフェイスの組み合わせを使用して、シームレスな検索エクスペリエンスを提供します。クエリが作成されると、システム:
- クエリを埋め込みに変換します。
- Pineconeのベクトル検索を使用して、最も関連性の高いドキュメントセクションを検索します。
- 回答は、ソースドキュメントへの引用とリンクを返します。
設定
リポジトリをクローンします:
git clone https://github.com/yourusername/RAG-nificent.git
依存関係をインストールします:
pip install -r requirements.txt
環境変数を.envに設定します( .env.exampleファイルも参照してください。
-
PINECONE_INDEX_NAME -
PINECONE_NAME_SPACE -
OPENAI_API_KEY -
PINECONE_API_KEY -
GROQ_API_KEY
PINECONE_INDEX_NAMEと同じ名前のPineconeインデックスを作成します。 dimensions=1536およびmetric=cosineでセットアップします。
pdfsをpdf_dataディレクトリに配置し、 data_ingestion.pyを実行します
アプリケーションを実行します:
ソースドキュメント
システムには現在、ドキュメントへの直接リンクを備えた次のPDFからのガイドラインが含まれています。
- 人間住血吸虫症の制御と排除に関するWHOガイドライン(2022)
- マラリアのWHOガイドライン(2023)