RAG-Nificent: Ein KI-Chatbot, der von LLMs angetrieben wird, um benutzerdefinierte PDFs, Berichte und Richtlinien zu zitieren
Unterstützt jetzt Lama-3.1 von Meta AI

RAG-Nificent ist ein hochmodernes Repository, das die Macht der Abrufgeneration (RAG) nutzt, um sofortige Antworten und Referenzen aus einem kuratierten Verzeichnis von PDFs zu geben, das Informationen zu einem bestimmten Thema enthält, wie z. B. WHO-Empfehlungsdokumente. Dieses System soll Forschern, politischen Entscheidungsträgern und der Öffentlichkeit helfen, schnell spezifische Informationen in umfangreichen Dokumenten zu finden.
Merkmale
- Konversationsschnittstelle : Beschäftige dich mit dem System mit Abfragen der natürlichen Sprache, um Antworten direkt aus den PDFs zu empfangen.
- Direkter Zitat : Jede Antwort des Systems enthält einen direkten Link zur Quell -PDF -Seite, um die Rückverfolgbarkeit und Überprüfung sicherzustellen.
- PDF -Verzeichnis : Ein vordefinierter Satz wichtiger PDF -Dokumente, die derzeit WHO -Empfehlungen zu wichtigen Gesundheitsthemen wie Schistosomiasis und Malaria enthalten.
Verfügbare Modelle
- ? LAMA-3.1-8B-INSTANT : Erleben Sie sofortige, effiziente Reaktionen mit diesem Modell, das für schnelle Interaktionen optimiert ist.
- ? LAMA-3.1-70B-ESSATIL : Verwenden Sie dieses vielseitige Modell für eine Vielzahl komplexer Sprachaufgaben mit hoher Genauigkeit.
- GPT-3,5-Turbo : Verwechseln Sie sich mit fortgeschrittenen, menschlichen Wechselwirkungen, die für verschiedene Gesprächsaufgaben geeignet sind.
- ? LLAMA3-70B-8192 : Genießen Sie die High-End-Leistung mit diesem groß angelegten Modell, ideal für Deep Learning Insights.
- ? LLAMA3-8B-8192 : Nutzen Sie robuste Fähigkeiten mit dieser zugänglicheren Version von LLAMA3, perfekt für eine breite Palette von AI-Anwendungen.
- ? MIXTRAL-8X7B-32768 : Nutzen Sie die Leistung der Ensemble-Modellierung mit der umfassenden Kapazität von Mixtral für das nuancierte Verständnis und die Erzeugung von Reaktion.
- ? GEMMA-7B-IT : Erforschen Sie spezielle Interaktionen und technisch ausgerichtete Lösungen mit Gemma, die auf sie zugeschnitten sind und technische Inhalte.
Demo

Wie es funktioniert
Die Anwendung verwendet eine Kombination aus OpenAI -Einbettungen, Tinecone -Vektorsuche und einer Konversationsschnittstelle, um ein nahtloses Abruferlebnis zu bieten. Wenn eine Abfrage durchgeführt wird, ist das System:
- Konvertiert die Abfrage in Einbettungen.
- Suchen Sie nach den relevanten Dokumentabschnitten mit der Vektorsuche von PineCone.
- Gibt die Antwort zusammen mit Zitaten und Links zu den Quelldokumenten zurück.
Aufstellen
Klonen Sie das Repository:
git clone https://github.com/yourusername/RAG-nificent.git
Abhängigkeiten installieren:
pip install -r requirements.txt
Setzen Sie Umgebungsvariablen in a .env (siehe auch .env.example -Datei:
-
PINECONE_INDEX_NAME -
PINECONE_NAME_SPACE -
OPENAI_API_KEY -
PINECONE_API_KEY -
GROQ_API_KEY
Erstellen Sie einen Pinecone -Index mit demselben Namen wie PINECONE_INDEX_NAME . Stellen Sie es mit dimensions=1536 und metric=cosine ein.
Platzieren Sie Ihre PDFs in das Verzeichnis pdf_data und führen Sie data_ingestion.py aus
Führen Sie die Anwendung aus:
Quelldokumente
Das System enthält derzeit Richtlinien aus den folgenden PDFs mit direkten Links zu den Dokumenten:
- WHO -Richtlinie zur Kontrolle und Beseitigung der menschlichen Schistosomiasis (2022)
- WHO -Richtlinien für Malaria (2023)