Dieses Projekt nutzt einen AI -Agenten für die automatisierte Datenextraktion und -verarbeitung. Mit dem System können Benutzer eine CSV -Datei hochladen oder eine Verbindung zu einem Google -Blatt herstellen und dann mit den Daten mit natürlichen Sprachabfragen interagieren. Der Agent generiert Python -Code basierend auf der Abfrage, führt den Code aus, um die Daten zu manipulieren, und präsentiert das Ergebnis in verschiedenen Formaten wie Tabelle, Plot oder String oder kratzt nützliche Daten für Ihre Datei.
Um dieses Projekt durchzuführen, benötigen Sie Python 3.7 oder höher. Das Projekt verwendet mehrere Bibliotheken von Drittanbietern, die über PIP installiert werden können.
git clone https://github.com/UjjawalGusain/CheatSheet-Langchain-Project.git
cd Langchain-Web-Agent python3 -m venv venv
source venv/bin/activate # On Windows, use `venvScriptsactivate`
pip install -r requirements.txtRichten Sie die Google Sheets API ein:
Führen Sie die Anwendung aus:
streamlit run dashboard.pyNach dem Ausführen dieses Befehls beginnt die Anwendung und Sie können über Ihren Browser darauf zugreifen.
In diesem Projekt werden mehrere APIs verwendet, um unterschiedliche Operationen zu verarbeiten, einschließlich Datenkratzen und Interaktion mit dem Modell. Die integrierten APIs sind:
GROQ -API:
Modell: LAMA-3.1-70B-ESSATIL
Zweck: Die GROQ -API wird verwendet, um mit dem großen Sprachmodell zu interagieren, um Antworten zu generieren, Vorgänge auf dem Datensatz auszuführen und komplexe Abfragen zu bearbeiten. Das Modell LLAMA-3.1-70B-Conversatile wird für ein effizientes Verständnis und die Erzeugung natürlicher Sprache verwendet, um Abfragen zu verarbeiten und umsetzbare Ergebnisse zu erzielen.
Verwendung:
Die API wird aufgerufen, Abfragen zu verarbeiten, die sich auf die Daten beziehen, einschließlich Vorgänge wie Extraktion, Filterung und Generierung von Zusammenfassungen. Die Antwort des Modells hilft bei der Gestaltung der auf den Datensatz angewendeten Vorgänge.
Die für das Modell verwendeten Eingabeaufforderungen sind in einem bestimmten Format strukturiert, um die gewünschte Antwort zu gewährleisten und Fehler während der Ausführung zu vermeiden.
Scraper -API:
Zweck: Mit der API von Scraper wird zusätzliche Daten aus externen Quellen erfasst und diese Daten an den Datensatz angehängt.
Verwendung:
Wählen Sie eine Datenquelle aus der Seitenleiste aus: Laden Sie entweder CSV hoch oder verbinden Sie Google Sheets.
Geben Sie eine Abfrage ein:
Ergebnisse anzeigen:
Einsprechende Formatierung und Komplexität: Eine bedeutende Herausforderung bestand darin, sicherzustellen, dass die an das Modell übergingenden Eingabeaufforderungen korrekt formatiert und vom System behandelt wurden. Das Modell, das erforderlich ist, um genaue Antworten basierend auf der Struktur und Komplexität der Abfragen zu erzeugen. Es war auch wichtig, Klarheit und Konsistenz in der Art und Weise, wie Informationen extrahiert wurden, aufrechtzuerhalten und dem Benutzer vorgestellt wurden, insbesondere mit komplexen Abfragen.
Verwalten von Sicherheitsrisiken mit LLMs: LLMs der Nutzung von Großsprachenmodellen (LLMs) führten potenzielle Sicherheitsrisiken ein, insbesondere die Datenschutzdatenschutz und den Umgang mit sensiblen Informationen. Es war ein kritischer Aspekt des Entwicklungsprozesses. Wir mussten Schutzmaßnahmen implementieren, um diese Risiken zu minimieren, während wir LLMs zum Generieren von Code und zur Verarbeitung von Daten verwenden.