Artikellink
Dieses Python -Projekt zeigt die semantische Suche unter Verwendung von MongoDB und zwei verschiedenen LLM -Frameworks: Langchain und Llamaindex . Ziel ist es, Dokumente aus MongoDB zu laden, Einbettung für die Textdaten zu generieren und semantische Suchvorgänge mit Langchain- und Lamaindex -Frameworks durchzuführen.
Um dieses Projekt auszuführen, müssen Sie die folgenden Umgebungsvariablen in einer .env -Datei festlegen:
OPENAI_API_KEY = YOUR_OPENAI_API_KEY
MONGODB_URI = YOUR_MONGODB_CONNECTION_URI
MONGODB_COLL = YOUR_MONGODB_COLLECTION
MONGODB_VECTOR_INDEX = YOUR_MONGODB_VECTOR_INDEX
MONGODB_VECTOR_COLL_LANGCHAIN = YOUR_MONGODB_VECTOR_COLLECTION_LANGCHAIN
MONGODB_VECTOR_COLL_LLAMAINDEX = YOUR_MONGODB_VECTOR_COLLECTION_LLAMAINDEXStellen Sie sicher, dass Sie die Platzhalterwerte durch Ihre tatsächlichen API -Schlüssel und Verbindungsdetails ersetzen.
Abhängigkeiten installieren:
pip install -r requirements.txt
Das Projekt lädt Dokumente aus der angegebenen MongoDB -Sammlung ( MONGODB_COLL ). Stellen Sie sicher, dass Ihre MongoDB -Sammlung die Textdaten enthält, nach denen Sie eine semantische Suche durchführen möchten.
Die Anwendung generiert Emetten für die geladenen Textdaten unter Verwendung der LamaN- und LamaNDex -Frameworks. Die Einbettungen werden in separaten MongoDB -Sammlungen gespeichert ( MONGODB_VECTOR_COLL_LANGCHAIN und MONGODB_VECTOR_COLL_LLAMAINDEX ).
Die semantische Suche wird sowohl mit Langchain- als auch mit Lamaindex -Frameworks durchgeführt. Der Prozess beinhaltet die Abfragetation der Einschreibung und das Abrufen relevanter Dokumente auf der Grundlage der semantischen Ähnlichkeit der Eingabeaufforderung.
Der OPENAI_API_KEY ist für die Einbettung der Erzeugung mit externen Sprachmodellen (z. B. OpenAIs GPT) erforderlich. Stellen Sie sicher, dass Sie die Details und Sammlungen von MongoDB -Verbindungen angemessen konfigurieren. Überprüfen Sie die offizielle Dokumentation für Langchain und Llamaindex auf zusätzliche Konfigurations- oder Nutzungsdetails.