Llm-mem?
Ein erweitertes Sprachmodell mit semantischer Speicherspeicher
Eine Python-basierte Implementierung, die Sprachmodelle mit persistentem semantischen Gedächtnis unter Verwendung von Vektor-Einbettungen und Ähnlichkeitssuche erhöht.
? Merkmale
- Semantisches Chunking von Gesprächen mit NLTK
- Vektor -Einbettungserzeugung unter Verwendung von Satztransformatoren
- Cosinus Ähnlichkeitsbasierter Kontextabruf
- Persistierter Speicherspeicher mithilfe der Vektordatenbank
- Automatische Kontextinjektion für kohärentere Antworten
- Smart Text Chunking mit Code Block Erhaltung
Technischer Stapel
-
sentence-transformers : Zur Erzeugung semantischer Einbettungen -
nltk : Toolkit für natürliche Sprachverarbeitung für Textmanipulation - Benutzerdefinierte LLM -Integration
- Vektor-Store zum Speichern und Abrufen von Einbettungen
- REST -API -Endpunkte für Vektoroperationen
? Voraussetzungen
- Satztransformatoren
- NLTK
- Anfragen
- Google-Generativai
Schneller Start
- Klonen Sie das Repository:
git clone https://github.com/Abhigyan126/LLM-MEM.git
cd LLM-MEM
- Abhängigkeiten installieren:
pip install sentence-transformers nltk requests google-generativeai
- create .env -Datei
- Führen Sie das Hauptskript aus:
Wie es funktioniert
- Textverarbeitung : Eingehende Nachrichten werden verarbeitet und gereinigt
- Erzeugung einbetten : Konvertiert Text in Vektor -Einbettungen
- Semantische Suche : Findet relevante frühere Kontexte mit der Ähnlichkeit der Cosinus
- Kontextintegration : Fusioniert die relevante Geschichte mit der aktuellen Abfrage
- Antwortgenerierung : Erzeugt Reaktion mit LLM mit verbessertem Kontext
- Speicherspeicher : Speichert neue Interaktionen als zukünftige Referenz
? Konfiguration
Das System verwendet mehrere konfigurierbare Parameter:
- Maximale Chunk Länge: 2000 Zeichen
- Minimale Chunkgröße: 100 Zeichen
- Ähnlichkeitsschwelle: 0,5
- Standard -Nachbarn: 10