
Weitere Informationen finden Sie in Discord
MEM0 (ausgesprochen als "Mem-Zero") verbessert KI-Assistenten und Agenten mit einer intelligenten Speicherschicht und ermöglicht personalisierte KI-Interaktionen. MEM0 erinnert sich an die Benutzerpräferenzen, passt sich den individuellen Bedürfnissen an und verbessert sich im Laufe der Zeit kontinuierlich, sodass es ideal für Chatbots, KI -Assistenten und autonome Systeme für Kundenunterstützung ist.
Neue Funktion: Einführung von Graph Memory. Schauen Sie sich unsere Dokumentation an.
MEM0 nutzt einen Hybriddatenbankansatz, um Langzeitgedächtnisse für AI-Agenten und Assistenten zu verwalten und abzurufen. Jeder Speicher ist einer eindeutigen Kennung zugeordnet, z. B. einer Benutzer -ID oder einer Agenten -ID, mit der MEM0 für einen Einzelnen oder einen Kontext spezifisch organisiert und zugreift.
Wenn die MEM0 mit add () eine Nachricht hinzugefügt wird, extrahiert das System relevante Fakten und Präferenzen und speichert sie über Datenspeicher hinweg: eine Vektordatenbank, eine Schlüsselwertdatenbank und eine Graph-Datenbank. Dieser hybride Ansatz stellt sicher, dass verschiedene Arten von Informationen auf effizienteste Weise gespeichert werden, wodurch nachfolgende Suchanfragen schnell und effektiv werden.
Wenn ein AI -Agent oder ein LLM Erinnerungen abrufen muss, verwendet er die Methode von Search (). MEM0 führt dann die Suche in diesen Datenspeichern durch und ruft relevante Informationen von jeder Quelle ab. Diese Informationen werden dann eine Bewertungsschicht übertragen, die ihre Bedeutung aufgrund von Relevanz, Wichtigkeit und Freizeitversorgungsvermögen bewertet. Dies stellt sicher, dass nur der personalisierte und nützlichste Kontext aufgetaucht ist.
Die abgerufenen Erinnerungen können dann nach Bedarf an die Eingabeaufforderung des LLM beigefügt werden, wodurch die Personalisierung und Relevanz ihrer Antworten verbessert werden.
MEM0 ermöglicht Organisationen und Einzelpersonen zu verbessern:
Der einfachste Weg, Mem0 einzurichten, ist die verwaltete Mem0 -Plattform. Diese gehostete Lösung bietet automatische Updates, erweiterte Analysen und engagierte Unterstützung. Melden Sie sich an, um loszulegen.
Wenn Sie es vorziehen, sich selbst zu veranstalten, verwenden Sie das Open-Source MEM0-Paket. Befolgen Sie die Installationsanweisungen, um loszulegen.
Installieren Sie das MEM0 -Paket über PIP:
pip install mem0aiAlternativ können Sie MEM0 mit einem Klick auf die gehostete Plattform verwenden.
MEM0 benötigt eine LLM, um zu funktionieren, wobei gpt-4o von OpenAI als Standardeinstellungen von OpenAI ist. Es unterstützt jedoch eine Vielzahl von LLMs. Weitere Informationen finden Sie in unserer unterstützten LLMS -Dokumentation.
Der erste Schritt besteht darin, den Speicher zu instanziieren:
from mem0 import Memory
m = Memory () import os
os . environ [ "OPENAI_API_KEY" ] = "sk-xxx"Sie können die folgende Aufgabe im Speicher ausführen:
# 1. Add: Store a memory from any unstructured text
result = m . add ( "I am working on improving my tennis skills. Suggest some online courses." , user_id = "alice" , metadata = { "category" : "hobbies" })
# Created memory --> 'Improving her tennis skills.' and 'Looking for online suggestions.' # 2. Update: update the memory
result = m . update ( memory_id = < memory_id_1 > , data = "Likes to play tennis on weekends" )
# Updated memory --> 'Likes to play tennis on weekends.' and 'Looking for online suggestions.' # 3. Search: search related memories
related_memories = m . search ( query = "What are Alice's hobbies?" , user_id = "alice" )
# Retrieved memory --> 'Likes to play tennis on weekends' # 4. Get all memories
all_memories = m . get_all ()
memory_id = all_memories [ "memories" ][ 0 ] [ "id" ] # get a memory_id
# All memory items --> 'Likes to play tennis on weekends.' and 'Looking for online suggestions.' # 5. Get memory history for a particular memory_id
history = m . history ( memory_id = < memory_id_1 > )
# Logs corresponding to memory_id_1 --> {'prev_value': 'Working on improving tennis skills and interested in online courses for tennis.', 'new_value': 'Likes to play tennis on weekends' } Tipp
Wenn Sie eine gehostete Version bevorzugen, ohne dass die Infrastruktur selbst eingerichtet werden muss, sehen Sie sich die MEM0 -Plattform an, um in wenigen Minuten loszulegen.
Um den Graph -Speicher zu initialisieren, müssen Sie Ihre Konfiguration mit Graph -Store -Anbietern einrichten. Derzeit unterstützen wir NEO4J als Graph Store -Anbieter. Sie können NEO4J lokal einrichten oder das gehostete Neo4j Auradb verwenden. Darüber hinaus müssen Sie die Version auf v1.1 festlegen ( frühere Versionen werden nicht unterstützt ). So können Sie es tun:
from mem0 import Memory
config = {
"graph_store" : {
"provider" : "neo4j" ,
"config" : {
"url" : "neo4j+s://xxx" ,
"username" : "neo4j" ,
"password" : "xxx"
}
},
"version" : "v1.1"
}
m = Memory . from_config ( config_dict = config )Ausführliche Verwendungsanweisungen und API -Referenzen finden Sie in unserer Dokumentation unter Docs.mem0.ai. Hier finden Sie weitere Informationen über die Open-Source-Version und die gehostete MEM0-Plattform.
Schließen Sie sich unserer Community an, um Unterstützung und Diskussionen zu erhalten. Wenn Sie Fragen haben, können Sie uns gerne mit einer der folgenden Methoden an uns wenden:
Schließen Sie sich unserer Discord -Community bei, um etwas über das Speichermanagement für AI -Agenten und LLMs zu erfahren und verbinden Sie sich mit MEM0 -Benutzern und Mitwirkenden. Teilen Sie Ihre Ideen, Fragen oder Feedback in unseren Github -Problemen.
Wir schätzen und schätzen die Beiträge unserer Gemeinschaft. Besonderer Dank geht an unsere Mitwirkenden für die Verbesserung von MEM0.
Wir sammeln anonyme Verwendungsmetriken, um die Qualität und Benutzererfahrung unseres Pakets zu verbessern. Dies umfasst Daten wie Feature -Nutzungsfrequenz und Systeminformationen, aber niemals persönliche Daten. Die Daten helfen uns, Verbesserungen zu priorisieren und die Kompatibilität sicherzustellen. Wenn Sie sich abmelden möchten, legen Sie die Umgebungsvariable mem0_telemetry = false fest. Wir priorisieren die Datensicherheit und teilen diese Daten nicht extern.
Dieses Projekt ist unter der Lizenz von Apache 2.0 lizenziert - Einzelheiten finden Sie in der Lizenzdatei.