
자세히 알아보기 · Discord 가입
MEM0 ( "MEM-ZERO"로 발음)은 지능형 메모리 레이어를 갖춘 AI 비서 및 에이전트를 향상시켜 개인화 된 AI 상호 작용을 가능하게합니다. MEM0은 사용자 선호도를 기억하고, 개별 요구에 적응하고, 시간이 지남에 따라 지속적으로 향상되어 고객 지원 챗봇, AI 비서 및 자율 시스템에 이상적입니다.
새로운 기능 : 그래프 메모리 소개. 문서를 확인하십시오.
MEM0은 하이브리드 데이터베이스 접근 방식을 활용하여 AI 에이전트 및 조수에 대한 장기 기억을 관리하고 검색합니다. 각 메모리는 사용자 ID 또는 에이전트 ID와 같은 고유 식별자와 관련되어 MEM0이 개인 또는 컨텍스트에 맞는 메모리를 구성하고 액세스 할 수 있습니다.
ADD () 메소드를 사용하여 MEM0에 메시지가 추가되면 시스템은 관련 사실 및 기본 설정을 추출하고 데이터 저장에 걸쳐 벡터 데이터베이스, 키 값 데이터베이스 및 그래프 데이터베이스를 저장합니다. 이 하이브리드 접근 방식은 다양한 유형의 정보가 가장 효율적인 방식으로 저장되도록하여 후속 검색이 빠르고 효과적입니다.
AI 에이전트 또는 LLM이 메모리를 기억 해야하는 경우 검색 () 메소드를 사용합니다. 그런 다음 MEM0은 이러한 데이터 저장소에서 검색을 수행하여 각 소스에서 관련 정보를 검색합니다. 그런 다음이 정보는 점수 계층을 통해 전달되며, 이는 관련성, 중요성 및 기대에 따라 중요성을 평가합니다. 이를 통해 가장 개인화되고 유용한 컨텍스트 만 표시됩니다.
검색된 기억은 필요에 따라 LLM의 프롬프트에 추가되어 응답의 개인화와 관련성을 향상시킬 수 있습니다.
MEM0은 조직과 개인이 향상시킬 수 있도록합니다.
MEM0을 설정하는 가장 쉬운 방법은 관리되는 MEM0 플랫폼을 통한 것입니다. 이 호스팅 솔루션은 자동 업데이트, 고급 분석 및 전용 지원을 제공합니다. 시작하려면 가입하십시오.
자조를 선호하는 경우 Open-Source MEM0 패키지를 사용하십시오. 설치 지침을 따라 시작하려면 시작하십시오.
PIP를 통해 MEM0 패키지를 설치하십시오.
pip install mem0ai또는 여기에서 호스팅 된 플랫폼을 한 번 클릭하면 MEM0을 사용할 수 있습니다.
MEM0은 OpenAI의 gpt-4o 와 함께 LLM을 기능해야합니다. 그러나 다양한 LLM을 지원합니다. 자세한 내용은 지원되는 LLMS 문서를 참조하십시오.
첫 번째 단계는 메모리를 인스턴스화하는 것입니다.
from mem0 import Memory
m = Memory () import os
os . environ [ "OPENAI_API_KEY" ] = "sk-xxx"메모리에서 다음 작업을 수행 할 수 있습니다.
# 1. Add: Store a memory from any unstructured text
result = m . add ( "I am working on improving my tennis skills. Suggest some online courses." , user_id = "alice" , metadata = { "category" : "hobbies" })
# Created memory --> 'Improving her tennis skills.' and 'Looking for online suggestions.' # 2. Update: update the memory
result = m . update ( memory_id = < memory_id_1 > , data = "Likes to play tennis on weekends" )
# Updated memory --> 'Likes to play tennis on weekends.' and 'Looking for online suggestions.' # 3. Search: search related memories
related_memories = m . search ( query = "What are Alice's hobbies?" , user_id = "alice" )
# Retrieved memory --> 'Likes to play tennis on weekends' # 4. Get all memories
all_memories = m . get_all ()
memory_id = all_memories [ "memories" ][ 0 ] [ "id" ] # get a memory_id
# All memory items --> 'Likes to play tennis on weekends.' and 'Looking for online suggestions.' # 5. Get memory history for a particular memory_id
history = m . history ( memory_id = < memory_id_1 > )
# Logs corresponding to memory_id_1 --> {'prev_value': 'Working on improving tennis skills and interested in online courses for tennis.', 'new_value': 'Likes to play tennis on weekends' } 팁
인프라를 직접 설정할 필요없이 호스팅 된 버전을 선호하는 경우 MEM0 플랫폼을 확인하여 몇 분 안에 시작하십시오.
그래프 메모리를 초기화하려면 그래프 스토어 제공 업체로 구성을 설정해야합니다. 현재 우리는 그래프 스토어 제공 업체로서 NEO4J를 지원합니다. NEO4J를 로컬로 설정하거나 호스팅 된 NEO4J AuradB를 사용할 수 있습니다. 또한 버전을 v1.1 로 설정해야합니다 ( 사전 버전은 지원되지 않음 ). 당신이 할 수있는 방법은 다음과 같습니다.
from mem0 import Memory
config = {
"graph_store" : {
"provider" : "neo4j" ,
"config" : {
"url" : "neo4j+s://xxx" ,
"username" : "neo4j" ,
"password" : "xxx"
}
},
"version" : "v1.1"
}
m = Memory . from_config ( config_dict = config )자세한 사용 지침 및 API 참조는 Docs.mem0.ai의 문서를 방문하십시오. 여기서 오픈 소스 버전과 호스팅 된 MEM0 플랫폼 모두에 대한 자세한 정보를 찾을 수 있습니다.
지원 및 토론을 위해 커뮤니티에 가입하십시오. 질문이 있으시면 다음 방법 중 하나를 사용하여 언제든지 저희에게 연락하십시오.
Discord 커뮤니티에 가입하여 AI 에이전트 및 LLM의 메모리 관리에 대해 배우고 MEM0 사용자 및 기여자와 연결하십시오. GitHub 문제에서 귀하의 아이디어, 질문 또는 피드백을 공유하십시오.
우리는 지역 사회의 기여를 소중히 여기고 감사합니다. MEM0을 향상시키는 데 도움을 준 기고자들에게 특별한 감사를드립니다.
패키지의 품질 및 사용자 경험을 향상시키기 위해 익명 사용 메트릭을 수집합니다. 여기에는 기능 사용 빈도 및 시스템 정보와 같은 데이터가 포함되지만 개인 정보는 포함되지 않습니다. 이 데이터는 개선의 우선 순위를 정하고 호환성을 보장하는 데 도움이됩니다. 옵트 아웃하려면 환경 변수 mem0_telemetry = false를 설정하십시오. 우리는 데이터 보안의 우선 순위를 정하고이 데이터를 외부에서 공유하지 않습니다.
이 프로젝트는 Apache 2.0 라이센스에 따라 라이센스가 부여됩니다. 자세한 내용은 라이센스 파일을 참조하십시오.