redis ai resources
1.0.0
데모 | 레시피 | 튜토리얼 | 통합 | 내용 | 벤치 마크 | 문서
다이빙을하고 데모를 가지고 놀는 것보다 더 빠른 방법은 없습니다.
| 데모 | 설명 |
|---|---|
| Redis Rag Workbench | 인터랙티브 데모 사용자가 지원 PDF를 통해 래그 기반 챗봇을 구축합니다. 챗봇 성능과 품질을 향상시키기 위해 다양한 설정과 구성을 전환합니다. Redisvl, Langchain, Ragas 등을 사용합니다. |
| Redis vss- 간단한 간단한 데모 | Redis Vector 검색의 간소화 데모 |
| arxiv 검색 | React Fe를 사용한 Redis의 전체 스택 구현 |
| 제품 검색 | Redis Stack 및 Redis Enterprise를 사용한 벡터 검색 |
| Arxivchatguru | Redis & Openai와 함께 Arxiv 문서에 걸친 헝겊의 간소화 데모 |
Redis AI 여행을 시작하려면 빠른 스타트가 필요하십니까? 여기서 시작하십시오.
| 레시피 | 설명 |
|---|---|
| /redis-intro/00_REDIS_INTRO.IPYNB | Redis에 익숙하지 않은 경우 시작할 장소 |
| /vector-search/00_redispy.ipynb | Redis Python 클라이언트를 사용한 벡터 검색 |
| /vector-search/01_redisvl.ipynb | Redis 벡터 라이브러리를 사용한 벡터 검색 |
| /vector-search/02_hybrid_search.ipynb | Redis가있는 하이브리드 검색 기술 (BM25 + 벡터) |
| /vector-search/03_float16_support.ipynb | float32 인덱스를 변환하여 float16을 사용하는 방법을 보여줍니다. |
검색 증강 생성 (일명 래그)은 LLM이 사용자 쿼리에 응답 할 수있는 능력을 향상시키는 기술입니다. RAG의 검색 부분은 벡터 데이터베이스에 의해 지원되며, 이는 SEMANTINTING 결과를 사용자의 쿼리에 반환하여 LLM의 생성 기능을 강화하기 위한 문맥 정보 역할을 할 수 있습니다.
Rag를 처음부터 시작하거나 Llamaindex 또는 Langchain과 같은 인기있는 프레임 워크를 사용하려면 다음과 같은 레시피를 사용하십시오.
| 레시피 | 설명 |
|---|---|
| /rag/01_redisvl.ipynb | Redis Vector 라이브러리로 처음부터 래그 |
| /rag/02_langchain.ipynb | Redis와 Langchain을 사용하는 걸레 |
| /rag/03_llamaindex.ipynb | Redis와 Llamaindex를 사용한 헝겊 |
| /rag/04_advanced_redisvl.ipynb | 고급 헝겊 기술 |
| /rag/05_nvidia_ai_rag_redis.ipynb | Redis와 Nvidia nims를 사용한 래그 |
| /rag/06_ragas_evaluation.ipynb | ragas 프레임 워크를 활용하여 헝겊 성능을 평가합니다 |
LLM은 상태가 없습니다. 대화 내에서 컨텍스트를 유지하려면 채팅 세션을 저장하고 LLM에 분개해야합니다. Redis는 컨텍스트와 대화 관련성을 유지하기 위해 채팅 세션의 저장 및 검색을 관리합니다.
| 레시피 | 설명 |
|---|---|
| /llm-session-manager/00_session_manager.ipynb | 의미 론적 유사성을 가진 LLM 세션 관리자 |
| /llm-session-manager/01_multiple_sessions.ipynb | 하나의 인스턴스와 여러 개의 동시 채팅을 처리합니다 |
LLM 쿼리의 약 31%가 잠재적으로 중복됩니다 (소스). Redis는 시맨틱 캐싱이 LLM 비용을 빠르게 줄이는 데 도움이됩니다.
| 레시피 | 설명 |
|---|---|
| /semantic-cache/doc2cache_llama3_1.ipynb | Doc2Cache 프레임 워크 및 LLAMA3.1을 사용하여 시맨틱 캐시를 구축하십시오. |
| /semantic-cache/semantic_caching_gemini.ipynb | Redis 및 Google Gemini로 시맨틱 캐시를 구축하십시오 |
| 레시피 | 설명 |
|---|---|
| /agents/00_langgraph_redis_agentic_rag.ipynb | Lang-graph 및 에이전트를 시작할 노트북 |
| /agents/01_crewai_langgraph_redis.ipynb | Lang-graph 및 에이전트를 시작할 노트북 |
| 레시피 | 설명 |
|---|---|
| /computer-vision/00_facial_recognition_facenet.ipynb | Facenet Embedding 모델 및 Redisvl을 사용하여 얼굴 인식 시스템을 구축하십시오. |
| 레시피 | 설명 |
|---|---|
| /recommendation-systems/00_content_filtering.ipynb | redisvl을 사용한 소개 컨텐츠 필터링 예제 |
| /recommendation-systems/01_collaborative_filtering.ipynb | redisvl을 사용한 소개 공동 필터링 예제 |
다른 사용 사례와 주제를 통해 더 깊은 다이빙이 필요하십니까?
| 지도 시간 | 설명 |
|---|---|
| 에이전트 걸레 | Llamaindex 및 Cohere를 사용한 에이전트 래그에 중점을 둔 튜토리얼 |
| vertexai에 걸레 | Vertex AI가있는 Redis를 특징으로하는 Rag 튜토리얼 |
| NVIDIA MERLIN & REDIS와의 추천 시스템 | NVIDIA 및 REDIS와 함께 실시간 재생산을 구축하는 과정을 보여주는 각각의 복잡성에 대한 세 가지 예 |
Redis는 AI 생태계의 여러 플레이어와 통합됩니다. 다음은 다음은 선별 된 목록입니다.
| 완성 | 설명 |
|---|---|
| redisvl | 벡터 DB로서 Redis의 전용 파이썬 클라이언트 Lib |
| AWS 기반암 | Unified API로 기초 모델을 제공하여 Genai 배포를 간소화합니다. |
| 랭크인 파이썬 | Redis가 구동하는 LLM 애플리케이션 구축을위한 인기있는 Python Client Lib |
| Langchain JS | Redis가 구동하는 LLM 애플리케이션 구축을위한 인기있는 JS 클라이언트 LIB |
| llamaindex | 벡터 데이터베이스로서의 redis에 대한 llamaindex 통합 (이전 GPT-Index) |
| Litellm | 다중 파운데이션 모델의 사용을 관리하고 간소화하는 데 도움이되는 인기있는 LLM 프록시 계층 |
| 시맨틱 커널 | LLM을 플러그인과 통합하기 위해 MSFT의 인기있는 LIB |
| 관련 항인 | redis에 구축 된 구조화되지 않은 데이터를 태그, 검색 및 분석하는 플랫폼 |
| Docarray | jina ai의 vectordb로서 Redis의 docarray 통합 |