KI -Ressourcen
Ein kuratiertes Repository von Code -Rezepten, Demos, Tutorials und Ressourcen für grundlegende und erweiterte Redis -Anwendungsfälle im AI -Ökosystem.
Demos | Rezepte | Tutorials | Integrationen | Inhalt | Benchmarks | Dokumente
Demos
Kein schnellerer Weg, um loszulegen, als durch Eintauchen und mit einer Demo herumzuspielen.
| Demo | Beschreibung |
|---|
| Redis Rag Workbench | Interaktive Demo zum Erstellen eines Lappen-basierten Chatbots über einem von Benutzer vorgeladenen PDF. Schalten Sie verschiedene Einstellungen und Konfigurationen um, um die Leistung und Qualität der Chatbot zu verbessern. Verwendet Redisvl, Langchain, Ragas und mehr. |
| Redis VSS - Einfache strombare Demo | Stromlit -Demo der Redis -Vektor -Suche |
| Arxiv -Suche | Vollstapel -Implementierung von Redis mit React Fe |
| Produktsuche | Vektorsuche mit Redis Stack und Redis Enterprise |
| Arxivchatguru | Stromlitische Demo von Rag über Arxiv -Dokumenten mit Redis & Openai |
Rezepte
Benötigen Sie QuickStarts, um Ihre Redis AI -Reise zu beginnen? Beginnen Sie hier.
Erste Schritte mit Redis & Vectorsuche
| Rezept | Beschreibung |
|---|
| /Redis-intro/00_redis_Intro.ipynb | Der Ort, an dem Sie anfangen können, wenn Sie brandneu zu reduzieren |
| /Vector-search/00_redispy.ipynb | Vektorsuche mit Redis Python Client |
| /Vector-search/01_redisvl.ipynb | Vektorsuche mit Redis Vector Library |
| /Vector-search/02_Hybrid_search.ipynb | Hybrid -Suchtechniken mit Redis (BM25 + Vektor) |
| /Vector-search/03_float16_support.ipynb | Zeigt, wie ein Float32 -Index für die Verwendung von Float16 konvertiert wird |
Abrufer Augmented Generation (LAG)
Abrufener Augmented Generation (auch bekannt als Rag) ist eine Technik, um die Fähigkeit eines LLM zu verbessern, auf Benutzeranfragen zu reagieren. Der Abrufenteil von RAG wird durch eine Vektor -Datenbank unterstützt, die semantisch relevante Ergebnisse in die Abfrage eines Benutzers zurückgeben kann und als Kontextinformationen dient, um die generativen Funktionen eines LLM zu erweitern .
Um mit RAG zu beginnen, entweder von Grund auf oder verwenden Sie ein beliebtes Framework wie Llamaindex oder Langchain, gehen Sie mit folgenden Rezepten:
| Rezept | Beschreibung |
|---|
| /Rag/01_redisvl.ipynb | Lappen von Grund auf neu mit der Redis Vector Library |
| /Rag/02_langchain.ipynb | Lappen mit Redis und Langchain |
| /Rag/03_llamaindex.ipynb | Lappen mit Redis und Llamaindex |
| /Rag/04_advanced_redisvl.ipynb | Fortgeschrittene Lappentechniken |
| /Rag/05_nvidia_ai_rag_redis.ipynb | Lappen mit Redis und Nvidia nims |
| /Rag/06_ragas_evaluation.ipynb | Verwenden Sie das Ragas -Framework, um die Lagleistung zu bewerten |
LLM -Speicher
LLMs sind staatenlos. Um den Kontext innerhalb einer Gesprächs -Chat -Sitzungen aufrechtzuerhalten, müssen die LLM gespeichert und ärgern. Redis verwaltet die Speicherung und das Abrufen von Chat -Sitzungen, um Kontext und Konversationsrelevanz aufrechtzuerhalten.
| Rezept | Beschreibung |
|---|
| /llm-sitzend-Manager/00_Session_Manager.ipynb | LLM Session Manager mit semantischer Ähnlichkeit |
| /llm-sitzend-Manager/01_Multiple_Sessions.ipynb | Behandeln Sie mehrere gleichzeitige Chats mit einer Instanz |
Semantischer Cache
Schätzungsweise 31% der LLM -Abfragen sind potenziell überflüssig (Quelle). Redis ermöglicht es semantischem Caching, die LLM -Kosten schnell zu senken.
| Rezept | Beschreibung |
|---|
| /Semantic-cache/doc2cache_llama3_1.ipynb | Erstellen Sie einen semantischen Cache mit dem DOC2Cache Framework und LLAMA3.1 |
| /Semantic-cache/semantic_caching_gemini.ipynb | Erstellen Sie einen semantischen Cache mit Redis und Google Gemini |
Agenten
| Rezept | Beschreibung |
|---|
| /agss/00_langgraph_redis_agentic_rag.ipynb | Notizbuch, um mit Lang-Graph und Agenten zu beginnen |
| /agss/01_crewai_langgraph_redis.ipynb | Notizbuch, um mit Lang-Graph und Agenten zu beginnen |
Computer Vision
| Rezept | Beschreibung |
|---|
| /computer-vision/00_facial_recognition_facenet.ipynb | Erstellen Sie ein Gesichtserkennungssystem unter Verwendung des Spaceet -Einbettungsmodells und der Redisvl. |
Empfehlungssysteme
| Rezept | Beschreibung |
|---|
| /Recommendation-systems/00_content_filtering.ipynb | Beispiele für Inhaltsinhalte mit redisvl |
| /recommendation-systems/01_collaborative_filtering.ipynb | Intro Collaborative Filtering Beispiel mit redisvl |
Tutorials
Benötigen Sie ein tieferes Tauchgang durch verschiedene Anwendungsfälle und Themen?
| Tutorial | Beschreibung |
|---|
| Agentenlappen | Ein Tutorial, das sich auf Agentenlappen mit Lamaindex und Cohere konzentriert |
| Lappen auf Scheitelpunkt | Ein Lag -Tutorial mit Redis mit Scheitelpunkt AI |
| Empfehlungssysteme mit Nvidia Merlin & Redis | Drei Beispiele, die jeweils in Komplexität eskalieren, zeigt den Prozess des Aufbaus von Realtime Recsys mit Nvidia und Redis |
Integrationen
Redis integriert sich in viele verschiedene Spieler im AI -Ökosystem. Hier ist eine kuratierte Liste unten:
| Integration | Beschreibung |
|---|
| Redisvl | Ein dedizierter Python -Client Lib für Redis als Vektor DB |
| AWS -Grundgestein | Stromlinien für den Einsatz von Genai, indem Grundmodelle als einheitliche API angeboten werden |
| Langchain Python | Beliebter Python -Kunde LIB für den Bau von LLM -Anwendungen, die von Redis betrieben werden |
| Langchain JS | Beliebter JS -Kunde LIB für den Bau von LLM -Anwendungen, die von Redis betrieben werden |
| Llamaindex | Lamaindex-Integration für Redis als Vektordatenbank (ehemals GPT-Index) |
| Litellm | Beliebte LLM -Proxy -Ebene, um die Verwendung mehrerer Fundamentmodelle zu verwalten und zu optimieren |
| Semantischer Kernel | Beliebte lib von MSFT zur Integration von LLMs in Plugins |
| Relevance | Plattform zum Markieren, Durchsuchen und Analysieren von unstrukturierten Daten schneller, die auf Redis basieren |
| Docarray | Docarray -Integration von Redis als Vectordb von Jina AI |
Inhalt
- Vektor -Ähnlichkeitssuche: Von den Grundlagen bis zur Produktion - Einführungsblog -Beitrag bis VSS und Redis als Vektordb.
- Verbesserung der Lumpenqualität mit Ragas
- Level-up-Lappen mit Redisvl
- Vektordatenbanken und Großsprachmodelle - Gespräche bei LLMs in Produktion Teil 1 von SAM Partee.
- Vektordatenbanken und KI-angetriebene Suchgespräch-Video "Vektordatenbanken und AI-angetriebene Suche" von SAM Partee unter SDSC 2023.
- Echtzeit-Produktempfehlungen-inhaltsbasiertes Recsys-Design mit Redis und Docarray.
- Nvidia Recsys mit Redis
- Lablab AI Redis Tech Seite
- Speichern und Abfragen nach Einbettungen mit Redis
- Erstellen intelligenter Apps mit Redis -Vektor -Ähnlichkeitssuche
- Redisdays Handelssignale - Video "Verwenden von AI, um Handelssignale in Unternehmensanträgen zu enthüllen".
Benchmarks
- Benchmarking -Ergebnisse für Vektordatenbanken - Benchmarking -Ergebnisse für Vektordatenbanken, einschließlich Redis und 7 weiteren Vektor -Datenbankplayern.
- Ann Benchmarks - Standard -Ann -Benchmarks -Standort. Nur mit einer einzelnen Redis -OSS -Instanz/Client.
Dokumente
- Redis Vector Library Docs
- Redis Vector Database QuickStart
- REDIS -Vektor -Ähnlichkeitsdokumente - Offizielle Redisliteratur zur Suche nach Vektorähnlichkeit.
- Redis-Py Search Docs-Redis-Py Client-Bibliotheksdokumente für Redisearch.
- Redis-Py General Docs-Dokumentation der Redis-Py Client Library.
- Redis Stack - Redis Stack -Dokumentation.
- Redis Clients - Redis Client -Liste.