Ressources d'IA
Un référentiel organisé de recettes de code, démos, tutoriels et ressources pour les cas d'utilisation de base et avancés de redis dans l'écosystème de l'IA.
Démos | Recettes | Tutoriels | Intégrations | Contenu | Benchmarks | Docs
Démos
Pas de moyen plus rapide de commencer que de plonger et de jouer avec une démo.
| Démo | Description |
|---|
| Redis Rag Workbench | Demo interactif pour créer un chatbot basé sur des chiffons sur un PDF téléchargé par l'utilisateur. Bascule différents paramètres et configurations pour améliorer les performances et la qualité du chatbot. Utilise Redisvl, Langchain, Ragas, etc. |
| Redis vss - démonstration simple rationalisée | Rationalisation de la démo de la recherche de vecteur redis |
| Recherche arxiv | Implémentation complète de la pile de Redis avec React Fe |
| Recherche de produits | Recherche vectorielle avec Redis Stack et Redis Enterprise |
| Arxivchatguru | Rational la démo de chiffon sur les documents arxiv avec redis & openai |
Recettes
Besoin de Quickstarts pour commencer votre voyage Redis AI? Commencez ici.
Début avec Redis & Vector Search
| Recette | Description |
|---|
| /redis-intro/00_redis_intro.ipynb | L'endroit de commencer si nouveau dans Redis |
| /vector-search/00_redispy.ipynb | Recherche vectorielle avec le client redis python |
| /vector-search/01_redisvl.ipynb | Recherche vectorielle avec bibliothèque vectorielle redis |
| /vector-search/02_hybrid_search.ipynb | Techniques de recherche hybride avec redis (vecteur BM25 +) |
| /vector-search/03_float16_support.ipynb | Montre comment convertir un index float32 pour utiliser float16 |
Génération augmentée (RAG) de récupération (RAG)
La génération augmentée de récupération (AKA RAG) est une technique pour améliorer la capacité d'un LLM à répondre aux requêtes utilisateur. La partie de récupération du RAG est prise en charge par une base de données vectorielle, qui peut renvoyer des résultats sémantiquement pertinents à la requête d'un utilisateur, servant d'informations contextuelles pour augmenter les capacités génératives d'un LLM.
Pour commencer avec RAG, à partir de zéro, soit en utilisant un cadre populaire comme Llamaindex ou Langchain, optez pour ces recettes:
| Recette | Description |
|---|
| /Rag/01_redisvl.ipynb | Rag à partir de zéro avec la bibliothèque Vector Redis |
| /Rag/02_langchain.ipynb | Rag en utilisant Redis et Langchain |
| /Rag/03_llamaindex.ipynb | Chiffon utilisant redis et llamaindex |
| /Rag/04_advanced_redisvl.ipynb | Techniques de chiffon avancé |
| /Rag/05_nvidia_ai_rag_redis.ipynb | Chiffon utilisant redis et nvidia nims |
| /Rag/06_ragas_evaluation.ipynb | Utilisez le cadre Ragas pour évaluer les performances des chiffons |
Mémoire LLM
Les LLM sont apatrides. Pour maintenir le contexte dans une conversation, les séances de chat doivent être stockées et ressentir le LLM. Redis gère le stockage et la récupération des séances de chat pour maintenir le contexte et la pertinence conversationnelle.
| Recette | Description |
|---|
| /llm-session-manager/00_SESSION_MANager.ipynb | LLM Session Manager avec similitude sémantique |
| /llm-session-manager/01_multiple_ssesions.ipynb | Gérer plusieurs conversations simultanées avec une seule instance |
Cache sémantique
On estime que 31% des requêtes LLM sont potentiellement redondantes (source). Redis permet une mise en cache sémantique pour aider à réduire rapidement les coûts LLM.
| Recette | Description |
|---|
| /semantic-cache/doc2cache_llama3_1.ipynb | Construisez un cache sémantique en utilisant le framework Doc2Cache et LLAMA3.1 |
| /sémantique-cache/semantic_caching_gemini.ipynb | Construisez un cache sémantique avec Redis et Google Gemini |
Agents
| Recette | Description |
|---|
| /agents/00_langgraph_redis_agentic_rag.ipynb | Cahier pour commencer avec Lang-Graph et les agents |
| /agents/01_crewai_langgraph_redis.ipynb | Cahier pour commencer avec Lang-Graph et les agents |
Vision par ordinateur
| Recette | Description |
|---|
| /computer-vision/00_facial_recognition_facenet.ipynb | Construisez un système de reconnaissance faciale à l'aide du modèle d'intégration Facenet et Redisvl. |
Systèmes de recommandation
| Recette | Description |
|---|
| /RecomMendation-Systems/00_Content_filtering.ipynb | Exemple de filtrage de contenu d'intro avec redisvl |
| /RecomMendation-Systems/01_Collaborative_Filtering.ipynb | Intro Collaborative Filtring Exemple avec redisvl |
Tutoriels
Besoin d'une plongée plus profonde à travers différents cas d'utilisation et sujets?
| Tutoriel | Description |
|---|
| Chiffon agentique | Un tutoriel axé sur le chiffon agentique avec Llamaindex et Cohere |
| Chiffon sur vertexai | Un tutoriel de chiffon avec Redis avec Vertex AI |
| Systèmes de recommandation avec Nvidia Merlin & Redis | Trois exemples, chacun dégénérant de complexité, présentant le processus de construction d'un Recsys en temps réel avec Nvidia et Redis |
Intégrations
Redis s'intègre à de nombreux joueurs différents dans l'écosystème de l'IA. Voici une liste organisée ci-dessous:
| Intégration | Description |
|---|
| Redisvl | Une lib client dédié Python pour redis en tant que Vector DB |
| Bouilloire AWS | Rationalise le déploiement de Genai en offrant des modèles fondamentaux en tant qu'API unifiés |
| Langchain Python | Client Python populaire lib pour les applications LLM de construction alimentées par redis |
| Langchain JS | Client JS populaire lib pour les applications LLM de construction alimentées par redis |
| Llamaindex | Intégration Llamaindex pour Redis en tant que base de données vectorielle (anciennement GPT-index) |
| Litrellm | Couche proxy LLM populaire pour aider à gérer et à rationaliser l'utilisation de plusieurs modèles de fondation |
| Noyau sémantique | LIB populaire par MSFT pour intégrer les LLM avec les plugins |
| Pertinence | Plate-forme pour taguer, rechercher et analyser des données non structurées plus rapidement, construite sur redis |
| Docarray | Docarray Intégration de Redis en tant que vectordb par Jina Ai |
Contenu
- Recherche de similitude vectorielle: de Basics to Production - Article de blog d'introduction à VSS et Redis en tant que VectordB.
- Améliorer la qualité des chiffons avec les ragas
- Rag de niveau-haut avec redisvl
- Bases de données vectorielles et modèles de grandes langues - Talk donné chez LLMS dans la partie de production 1 par Sam Partee.
- Bases de données vectorielles et conférence de recherche alimentée par AI - Vidéo "Bases de données vectorielles et recherche alimentée par AI" donnée par SAM Partee au SDSC 2023.
- Recommandations de produits en temps réel - Conception de Recsys basée sur le contenu avec redis et docarray.
- Nvidia recsys avec redis
- Lablab Ai Redis Tech Page
- Stocker et interroger pour les intégres avec redis
- Construire des applications intelligentes avec une recherche de similitude Redis Vector
- Redisdays Trading Signals - Vidéo "Utilisation de l'IA pour révéler les signaux de trading enfouis dans les documents d'entreprise".
Repères
- Benchmarking Résultats pour les bases de données vectorielles - Résultats de l'analyse comparative pour les bases de données vectorielles, y compris Redis et 7 autres lecteurs de base de données vectoriels.
- Ann Benchmarks - Site de référence ANN standard. Uniquement en utilisant une instance / client de redis OSS unique.
Docs
- Docs de la bibliothèque vectorielle redis
- Redis Vector Database QuickStart
- Docs de similitudes de vecteur redis - Littérature officielle Redis pour la recherche de similitude vectorielle.
- Redis-Py Search Docs - Redis-Py Client Library Docs for redisearch.
- Redis-Py General Docs - Reded-Py Client Library Documentation.
- Reded Stack - Reded Stack Documentation.
- Clients redis - Liste des clients redis.