Applications LLM et infusées AI avec Java & Spring AI
Échantillons montrant comment construire des applications Java alimentées par des modèles générateurs et des modèles de langage grand (LLMS) à l'aide de Spring AI.
Pré-requis
Cas d'utilisation
? Chatbot chatbot utilisant LLMS via Olllama.
❓ Question répondant aux questions répondant avec des documents (RAG) utilisant des LLM via Olllama et PGVector.
? Recherche sémantique Recherche sémantique utilisant des LLM via Olllama et PGVector.
Extraction de données structurées
Extraction de données structurées à l'aide de LLMS via Olllama.
? ️ Classification de texte Classification de texte à l'aide de LLMS via Olllama.
? Modèles
Modèles de chat
Achèvement de chat avec LLMS via différents fournisseurs de modèles:
- Mistral Ai
- Ollla
- Openai
- Plusieurs fournisseurs
? Modèles d'intégration
Transformation vectorielle (intégres) avec LLMS via différents fournisseurs de modèles:
- Mistral Ai
- Ollla
- Openai
- Transformateurs ONNX
? Modèles d'image
Génération d'images avec LLMS via différents fournisseurs de modèles:
? Modèles audio
Génération de discours avec LLMS via différents fournisseurs de modèles:
Transcription de la parole avec LLMS via différents fournisseurs de modèles:
? ️ Modèles de modération
À venir
? Motifs
Invites, messages et modèles
Inviter l'utilisation de texte simple:
Provoquer l'utilisation de messages et de rôles structurés:
Incité à utiliser des modèles:
Sortie structurée
Conversion de la sortie LLM en objets JSON et Java structurés:
Multimodalité
Y compris divers médias dans des invites avec LLMS:
Fonction d'appel / outils
Fonction Appel avec LLMS via différents fournisseurs de modèles:
? Mémoire
À venir
? Ingestion de données
Documenter les lecteurs
Documents de lecture et de vectorisation avec LLMS via Olllama:
- Json
- Réduction
- Pdf
- Texte
- Tika
Transformers de documents
Transformation de document avec LLMS via Olllama:
- Métadonnées
Enrichir les documents avec des mots clés et des métadonnées sommaires pour une récupération améliorée. - Séparateurs
Divisez les documents en morceaux pour s'adapter à la fenêtre de contexte LLM.
? Magasins vectoriels
À venir
Génération augmentée (RAG) de récupération (RAG)
Question répondant avec des documents utilisant différents flux de chiffons (avec Olllama et PGVector):
Rag séquentiel
❔ Rague conditionnelle
? Rag de ramification
Observabilité
? Observabilité LLM
Observabilité LLM pour différents fournisseurs de modèles:
? Observabilité du magasin vectoriel
Observabilité du magasin vectoriel pour différents magasins vectoriels:
? Évaluation
À venir
? Agents
À venir
Références et ressources supplémentaires
- Documentation de référence Spring AI
? Conférences
- Présentation du printemps AI par Christian Tzolov et Mark Pollack (printemps E / S 2024)
- Spring AI est tout ce dont vous avez besoin par Christian Tzolov (Goto Amsterdam 2024)
- Concerto pour Java et AI - Bâtiment applications LLM prêtes à la production par Thomas Vitale (printemps E / S 2024)
? Vidéos
- Construire des applications intelligentes avec Spring AI par Dan Vega (JetBrains Live Stream)
- Spring AI Series par Dan Vega
- Série Spring AI par Craig Walls
- Spring AI Series par Josh Long
? Démos
- Support client des compagnies aériennes (Marcus Hellberg)
- Assistant compositeur (Thomas Vitale)
- Assistant de document (Marcus Hellberg)
- Réservation de vols (Christian Tzolov)
Ateliers
- Spring Ai - Zero to Hero (Adib Saikali, Christian Tzolov)
- Applications AI avec Java et Spring AI (Thomas Vitale)