L'intelligence artificielle générative (Genai) transforme rapidement divers domaines en introduisant des niveaux sans précédent de nouveauté, de créativité et de productivité, "créant le plus grand changement technologique de notre vie". Avec sa capacité à répondre aux instructions en langage naturel de type humain, Genai ajoute une nouvelle dimension interactive aux applications d'IA. Il génère un nouveau contenu - texte, audio, images et vidéo - des données existantes, réalisant des exploits auparavant inimaginables. En outre, le Genai excelle dans la productivité, surpassant les humains dans certaines tâches de vitesse et d'efficacité.

Bienvenue au Genai Cookbook, un mélange de recettes pratiques et de guides pour l'utilisation de LLMS. Cette collection couvre une large gamme d'applications de traitement du langage naturel (NLP) à l'aide de modèles de langue:
LLM Prompting Strategies : Get-started examples to prompting techniques DSPy Framework : Explore alternatives to prompt engineering with declarative and programmatic approaches to programming LLMs Simple Chatbots : Learn the basics of building interactive AI Retrieval Generation Augmentation (RAGs) : Incorporate personal or organizational data for more accurate responses Fine-Tuning LLMs : Customize models for domain-specific tasks for form, Format et fonctionnalité LLM en format et en tonalité: utilisez des agents et des fonctions pour améliorer les capacités en interagissant avec des outils externes et des sources de données utilisant des modèles de langage principaux : guides pratiques pour l'utilisation de modèles et de plates-formes d'inférence à partir d'Openai, anthropic, Gemini, Meta, Anyscale Tpoints, Ollama et Databricks.
Destiné aux développeurs débutants, ce livre fournit un exemple de code et de guides pratiques, présentant comment utiliser les API et les frameworks à partir de plates-formes de premier plan. Commencez votre voyage et découvrez le potentiel du Genai.
Pour essayer ces exemples, vous aurez besoin d'un compte OpenAI et d'une clé API associée, anthropic, pinecone, plate-forme intelligente Databricks Data ou un compte de terminaison AnyScale et une clé associée. Encore mieux, installez Olllama sur votre ordinateur portable.
Tous les exemples et cahiers sont dans Python, mais les concepts peuvent être adaptés à n'importe quel langage de programmation, tant que vous pouvez passer des appels d'API REST dans le langage cible ou utiliser le SDK du langage cible.
Certains exemples de ce livre de cuisine sont inspirés (certains modifiés, élargis ou copiés) à partir de ces ressources, notamment:
| Noms d'annuaire | Description |
|---|---|
| Genai_intro | Introduction générale à Genai, modèles de fondation, GPTS |
| agents | Quels sont les agents, Archiricture d'agent en évolution, pourquoi les utiliser et comment écrire des agents |
| assistants | Les assistants OpenAI étendent les fonctionnalités LLM pour travailler et interagissent avec des outils externes, permettant l'accès à des services externes tels que les services Web et les bases de données. Comment travailler avec des assistants OpenAI pour mettre en œuvre des agents |
| chatbots | Application commune dans le service client, comment rédiger des chatbots simples et conversationnels avec LLMS, en utilisant des techniques d'incitation |
| dspy | Aperçu rapide d'un cadre déclaractif pour programmer les LLMS: quoi et pourquoi et comment utiliser DSPY |
| incorporation et vectordbs | Introduction aux intérêts vectoriels et leur rôle dans les recherches sémantiques pour les applications LLM GEN. Les intérêts vectoriels sont au cœur de la génération d'augmentation de récupération. Explorez les magasins vectoriels communs comme retreivers pour les documents indexés |
| évaluation | L'évaluation de LLM n'est pas facile et désordonnée; cela peut sembler être un art sombre. Mais certains outils, comme MLFlow, fournissent l'expérimentation, l'exploitation forestière, le suivi et le traçage pour évaluer les LLM |
| réglage fin | L'utilisation courante de LLM pour gérer les tâches spécifiques au domaine est via un réglage fin. Pourquoi et quand affiner pour votre tâche spécifique au domaine aux réponses, ton et format personnalisés |
| appelant les fonctions | Comment utiliser à la fois OpenAI et Open-Source LLM Funciton appelle pour étendre la fonctionnalité LLM |
| LLM-PROMPTS | Une introduction à une myriade de techniques d'ingénierie rapide à l'aide de modèles LLM fermés et open source |
| chiffons | La génération d'augmentation de la récupération (RAG) est le Taylor Swift des applications LLM; Tout le monde les veut; Tout le monde écrit à leur sujet; Tout le monde les construit. Une introduction à différents types de chiffons, quand les utiliser sur un tunine fin, et comment les mettre en œuvre pour vos données, augmenter la précision et diminuer les halucinations dans vos réponses |
Étant donné que j'utilise OpenAI, Anthropic, Google Gemmini ou n'importe quel point de terminaison, je fournis des fichiers de modèle d'environnement respectifs: Env_anysCale_Template , Env_anthropic_template , Env_Google_Template et Env_Openai_Template .
Ajoutez vos clés et le nom du modèle dans l'un des fichiers et copiez le fichier dans .env dans le répertoire de niveau supérieur. Pour migrer n'importe quel code OpenAI vers tous les points de terminaison à l'échelle, utilisez ce guide simple. Pour la plupart, la migration est transparente.
De plus, vous aurez besoin de quelques bibliothèques Python. Utilisez pip install -r requirements.txt pour les installer.
Remarque : ne partagez pas vos fichiers environnementaux avec les clés API publiquement.
Je salue les contributions. En faisons une ressource générative axée sur la communauté des développeurs d'IA. Vos contributions peuvent inclure des ajouts ou des extensions de ces guides pratiques.
Vérifiez les problèmes existants et tracez les demandes avant de contribuer à éviter la duplication. Si vous avez des suggestions d'exemples ou de guides, partagez-les sur la page des problèmes.
Ayez Genai Fun! ? ️
Jules