par Denis Rothman 
Dernière mise à jour: 30 octobre 2024
Ce dépôt est continuellement mis à jour et mis à niveau.
Pour plus de détails sur les mises à jour et les améliorations, consultez le Changelog.
Si vous voyez quelque chose qui ne fonctionne pas comme prévu, soulevez un problème et nous y travaillerons!
Chercher? Pour explorer de nouveaux cahiers de bonus tels que les modèles de raisonnement d'Openai O1, l'API de MidJourney, l'API Google Vertex AI Gemini, Openai Asynchronous Batch API Cappel!
Chercher? Pour explorer les cahiers existants pour les dernières versions du modèle ou de la plate-forme , telles que les derniers modèles GPT-4O et GPT-4O-Mini d'OpenAI.
Chercher? Pour exécuter des cahiers existants avec de nouvelles versions de dépendance et des contraintes et ajustements de l'API de plate-forme.
Il s'agit du référentiel de code pour les transformateurs pour le traitement du langage naturel et la vision par ordinateur, publié par Packt.
Explorez des modèles génératifs d'IA et de grands langues avec un visage étreint, Chatgpt, GPT-4V et Dall-E 3
Transformers for Natural Language Processing and Computer Vision, Third Edition, explore les architectures, les applications et les diverses plateformes du modèle grand langage ( Face Hugging, Openai et Google Vertex AI) utilisés pour le traitement du langage naturel ( NLP ) et la vision par ordinateur ( CV ).
Plongez dans des transformateurs de vision générative et des architectures de modèle multimodales et des applications de construction, telles que des classificateurs d'image et de vidéo à texte. Allez plus loin en combinant différents modèles et plateformes et en apprenant la réplication des agents d'IA.
Annexe: Réponses aux questions
Vous pouvez exécuter les ordinateurs portables directement à partir du tableau ci-dessous:
| Chapitre | Colab | Se gêner | Pente | Stuolioab |
|---|---|---|---|---|
| Partie I Les fondements des modèles de transformateur | ||||
| Chapitre 1: Que sont les transformateurs? | ||||
| ||||
| Chapitre 2: Début avec l'architecture du modèle Transformer | ||||
| ||||
| Chapitre 3: Tâches émergentes vs en aval: les profondeurs invisibles des transformateurs | ||||
| ||||
| Chapitre 4: Avancements dans les traductions avec Google Trax, Google Translate et Google Bard | ||||
| ||||
| Chapitre 5: plonger dans le réglage fin à Bert | ||||
| ||||
| Chapitre 6: Preteriner un transformateur à partir de zéro à travers Roberta | ||||
| ||||
| Partie II: La montée en puissance de la PNL suprahuman | ||||
| Chapitre 7: La révolution générative de l'IA avec Chatgpt | ||||
| ||||
| Modèles de raisonnement OpenAI: l'API O1-Preview | ||||
| ||||
| Chapitre 8: Modèles Openai de réglage fin | ||||
| ||||
| Chapitre 9: Bâter la boîte noire avec des outils interprétables | ||||
| ||||
| Chapitre 10: Enquêter sur le rôle des tokenniseurs dans la formation des modèles de transformateurs | ||||
| ||||
| Chapitre 11: Tire en tirant des incorporations LLM comme alternative à un réglage fin | ||||
| ||||
| Chapitre 12: Vers l'étiquetage des rôles sémantiques sans syntaxe avec le chatppt de Bert et Openai | ||||
| ||||
| Chapitre 13: Résumé avec T5 et Chatgpt | ||||
| ||||
| Chapitre 14: Exploration de la NLP de pointe avec Google Vertex AI (Palm et? Gemini avec Gemini-1.5-Flash-001 | ||||
| ||||
| Chapitre 15: Garder les géants: les risques atténuants dans les modèles de grande langue < | ||||
| ||||
| Partie III: Vision générative de l'ordinateur: une nouvelle façon de voir le monde | ||||
| Chapitre 16: Transformers de vision à l'aube de l'IA révolutionnaire | ||||
| ||||
| Chapitre 17: Transcendant la limite de texte d'image avec une diffusion stable | ||||
| ||||
| Diffusion stable avec un visage étreint | ||||
| ||||
| Chapitre 18: Formation automatisée du transformateur de vision | ||||
| ||||
| Chapitre 19: Sur la route de l'AGI fonctionnel avec des câlins et ses pairs | ||||
| ||||
| Chapitre 20: Vertex de l'idéation générative AI, Langchain et diffusion stable | ||||
|
Discutez avec mon bot GPT4 personnalisé pour ce référentiel.
Vous pouvez poser des questions sur ce référentiel. Vous pouvez également copier le code à partir des ordinateurs portables dans mon chat GPT et demander des explications.
Il s'agit d'un chatbot augmenté en entrée de pointe construit sur OpenAI pour ce référentiel GitHub. OpenAI nécessite un abonnement Chatgpt Plus pour l'explorer.
Limites: Il s'agit d'un chatbot expérimental. Il est dédié à ce référentiel GitHub et ne remplace pas les explications fournies dans le livre. Mais vous pouvez sûrement avoir des interactions éducatives intéressantes avec mon chatbot GPT-4.
Vous pouvez créer un problème, nous serons heureux de fournir un support! Dans ce référentiel si vous en rencontrez un dans les ordinateurs portables.
Si vous pensez que ce livre est pour vous, obtenez votre copie dès aujourd'hui!
Vous pouvez vous engager plus sur le serveur Discord pour plus de dernières mises à jour et discussions dans la communauté de Discord
Si vous avez déjà acheté une version imprimée ou Kindle de ce livre, vous pouvez obtenir une version PDF sans DRM sans frais. Cliquez simplement sur le lien pour réclamer votre PDF gratuit
Nous fournissons également un fichier PDF qui a des images en couleur des captures d'écran / diagrammes utilisés dans ce livre chez colorimages
Denis Rothman est diplômé de l'Université de Sorbonne et de l'Université de Paris-Cité, concevant l'un des premiers systèmes de codage et d'incorporation brevetés et l'enseignement à Paris-I Panthéon Sorbonne.Il a rédigé l'un des premiers mots brevetés en codage et en robots / robots. Il a commencé sa carrière à livrer un chatbot de traitement du langage naturel (NLP) pour Moët et Chandon (LVMH) et un optimiseur de défense tactique AI pour Airbus (anciennement Aerospatiale). Denis est ensuite l'auteur d'un optimiseur d'IA pour les marques IBM et de luxe, conduisant à une solution avancée de planification et de planification (APS) utilisée dans le monde entier. Liendin