von Denis Rothman 
Zuletzt aktualisiert: 30. Oktober 2024
Dieses Repo wird ständig aktualisiert und aktualisiert.
Einzelheiten zu Updates und Verbesserungen finden Sie im Changelog.
Wenn Sie etwas sehen, das nicht wie erwartet läuft, wecken Sie ein Problem und wir werden daran arbeiten!
Suchen Sie nach? Um neue Bonus -Notizbücher wie OpenAI O1 -Argumentationsmodelle, Midjourneys API, Google Vertex AI Geminis API, OpenAI Asynchronous Batch API anzurufen, erkunden!
Suchen Sie nach? Um vorhandene Notizbücher für die neuesten Modell- oder Plattform-Veröffentlichungen wie die neuesten GPT-4O- und GPT-4O-Mini-Modelle von OpenAI zu erkunden.
Suchen Sie nach? Ausführen vorhandener Notizbücher mit neuen Abhängigkeitsversionen und Plattform -API -Einschränkungen und -Tepoken.
Dies ist das Code -Repository für Transformatoren für die Verarbeitung von natürlichen Sprachen und die von Packt veröffentlichte Computer Vision.
Erforschen Sie generative KI und große Sprachmodelle mit Umarmungsgesicht, Chatgpt, GPT-4V und Dall-e 3
Transformers for Natural Language Processing und Computer Vision, Third Edition, LLM -Architekturen, Anwendungen und verschiedene Plattformen (umarmende Gesicht, OpenAI und Google Vertex), die für die Verarbeitung natürlicher Sprache ( NLP ) und Computer Vision ( CV ) verwendet werden.
Tauchen Sie in generative Vision-Transformatoren und multimodale Modellarchitekturen ein und erstellen Sie Anwendungen wie Bild- und Video-zu-Text-Klassifizierer. Gehen Sie weiter, indem Sie verschiedene Modelle und Plattformen kombinieren und die Replikation von AI -Agenten kennenlernen.
Anhang: Antworten auf die Fragen
Sie können die Notizbücher direkt aus der folgenden Tabelle ausführen:
| Kapitel | Colab | Kaggle | Gradient | Studiolab |
|---|---|---|---|---|
| Teil I Die Grundlagen von Transformatormodellen | ||||
| Kapitel 1: Was sind Transformatoren? | ||||
| ||||
| Kapitel 2: Erste Schritte mit der Architektur des Transformatormodells | ||||
| ||||
| Kapitel 3: Emergent gegen nachgeschaltete Aufgaben: Die unsichtbaren Tiefen der Transformatoren | ||||
| ||||
| Kapitel 4: Fortschritte in Übersetzungen mit Google Trax, Google Translate und Google Bard | ||||
| ||||
| Kapitel 5: Tauchen in die Feinabstimmung durch Bert | ||||
| ||||
| Kapitel 6: Vorbereitung eines Transformators von Grund auf Roberta | ||||
| ||||
| Teil II: Der Aufstieg von Suprahuman NLP | ||||
| Kapitel 7: Die generative KI -Revolution mit Chatgpt | ||||
| ||||
| OpenAI-Argumentationsmodelle: Die O1-Präview-API | ||||
| ||||
| Kapitel 8: Feinabstimmung OpenAI-Modelle | ||||
| ||||
| Kapitel 9: Die schwarze Box mit interpretierbaren Werkzeugen zerbrechen | ||||
| ||||
| Kapitel 10: Untersuchung der Rolle von Tokenisierern bei der Gestaltung von Transformatormodellen | ||||
| ||||
| Kapitel 11: Nutzung von LLM-Einbettungen als Alternative zur Feinabstimmung | ||||
| ||||
| Kapitel 12: Auf dem Weg zu syntaxfreier semantischer Rollenkennzeichnung mit Bert und OpenAIs Chatgpt | ||||
| ||||
| Kapitel 13: Zusammenfassung mit T5 und Chatgpt | ||||
| ||||
| Kapitel 14: Erforschung modernster NLP mit Google Vertex AI (Palm und? Gemini mit Gemini-1.5-Flash-001 | ||||
| ||||
| Kapitel 15: Bewachung der Giants: milderne Risiken in großen Sprachmodellen < | ||||
| ||||
| Teil III: Generative Computer Vision: Eine neue Art, die Welt zu sehen | ||||
| Kapitel 16: Vision -Transformatoren im Morgengrauen der revolutionären KI | ||||
| ||||
| Kapitel 17: Überschreitung der Bildtextgrenze mit stabiler Diffusion | ||||
| ||||
| Stabile Diffusion mit umarmtem Gesicht | ||||
| ||||
| Kapitel 18: Training für automatisierte Vision Transformer | ||||
| ||||
| Kapitel 19: Auf dem Weg zu funktionaler Agi mit Hugginggpt und seinen Kollegen | ||||
| ||||
| Kapitel 20: Generative AI -Ideen -Vertex AI, Langchain und stabile Diffusion | ||||
|
Chatten Sie mit meinem benutzerdefinierten GPT4 -Bot für dieses Repository.
Sie können Fragen zu diesem Repository stellen. Sie können den Code auch aus den Notebooks in mein Chat -GPT kopieren und nach Erklärungen fragen.
Dies ist ein hochmodernes input-ausgelöster Chatbot, der auf OpenAI für dieses Github-Repository aufgebaut ist. OpenAI benötigt ein ChatGPT Plus -Abonnement, um es zu erkunden.
Einschränkungen: Dies ist ein experimenteller Chatbot. Es ist diesem Github -Repository gewidmet und ersetzt die im Buch angegebenen Erklärungen nicht. Aber Sie können sicherlich einige interessante Bildungsinteraktionen mit meinem GPT-4-Chatbot haben.
Sie können ein Problem erstellen. Wir werden gerne Unterstützung bieten! In diesem Repository, wenn Sie in den Notebooks auf eines begegnen.
Wenn Sie das Gefühl haben, dass dieses Buch für Sie ist, holen Sie sich noch heute Ihr Exemplar!
Sie können sich mehr auf dem Discord -Server beschäftigen, um weitere neueste Updates und Diskussionen in der Community bei Discord zu erhalten
Wenn Sie bereits eine Druck- oder Kindle-Version dieses Buches gekauft haben, können Sie kostenlos eine DRM-freie PDF-Version erhalten. Klicken Sie einfach auf den Link, um Ihre kostenlose PDF zu beanspruchen
Wir bieten auch eine PDF
Denis Rothman absolvierte die Sorbonne University und die Paris-Cité University und entworfen eine der ersten patentierten Codier- und Einbettungssysteme und unterrichtete in Paris-i Panthéon Sorbonne. Er begann seine Karriere mit einer Chatbot für natürliche Sprachverarbeitung (NLP) für Moët et Chandon (LVMH) und einen Tactical Defense Optimizer für Airbus (ehemals Aerospatiale). Denis verfasste dann einen KI -Optimierer für IBM- und Luxusmarken, der zu einer weltweit verwendeten APS -Lösung für fortschrittliche Planung und Planung (APS) führte. LinkedIn