Generative künstliche Intelligenz (Genai) transformiert schnell verschiedene Domänen, indem es beispiellosen Niveaus an Neuheit, Kreativität und Produktivität einführt, was "die größte technologische Veränderung in unseren Lebenszeiten schafft". Mit seiner Fähigkeit, auf menschliche Anweisungen für natürliche Sprache zu reagieren, fügt Genai AI-Anwendungen eine neue interaktive Dimension hinzu. Es generiert neue Inhalte - Text, Audio, Bilder und Videos - aus vorhandenen Daten und erzielten bisher unvorstellbare Leistungen. Auch Genai übertrifft die Produktivität und übertrifft den Menschen in einigen Aufgaben in Geschwindigkeit und Effizienz.

Willkommen im Genai Cookbook, einer Mischung aus Rezepten und Führern für die Verwendung von LLMs. Diese Sammlung deckt eine breite Palette von NLP -Anwendungen (Natural Language Processing) unter Verwendung von Sprachmodellen ab:
LLM Prompting Strategies : Get-started examples to prompting techniques DSPy Framework : Explore alternatives to prompt engineering with declarative and programmatic approaches to programming LLMs Simple Chatbots : Learn the basics of building interactive AI Retrieval Generation Augmentation (RAGs) : Incorporate personal or organizational data for more accurate responses Fine-Tuning LLMs : Customize models for domain-specific tasks for form, format, and Tonalität erweitert LLM -Funktionalität : Verwenden Sie Agenten und Funktionen, um die Funktionen zu verbessern, indem Sie mit externen Tools und Datenquellen interagieren, bei der führende Sprachmodelle verwendet werden : Praktische Anleitungen zur Verwendung von Modellen und Inferenzplattformen von OpenAI, Anthropic, Gemini, Meta, AnyScale -Endpunkten, Ollama und Datenbäumen.
Dieses Buch richtet sich an Anfängerentwickler und bietet Beispielcode und Anleitungen, wobei die Verwendung von APIs und Frameworks von führenden Plattformen verwendet wird. Beginnen Sie Ihre Reise und entdecken Sie das Potenzial von Genai.
Um diese Beispiele auszuprobieren, benötigen Sie ein OpenAI -Konto und einen zugehörigen API -Schlüssel, anthropisch, pinecone, Datrabricks Data Intelligent Platform oder ein Endpoint -Konto AnyScale und einen zugehörigen Schlüssel. Noch besser, installieren Sie Ollama auf Ihrem Laptop.
Alle Beispiele und Notizbücher befinden sich in Python. Die Konzepte können jedoch an jede Programmiersprache angepasst werden, solange Sie REST -API -Aufrufe in der Zielsprache tätigen oder SDK der Zielsprache verwenden können.
Einige Beispiele in diesem Kochbuch sind aus diesen Ressourcen inspiriert (einige modifiziert, erweitert oder kopiert), darunter:
| Verzeichnisnamen | Beschreibung |
|---|---|
| genai_intro | Allgemeine Einführung in Genai, Stiftungsmodelle, GPTs |
| Agenten | Was sind Agenten, die sich entwickelnde Agent -Erzerz, warum sie verwenden und wie man Agenten schreibt? |
| Assistenten | OpenAI -Assistenten erweitern die LLM -Funktionalität auf die Arbeit und interagieren mit externen Tools und ermöglichen den Zugriff auf externe Dienste wie Webdienste und Datenspeicher. Wie man mit OpenAI -Assistenten zusammenarbeitet, um Agenten umzusetzen |
| Chatbots | Gemeinsame Anwendung im Kundendienst, wie Sie einfache und konverselle Chatbots mit LLMs schreiben, wobei die Techniken mit Angabe von Techniken verwendet werden |
| DSPY | Schnelle Übersicht über ein deklaraktives Framework zu Program LLMs: Was und warum und wie man DSPY verwendet |
| Einbettung und Vektord | Einführung in Vektor -Einbettungen und ihre Rolle bei semantischen Suchen nach LLM -Gen -Apps. Vektoreinbettungen sind von zentraler Bedeutung für die Erzeugung der Augmentation. Erforschen |
| Auswertung | Die Bewertung von LLM ist nicht einfach und chaotisch. Es mag wie eine dunkle Kunst erscheinen. Aber einige Tools wie MLFlow bieten Experimentieren, Protokollierung, Verfolgung und Verfolgung zur Bewertung von LLMs |
| Feinabstimmung | Die übliche Verwendung von LLM zum Umgang mit domänenspezifischen Aufgaben erfolgt über Feinabstimmungen. Warum und wann Sie Ihre domänenspezifische Aufgabe für individuelle Antworten, Ton und Format einstellen müssen |
| Funktionsanruf | So verwenden Sie sowohl OpenAI- als auch Open-Source-LLM-Funciton-Anrufe, um die LLM-Funktionalität zu erweitern |
| LLM-Prompts | Eine Einführung in unzählige schnelle technische Techniken mit geschlossenen und Open Source LLM -Modellen |
| Lumpen | Retrieval Augmentation Generation (LAB) ist der Taylor Swift von LLM -Anwendungen; Jeder will sie; Jeder schreibt über sie; Jeder baut sie auf. Eine Einführung in verschiedene Arten von Lumpen, wann sie über Feinabstimmung verwendet werden müssen und wie Sie sie für Ihre Daten implementieren, die Genauigkeit erhöhen und die Haluzinationen in Ihren Antworten verringern können |
Da ich entweder OpenAI, Anthropic, Google Gemmini oder AnyScale -Endpunkte verwende, stelle ich jeweilige Umgebungsvorlagendateien an: env_anyScale_template , env_anthropic_template , env_google_template und env_openai_template .
Fügen Sie Ihren Schlüssel und Ihren Modellnamen zu einer der Dateien hinzu und kopieren Sie die Datei in .Env in das Verzeichnis der obersten Ebene. Verwenden Sie diesen einfachen Handbuch, um jeden OpenAI -Code in AnyScale -Endpunkte zu migrieren. Zum größten Teil ist die Migration nahtlos.
Außerdem benötigen Sie einige Python -Bibliotheken. Verwenden Sie pip install -r requirements.txt um sie zu installieren.
Hinweis : Teilen Sie Ihre Umgebungsdateien nicht öffentlich mit API -Schlüssel.
Ich begrüße Beiträge. Lassen Sie uns dies zu einer generativen KI-Entwickler-Community-basierten Ressource machen. Ihre Beiträge können Ergänzungen oder Erweiterungen dieser Anleitungen umfassen.
Überprüfen Sie vorhandene Probleme und ziehen Sie Anfragen vor, bevor Sie dazu beitragen, um eine Doppelarbeit zu vermeiden. Wenn Sie Vorschläge für Beispiele oder Leitfäden haben, teilen Sie sie auf der Seite "Ausgaben" weiter.
Habt Genai Spaß! ? Euen
Jules