Generieren von Vorlageninhalten wie über uns, Nachrichten künstlich, News-Titel, Produktbeschreibung usw. mithilfe von Presainained Language Model GPT-3
Schlüsselkonzepte und -techniken, die für die Verwendung der OpenAI -API für jede Aufgabe von grundlegender Bedeutung sind, einschließlich:
Die OpenAI -API kann auf praktisch jede Aufgabe angewendet werden, die das Verständnis oder die Generierung von natürlicher Sprache oder Code umfasst.
GPT-3 oder die dritte Generation des generativen vorgebreiteten Transformators ist ein maschinelles Netzwerkmodell für maschinelles Netzwerk, das mit Internetdaten geschult wurde, um eine beliebige Art von Text zu generieren. Es erfordert eine kleine Menge Eingangstext, um große Mengen relevanter und ausgefeilter maschinengenerierter Text zu erzeugen.
Das Neural-Netzwerk von GPT-3 von GPT-3 ist ein Modell mit über 175 Milliarden Parametern für maschinelles Lernen. Infolgedessen ist GPT-3 besser als jedes vorherige Modell für die Erzeugung von Text, der überzeugt genug ist, wie ein Mensch ihn hätte schreiben können.
Der Endpunkt completions ist der Kern der OpenAI -API und bietet eine einfache Schnittstelle, die extrem flexibel und leistungsfähig ist.
Sie geben einen Text als Eingabeaufforderung ein, und die API gibt einen Textabschluss zurück, der versucht, den von uns angegebenen Anweisungen oder den von uns angegebenen Kontext abzustimmen.
Sie können sich dies als eine sehr fortgeschrittene Autoperete vorstellen - das Modell verarbeitet Ihre Textaufforderung und versucht vorherzusagen, was als nächstes kommt. Das Entwerfen der Eingabeaufforderung ist im Wesentlichen, wie wir das Modell "programmieren".
In vielen Fällen ist es hilfreich, dem Modell sowohl zu zeigen als auch zu sagen, was Sie wollen. Das Hinzufügen von Beispielen zur Eingabeaufforderung kann dazu beitragen, Muster oder Nuancen zu kommunizieren.
Die natürliche Sprachverarbeitung umfasst als eine seiner Hauptkomponenten die natürliche Langauge -Erzeugung. die sich auf die Erzeugung menschlicher Langauge natürlicher Text konzentrieren. Es ist jedoch eine Herausforderung für Maschinen, die Komplexität und Nuancen der Sprache nicht wirklich kennen, wenn man verständliche Inhalte des Menschen erzeugt. Mit Text im Internet wird GPT-3 geschult, um realistischen menschlichen Text zu erzeugen.
GPT-3 wurde verwendet, um Artikel, Gedichte, Geschichten, Nachrichtenberichte und Dialog mit nur einer geringen Menge an Eingabetxt zu erstellen, mit denen große Mengen an Qualitätskopien erstellt werden können.
GPT-3 wird auch für automatisierte Konversationsaufgaben verwendet und reagiert auf jeden Text, den eine Person mit einem neuen Text in den Computer eingibt, der dem Kontext entspricht. GPT-3 kann mit einer Textstruktur und nicht nur des Textes der menschlichen Sprache alles erzeugen. Es kann auch automatisch Textübersicht und sogar Programmiercode generieren.
GPT-3 ist ein Sprachvorhersagemodell. Dies bedeutet, dass es ein maschinelles Lernmodell für neuronales Netzwerk hat, das Eingabetxt als Eingabe aufnehmen und es in das verwandeln, was das nützlichste Ergebnis vorhersagt. Dies wird erreicht, indem das System auf dem riesigen Internet -Text geschult wird, um Muster zu erkennen. Insbesondere ist GPT-3 die dritte Version eines Modells, das sich auf die Textgenerierung konzentriert, die darauf basiert, dass sie auf einer riesigen Menge an Text vorgebracht werden.
Es gibt drei grundlegende Richtlinien zum Erstellen von Eingabeaufforderungen:
Show and tell : Machen Sie klar, was Sie entweder durch Anweisungen, Beispiele oder eine Kombination aus beiden wollen. Wenn Sie möchten, dass das Modell eine Liste von Elementen in alphabetischer Reihenfolge eingreift oder einen Absatz nach Sentiment klassifiziert, zeigen Sie es, was Sie wollen.Provide quality data : Wenn Sie versuchen, einen Klassifikator zu erstellen oder das Modell ein Muster zu befolgen, stellen Sie sicher, dass genügend Beispiele vorhanden sind. Das Modell ist normalerweise klug genug, um grundlegende Rechtschreibfehler zu durchschauen und Ihnen eine Antwort zu geben, aber es kann auch davon ausgehen, dass dies beabsichtigt ist, und es kann die Reaktion beeinflussen.Check your settings : Die Temperatur- und TOP_P -Einstellungen steuern, wie deterministisch das Modell bei der Generierung einer Antwort ist. prompt : Die Aufforderung zum Erstellen von Komplitionen für, codiert als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Token -Array. <|endoftext|> ist der Dokumentsecker, den das Modell während des Trainings sieht. Wenn also eine Eingabeaufforderung nicht angegeben ist, generiert das Modell vom Beginn eines neuen Dokuments.engine : Text-Davinci-001 ist das fähigste GPT-3-Modell. Kann jede Aufgabe erledigen, die die anderen Modelle oft mit weniger Kontext erledigen können. Unterstützt nicht nur die Eingabeaufforderung, sondern auch das Einfügen von Abschlüssen in Text.temperature : Temperatur bedeutet, welche Probenahmetemperatur verwendet werden soll. Höherer Wert bedeutet, dass das Modell mehr Risiken eingeht. Wir können 0,9 für kreativere Anwendungen und 0 für diejenigen mit einer genau definierten Antwort verwenden.max_tokens : Die maximale Anzahl von Token, die in Komplition generiert werden sollen. Das meiste Modell hat eine Kontextlänge von 2048.top_p : Eine Alternative zur Probenahme mit Temperatur, die als Kernprobenahme bezeichnet wird. Wenn das Modell das Ergebnis der Token mit TOP_P -Wahrscheinlichkeitsmasse berücksichtigt, bedeutet 0,1, dass nur die Token, die die Top -10% -Wahrscheinlichkeitsmasse umfassen, berücksichtigt werdenfrequency_penalty : Positive Werte bestrafen neue Token basierend auf ihrer bisher vorhandenen Häufigkeit im Text und verringern die Wahrscheinlichkeit des Modells, dieselbe Linie zu wiederholen.presence_penalty : Positiver Wert bestrafen neue Token, basierend darauf, ob sie bisher im Text erscheinen, und erhöht die Wahrscheinlichkeit des Modells, über neue Themen zu sprechen. Wenn Sie kein pip in Ihrem System haben, können Sie es mit Hilfe dieses Befehls herunterladen:
sudo apt-get install python3-pip
Sie können eine virtuelle Umgebung mit Anaconda erstellen, wenn Sie sie in Ihrem System haben, und erstellen Sie einen Virtualenv mit dem folgenden Befehl:
conda create -n yourenvname python==x.x
conda activate yourenvname
Oder Sie können VirtualWrapper mit dem folgenden Befehl installieren:
sudo pip3 install virtualenvwrapper
sudo pip3 install --upgrade virtualenv
Und nach der Installation virtuelle Umgebung erstellen:
cd/your/path && mkvirtualenv --python=python3 yourenvname
Installieren Sie die erforderlichen Pakete aus den Anforderungen.txt, um dieses Projekt auszuführen:
pip install -r requirements.txt
Dieses Projekt leitete das Wichtigste, einen geheimen API -Schlüssel von OpenAI zu haben, mit dem das Modell den Inhalt generieren kann. Wenn Sie den geheimen API-Schlüssel haben, sollten Sie ihn unter dem Namen von OPENAI_API_KEY als Ihre Umgebungsvariable festlegen und mit python-dotenv -Paket lesen.