Génération de contenus de modèle comme nous, News Artics, Titre d'actualités, description du produit et etc. en utilisant le modèle de langue pré-étendue GPT-3
Concepts et techniques clés qui sont fondamentaux pour utiliser l'API OpenAI pour toute tâche, notamment:
L'API OpenAI peut être appliquée à pratiquement n'importe quelle tâche qui implique la compréhension ou la génération de langage naturel ou de code.
GPT-3 ou la troisième génération de transformateur pré-formé générateur, est un modèle d'apprentissage automatique réseau neural formé à l'aide de données Internet pour générer tout type de texte. Il nécessite une petite quantité de texte d'entrée pour générer de grands volumes de texte pertinent et sophistiqué généré par la machine.
Le réseau neuronal de Deep Learning de GPT-3 est un modèle avec plus de 175 milliards de paramètres d'apprentissage automatique. En conséquence, le GPT-3 est meilleur que n'importe quel modèle antérieur pour produire du texte suffisamment convaincant pour sembler qu'un humain aurait pu l'écrire.
Le point de terminaison completions est le cœur de l'API OpenAI et fournit une interface simple extrêmement flexible et puissante.
Vous entrez du texte comme une invite, et l'API renverra une réalisation de texte qui tente de faire correspondre les instructions ou le contexte que nous lui avons donné.
Vous pouvez considérer cela comme une assortie automatique très avancée - le modèle traite votre invite de texte et essaie de prédire ce qui est le plus susceptible de venir ensuite. La conception de l'invite est essentiellement la façon dont nous «programmons» le modèle.
Dans de nombreux cas, il est utile de montrer et de dire au modèle ce que vous voulez. L'ajout d'exemples à l'invite peut aider à communiquer des modèles ou des nuances.
Le traitement du langage naturel comprend comme l'un de ses principaux composants génération de langauge naturelle. qui se concentrent sur la génération de texte naturel de Langauge humain. Cependant, la génération de contenu compréhensible humain est un défi pour les machines qui ne connaissent pas vraiment les complexités et les nuances du langage. En utilisant du texte sur Internet, GPT-3 est formé pour générer un texte humain réaliste.
Le GPT-3 a été utilisé pour créer des articles, de la poésie, des histoires, des reportages et un dialogue en utilisant juste une petite quantité de texte d'entrée qui peut être utilisé pour produire de grandes quantités de copie de qualité.
GPT-3 est également utilisé pour les tâches conversationnelles automatisées, répondant à tout texte qu'une personne tape dans l'ordinateur avec un nouveau texte approprié au contexte. GPT-3 peut créer n'importe quoi avec une structure de texte, et pas seulement le texte du langage humain. Il peut également générer automatiquement des résumés de texte et même du code de programmation.
GPT-3 est un modèle de prédiction linguistique. Cela signifie qu'il dispose d'un modèle d'apprentissage automatique du réseau neuronal qui peut prendre du texte d'entrée comme entrée et le transformer en ce qu'il prédit que le résultat le plus utile sera. Ceci est accompli en entraînant le système sur le vaste corps de texte Internet pour repérer les modèles. Plus précisément, GPT-3 est la troisième version d'un modèle qui se concentre sur la génération de texte basée sur la pré-formation pré-formée sur une énorme quantité de texte.
Il existe trois directives de base pour créer des invites:
Show and tell : indiquez clairement ce que vous voulez soit par le biais d'instructions, d'exemples ou d'une combinaison des deux. Si vous souhaitez que le modèle classe une liste d'éléments dans l'ordre alphabétique ou pour classer un paragraphe par sentiment, montrez-le que c'est ce que vous voulez.Provide quality data : si vous essayez de construire un classificateur ou que le modèle suive un modèle, assurez-vous qu'il y a suffisamment d'exemples. Le modèle est généralement assez intelligent pour voir à travers des erreurs d'orthographe de base et vous donner une réponse, mais elle peut également supposer que c'est intentionnel, et cela peut affecter la réponse.Check your settings : la température et les paramètres TOP_P contrôlent à quel point le modèle est déterministe dans la génération d'une réponse. prompt : l'invite pour générer des complitions pour, encodées en chaîne, un tableau de chaînes, un tableau de jetons ou un tableau de tableau de jetons. <|endoftext|> est le séparateur de document que le modèle voit pendant la formation, donc si une invite n'est pas spécifiée, le modèle générera comme si le début d'un nouveau document.engine : Text-Davinci-001 est le modèle GPT-3 le plus capable. Peut effectuer n'importe quelle tâche que les autres modèles peuvent effectuer, souvent avec moins de contexte. En plus de répondre à Invite, prend également en charge l'insertion de complétions dans le texte.temperature : la température signifie quelle température d'échantillonnage à utiliser. Une valeur plus élevée signifie que le modèle prendra plus de risques, nous pouvons utiliser 0,9 pour des applications plus créatives et 0 pour celles avec une réponse bien définie.max_tokens : le nombre maximum de jetons à générer en complition. La plupart des modèles ont une longueur de contexte de 2048.top_p : Une alternative à l'échantillonnage avec la température, appelée échantillonnage du noyau. Lorsque le modèle considère le résultat des jetons avec une masse de probabilité TOP_P, donc 0,1 signifie que seuls les jetons comprenant la masse de probabilité de 10% les plus élevés sont considérésfrequency_penalty : les valeurs positives pénalisent de nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu'à présent, diminuant la probabilité du modèle de répéter la même ligne.presence_penalty : une valeur positive pénalise de nouveaux jetons en fonction de leur appartenance dans le texte jusqu'à présent, augmentant la probabilité du modèle de parler de nouveaux sujets. Si vous n'avez pas pip sur votre système, vous pouvez le télécharger à l'aide de cette commande:
sudo apt-get install python3-pip
Vous pouvez créer un environnement virtuel avec Anaconda Si vous l'avez sur votre système, créez un virtualEnv avec la commande ci-dessous:
conda create -n yourenvname python==x.x
conda activate yourenvname
Ou vous pouvez installer VirtualWrapper avec la commande ci-dessous:
sudo pip3 install virtualenvwrapper
sudo pip3 install --upgrade virtualenv
Et après l'installation, créer un environnement virtuel:
cd/your/path && mkvirtualenv --python=python3 yourenvname
Installez les packages requis à partir des exigences.txt pour exécuter ce projet:
pip install -r requirements.txt
Pour exécuter ce projet, la chose la plus importante est d'avoir une clé API secrète d'OpenAI qui permet au modèle de générer le contenu. Si vous avez la clé API secrète, vous devez le définir comme variable d'environnement sous le nom d' OPENAI_API_KEY et le lire à l'aide du package python-dotenv .