Gerando conteúdo de modelo, como sobre nós, notícias artísticas, título de notícias, descrição do produto e etc. Usando modelo de idioma pré-treinamento GPT-3
Conceitos e técnicas -chave que são fundamentais para usar a API OpenAI para qualquer tarefa, incluindo:
A API OpenAI pode ser aplicada a praticamente qualquer tarefa que envolva a compreensão ou geração de linguagem ou código natural.
O GPT-3 ou a terceira geração de transformador pré-treinado generativo é um modelo de aprendizado de máquina de rede neural treinado usando dados da Internet para gerar qualquer tipo de texto. Requer uma pequena quantidade de texto de entrada para gerar grandes volumes de texto relevante e sofisticado gerado por máquina.
A Deep Learning Network da GPT-3 é um modelo com mais de 175 bilhões de parâmetros de aprendizado de máquina. Como resultado, o GPT-3 é melhor do que qualquer modelo anterior para produzir texto que seja convincente o suficiente para parecer que um humano poderia ter escrito.
O terminal completions é o núcleo da API OpenAI e fornece uma interface simples que é extremamente flexível e poderosa.
Você insere algum texto como um prompt e a API retornará uma conclusão de texto que tenta corresponder a quaisquer instruções ou contexto que lhe demos.
Você pode pensar nisso como um preenchimento automático muito avançado - o modelo processa seu prompt de texto e tenta prever o que é mais provável que virá a seguir. Projetar o prompt é essencialmente como "programamos" o modelo.
Em muitos casos, é útil mostrar e dizer ao modelo o que você deseja. Adicionar exemplos ao prompt pode ajudar a comunicar padrões ou nuances.
O processamento de linguagem natural inclui como um de seus principais componentes geração natural de Langauge. que se concentram na geração de texto natural de Langauge humano. No entanto, gerar conteúdo compreensível humano é um desafio para máquinas que realmente não conhecem as complexidades e nuances da linguagem. Usando texto na Internet, o GPT-3 é treinado para gerar texto humano realista.
O GPT-3 foi usado para criar artigos, poesia, histórias, reportagens e diálogo usando apenas uma pequena quantidade de texto de entrada que pode ser usado para produzir grandes quantidades de cópia de qualidade.
O GPT-3 também está sendo usado para tarefas de conversação automatizadas, respondendo a qualquer texto que uma pessoa digita no computador com uma nova peça de texto apropriada ao contexto. O GPT-3 pode criar qualquer coisa com uma estrutura de texto, e não apenas o texto da linguagem humana. Também pode gerar automaticamente resumos de texto e até código de programação.
O GPT-3 é um modelo de previsão de idiomas. Isso significa que ele possui um modelo de aprendizado de máquina de rede neural que pode tomar o texto de entrada como uma entrada e transformá -lo no que prevê o resultado mais útil será. Isso é realizado treinando o sistema no vasto corpo de texto da Internet para identificar padrões. Mais especificamente, o GPT-3 é a terceira versão de um modelo focado na geração de texto com base em ser pré-treinado em uma enorme quantidade de texto.
Existem três diretrizes básicas para criar prompts:
Show and tell : deixe claro o que você deseja através de instruções, exemplos ou uma combinação dos dois. Se você deseja que o modelo classifique uma lista de itens em ordem alfabética ou classifique um parágrafo por sentimento, mostre isso é o que você deseja.Provide quality data : se você está tentando criar um classificador ou obter o modelo para seguir um padrão, verifique se há exemplos suficientes. O modelo geralmente é inteligente o suficiente para ver através de erros de ortografia básica e dar uma resposta, mas também pode assumir que isso é intencional e pode afetar a resposta.Check your settings : as configurações de temperatura e TOP_P controlam como o modelo é determinístico na geração de uma resposta. prompt : o aviso de gerar complicações, codificado como string, matriz de strings, matriz de tokens ou matriz de token. <|endoftext|> é o documento Seperator que o modelo vê durante o treinamento; portanto, se um prompt não for especificado, o modelo gerará como se desde o início de um novo documento.engine : Text-Davinci-001 é o modelo GPT-3 mais capaz. Pode executar qualquer tarefa que os outros modelos possam executar, geralmente com menos contexto. Além de responder ao prompt, também suporta a inserção de conclusões no texto.temperature : Temperatura significa qual temperatura de amostragem usar. Valor mais alto significa que o modelo assumirá mais riscos, podemos usar 0,9 para aplicativos mais criativos e 0 para aqueles com uma resposta bem definida.max_tokens : o número máximo de tokens a ser gerado em complicado. A maioria dos modelos tem comprimento de contexto de 2048.top_p : Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo. Onde o modelo considera o resultado dos tokens com massa de probabilidade TOP_P, então 0,1 significa apenas os tokens que compreendem a massa de probabilidade de 10% mais topfrequency_penalty : Os valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo de repetir a mesma linha.presence_penalty : Valor positivo Penalize novos tokens com base no fato de eles aparecer no texto até agora, aumentando a probabilidade do modelo de falar sobre novos tópicos. Se você não possui pip no seu sistema, pode fazer o download com a ajuda deste comando:
sudo apt-get install python3-pip
Você pode criar um ambiente virtual com o Anaconda, se o tiver no seu sistema, criar um virtualenv com comando abaixo:
conda create -n yourenvname python==x.x
conda activate yourenvname
Ou você pode instalar o VirtualWrapper com o comando abaixo:
sudo pip3 install virtualenvwrapper
sudo pip3 install --upgrade virtualenv
E após a instalação, crie um ambiente virtual:
cd/your/path && mkvirtualenv --python=python3 yourenvname
Instale os pacotes necessários do requisitos.txt para executar este projeto:
pip install -r requirements.txt
Para executar este projeto, o mais importante é ter uma chave de API secreta do OpenAI que permita que o modelo gere o conteúdo. Se você possui a chave da API secreta, deve defini-la como sua variável de ambiente no nome do OPENAI_API_KEY e lê-la usando o pacote python-dotenv .