Generación de contenido de plantilla como sobre nosotros, noticias artísticas, título de noticias, descripción del producto, etc. Uso del modelo de lenguaje previo a la aparición GPT-3
Conceptos y técnicas clave que son fundamentales para usar la API de OpenAI para cualquier tarea que incluya:
La API de OpenAI se puede aplicar a prácticamente cualquier tarea que implique comprender o generar un lenguaje o código natural.
GPT-3 o la tercera generación de transformador generativo previamente capacitado, es un modelo de aprendizaje automático de red neuronal capacitado con datos de Internet para generar cualquier tipo de texto. Requiere una pequeña cantidad de texto de entrada para generar grandes volúmenes de texto generado por ametrallado relevante y sofisticado.
La red neuronal de aprendizaje profundo de GPT-3 es un modelo con más de 175 mil millones de parámetros de aprendizaje automático. Como resultado, GPT-3 es mejor que cualquier modelo anterior para producir texto que sea lo suficientemente convincente como para parecer que un humano podría haberlo escrito.
El punto final completions es el núcleo de la API de OpenAI y proporciona una interfaz simple que es extremadamente flexible y potente.
Ingresa algún texto como un aviso, y la API devolverá una finalización de texto que intenta coincidir con las instrucciones o contexto que le damos.
Puede pensar en esto como un autocompleto muy avanzado: el modelo procesa su mensaje de texto e intenta predecir lo que es más probable que venga a continuación. Diseñar el aviso es esencialmente cómo "programamos" el modelo.
En muchos casos, es útil mostrar y decirle al modelo lo que desea. Agregar ejemplos a la solicitud puede ayudar a comunicar patrones o matices.
El procesamiento del lenguaje natural incluye como uno de sus componentes principales de la generación de lanauge natural. que se centran en generar texto natural de Langauge humano. Sin embargo, generar contenido humano comprensible es un desafío para las máquinas que realmente no conocen las complejidades y matices del lenguaje. Usando texto en Internet, GPT-3 está capacitado para generar texto humano realista.
GPT-3 se ha utilizado para crear artículos, poesía, historias, informes de noticias y diálogo utilizando solo una pequeña cantidad de texto de entrada que puede usarse para producir grandes cantidades de copia de calidad.
GPT-3 también se está utilizando para tareas de conversación automatizadas, respondiendo a cualquier texto que una persona escriba en la computadora con un nuevo texto apropiado para el contexto. GPT-3 puede crear cualquier cosa con una estructura de texto, y no solo el texto del lenguaje humano. También puede generar automáticamente resumen de texto e incluso código de programación.
GPT-3 es un modelo de predicción del idioma. Esto significa que tiene un modelo de aprendizaje automático de red neuronal que puede tomar el texto de entrada como una entrada y transformarlo en lo que predice que será el resultado más útil. Esto se logra entrenando el sistema en el vasto cuerpo de texto de Internet para detectar patrones. Más específicamente, GPT-3 es la tercera versión de un modelo que se centra en la generación de texto basada en ser capacitado en una gran cantidad de texto.
Hay tres pautas básicas para crear indicaciones:
Show and tell : deje en claro lo que desea a través de instrucciones, ejemplos o una combinación de los dos. Si desea que el modelo clasifique una lista de elementos en orden alfabético o clasifique un párrafo por sentimiento, muéstrelo, eso es lo que desea.Provide quality data : si está tratando de construir un clasificador u hacer que el modelo siga un patrón, asegúrese de que haya suficientes ejemplos. El modelo suele ser lo suficientemente inteligente como para ver a través de errores de ortografía básica y darle una respuesta, pero también puede suponer que esto es intencional, y puede afectar la respuesta.Check your settings : la temperatura y la configuración TOP_P controlan cuán determinista es el modelo para generar una respuesta. prompt : el indicador para generar complementos para, codificados como cadena, matriz de cadenas, matriz de tokens o matriz de matriz de tokens. <|endoftext|> es el separador del documento que el modelo ve durante la capacitación, por lo que si no se especifica un aviso, el modelo se generará como si el comienzo de un nuevo documento.engine : Text-Davinci-001 es el modelo GPT-3 más capaz. Puede hacer cualquier tarea que los otros modelos puedan hacer, a menudo con menos contexto. Además de responder a la solicitud, también admite la inserción de completaciones dentro del texto.temperature : temperatura significa qué temperatura de muestreo usar. Un valor más alto significa que el modelo tomará más riesgos, podemos usar 0.9 para aplicaciones más creativas y 0 para aquellos con una respuesta bien definida.max_tokens : el número máximo de tokens para generar en la complicidad. La mayoría del modelo tiene una longitud de contexto de 2048.top_p : una alternativa al muestreo con temperatura, llamado muestreo de núcleo. Cuando el modelo considera el resultado de los tokens con masa de probabilidad TOP_P, por lo que 0.1 significa que solo los tokens que comprenden la masa de probabilidad del 10% superior se consideranfrequency_penalty : los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad del modelo para repetir la misma línea.presence_penalty : el valor positivo penaliza nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad del modelo de hablar sobre nuevos temas. Si no tiene pip en su sistema, puede descargarlo con la ayuda de este comando:
sudo apt-get install python3-pip
Puede crear un entorno virtual con Anaconda si lo tiene en su sistema, cree un VirtualEnv con el comando a continuación:
conda create -n yourenvname python==x.x
conda activate yourenvname
O puede instalar VirtualWrapper con el comando a continuación:
sudo pip3 install virtualenvwrapper
sudo pip3 install --upgrade virtualenv
Y después de la instalación, cree un entorno virtual:
cd/your/path && mkvirtualenv --python=python3 yourenvname
Instale los paquetes requeridos de los requisitos.txt para ejecutar este proyecto:
pip install -r requirements.txt
Para ejecutar este proyecto, lo más importante es tener una tecla API secreta de OpenAI que permita que el modelo genere el contenido. Si tiene la tecla API secreta, debe configurarla como su variable de entorno bajo el nombre de OPENAI_API_KEY y leerla usando el paquete python-dotenv .