La ingeniería rápida es una disciplina relativamente nueva diseñada para desarrollar y optimizar las indicaciones para usar de manera efectiva los modelos de idiomas (LMS) para una variedad de aplicaciones y temas de investigación. Consejos Las habilidades de ingeniería ayudan a comprender mejor las funciones y limitaciones de los modelos de idiomas grandes (LLM).
La ingeniería rápida se puede utilizar para mejorar las capacidades de LLMS en una variedad de tareas comunes y complejas, como preguntas y respuestas y razonamiento aritmético, diseñar técnicas de solicitud robustas y efectivas que interactúan con LLM y otras herramientas.
Impulsada por el alto interés en el desarrollo de LLM, se creó esta colección de materiales de la Guía de Ingeniería de TIP, que contiene los últimos documentos, guías de estudio, conferencias, referencias y herramientas relacionadas con la ingeniería de punta. (Actualizaré cada tres días por el momento)
La mayor parte del contenido se traduce actualmente de Dair-ai (https://github.com/dair-ai/prompt-ingineering-guide)
Se incluyen cuadernos Dair-AI y presentaciones de diapositivas.
Discord de Dair-AI y Twitter de Dair-AI
Plataforma (recomendada)
La siguiente es una guía de ingeniería de punta para el desarrollo Dair-AI. La guía Dair-AI está en desarrollo. (Actualizaré cada tres días por el momento)
Aquí están los últimos documentos sobre ingeniería rápida (ordenados por fecha de lanzamiento). Actualizamos estos documentos todos los días y agregamos nuevos documentos. Agregamos resúmenes de estos documentos a la guía anterior cada semana:
Encuestas/descripción general:
Técnicas/métodos enfoques/técnicas:
Modelo de lenguaje escalable Generación de consejos de aprendizaje semi-supervisado (febrero de 2023)
Definir el alcance de las capacidades de los modelos de idiomas grandes en la generación de texto abierto por restricciones rápidas (febrero de 2023)
Aunging indicador à-la-carte (APT): Combinando diferentes datos a través de consejos compuestos (febrero de 2023)
GraphPrompt: Unificación del pre-entrenamiento para redes neuronales gráficas y tareas aguas abajo (febrero de 2023)
La capacidad de los modelos de idiomas grandes en el auto-remedia moral (febrero de 2023)
SwitchPrompt: Consejos suaves para el área cerrada específica para el aprendizaje clasificado en dominios de bajos recursos (febrero de 2023)
Evaluar la robustez de las señales discretas (febrero de 2023)
Ejemplos de combinación de aprendizaje contextual (febrero de 2023)
Los consejos duros se vuelven fáciles: optimización discreta basada en gradiente para el ajuste y el descubrimiento de consejos (febrero de 2023)
Razonamiento de pensamiento en cadena multimodal en el modelo de lenguaje (febrero de 2023)
Los modelos de idiomas grandes se distraen fácilmente con contextos no relacionados (febrero de 2023)
Consejos de síntesis: generar demostraciones de pensamiento para modelos de idiomas grandes (febrero de 2023)
Consejos progresivos: aprendizaje continuo de modelos de idiomas (enero de 2023)
Consejos de procesamiento por lotes: razonamiento eficiente de la API LLM (enero de 2023)
Piénselo de nuevo, ¡no pensemos paso a paso! Prejuicio y toxicidad en razonamiento de puntos cero (diciembre de 2022)
AI constitucional: inofensiva de la retroalimentación de la IA (diciembre de 2022)
Consejos continuos: resolver problemas complejos (diciembre de 2022)
Descubra el comportamiento del modelo de lenguaje a través de la evaluación escrita por modelo (diciembre de 2022)
Consejos estructurales: extender el aprendizaje del contexto a 1,000 ejemplos (diciembre de 2022)
PAL: Modelo de idioma asistido por el programa (noviembre de 2022)
Los modelos de idiomas grandes son ingenieros de inmediato a nivel humano (noviembre de 2022)
Ignore el consejo anterior: Tecnología de ataque de modelos de idiomas (noviembre de 2022)
Texto generado por la ametralladora: un estudio exhaustivo de modelos de amenazas y métodos de detección (noviembre de 2022)
Enseñanza del razonamiento algorítmico a través del aprendizaje del contexto (noviembre de 2022)
Mejore la autoconsistencia y el rendimiento de los modelos de lenguaje previamente capacitados a través de la inferencia del lenguaje natural (noviembre de 2022)
Pregunte casualmente: estrategias simples para indicar modelos de idiomas (octubre de 2022)
React: razonamiento coordinado y acción en modelos de idiomas (octubre de 2022)
El consejo GPT-3 es confiable (octubre de 2022)
Consejos de descomposición: métodos modulares para resolver tareas complejas (octubre de 2022)
Los modelos de idiomas son razonadores codiciosos: análisis de forma sistemática de enlaces de pensamiento (octubre de 2022)
Evaluación de la susceptibilidad de los modelos de lenguaje previamente capacitados a través de ejemplos adversos diseñados a mano (septiembre de 2022)
PractAgator: Obtenga una pequeña cantidad de búsquedas intensivas de 8 ejemplos (septiembre de 2022)
Razonadores que manejan modelos de idiomas para mejorar (junio de 2022)
El modelo de lenguaje grande es el razonador de puntos cero (mayo de 2022)
Sistema MRKL: una arquitectura de símbolos neuronales modulares que combina modelos de idiomas grandes, fuentes de conocimiento externos y razonamiento discreto (mayo de 2022)
Detección de toxicidad mediante la generación de indicaciones (mayo de 2022)
Consejos de transferencia de aprendizaje para la generación de texto (mayo de 2022)
No confiabilidad de las instrucciones de razonamiento textual con un pequeño número de sugerencias (mayo de 2022)
Clasificación del modificador de consejos para la generación de texto a imagen (abril de 2022)
PridChainer: vinculación de grandes consejos de modelos de lenguaje a través de la programación visual (marzo de 2022)
Link ideológico Razonamiento para mejorar los modelos lingüísticos con autoconsistencia (marzo de 2022)
Capacite el modelo de lenguaje utilizando la retroalimentación humana para ejecutar instrucciones
Reexamine el papel de la demostración: ¿Qué hace que el aprendizaje del contexto sea exitoso? (Febrero de 2022)
Los consejos de enlace de idea plantean inferencia para modelos de idiomas grandes (enero de 2022)
Muestre su trabajo: un registro temporal para la informática intermedia con el modelo de idioma (noviembre de 2021)
Razonamiento de sentido común basado en sugerencias de generación de conocimientos (octubre de 2021)
La capacitación rápida de tareas múltiples puede lograr la generalización de tareas de disparo cero (octubre de 2021)
Refactorización de instrucciones indica que se adaptan al lenguaje de GPTK (septiembre de 2021)
Pautas de diseño para modelos de generación de texto a imagen (septiembre de 2021)
Hacer de los modelos de lenguaje previos a la aparición un mejor aprendiz sin muestras (agosto de 2021)
Solicitudes mágicas y ordenadas y su ubicación: superar un pequeño número de sensibilidad de secuencia inmediata (abril de 2021)
BERTESE: Aprenda a hablar con Bert (abril de 2021)
El poder del ajuste de escala con parámetros válidos (abril de 2021)
Programación de consejos para modelos de idiomas grandes: ir más allá de un pequeño número de paradigmas de consejos (febrero de 2021)
Calibración previa al uso: Mejore el pequeño rendimiento de la muestra de los modelos de idiomas (febrero de 2021)
Ajuste de prefijo: optimizar las indicaciones continuas para la generación (enero de 2021)
Autoprompt: el conocimiento rápido de los modelos de idiomas a través de indicaciones generadas automáticamente (octubre de 2020)
Los modelos de idiomas son pequeños alumnos (mayo de 2020)
¿Cómo sabemos lo que saben los modelos de idiomas? (Julio de 2020)
Aplicaciones:
Colecciones:
Si cree que falta algo, envíe un PR. Los comentarios y sugerencias también son bienvenidos.