AI-asistida Coding & LLM Ingeniería rápida
Introducción
Este repositorio proporciona recursos y demostraciones relacionadas con la codificación asistida por AI-AI, modelos de lenguaje grande (LLM) autorregresivos y técnicas avanzadas de ingeniería rápida.
Temas cubiertos:
- Codificación asistida
- Modelos de lenguaje grande autorregresivo (LLMS)
- Ingeniería rápida 201
Codificación asistida
El repositorio contiene un cuaderno Jupyter ( AI_ASSISTED_CODING.ipynb ) que demuestra técnicas de codificación asistidas por AI que utilizan modelos de lenguaje.
Modelos de idiomas autorregresivos
Los LLM autorregresivos predicen la siguiente palabra basada en el texto de entrada y operan como núcleos de probabilidad.
Conceptos clave:
- Predicción de próxima palabra: dado un prefijo, el modelo genera la próxima palabra más probable.
- Naturaleza estocástica: una entrada dada puede producir diferentes salidas muestreadas a partir de distribuciones de probabilidad, lo que puede provocar inconsistencias o alucinaciones.
- Cálculos de probabilidad: los modelos de lenguaje asignan probabilidades a secuencias de palabras basadas en observaciones anteriores.
Tipos de modelos de idiomas grandes:
- Base LLM (pretratado): entrenado en grandes corpus de texto para predecir la siguiente palabra en una oración.
- Instrucción Tuned LLM (ajustado): optimizado para seguir las instrucciones y mejorar la precisión de la respuesta utilizando técnicas como:
- Ajuste de fino supervisado (SFT)
- Aprendizaje de refuerzo con comentarios humanos (RLHF)
- Optimización de preferencias directas (DPO)
Muestreo y parámetros
Parámetros clave que controlan las salidas del modelo:
- Temperatura: controla aleatoriedad (valores más altos = más creatividad, valores más bajos = más respuestas deterministas).
- TOP-P (Muestreo de núcleo): limita la selección de tokens al subconjunto más probable.
- Logprobs: puntajes de probabilidad de registros para la depuración y el análisis de confianza.
- Sanciones:
- Penalización de frecuencia: reduce la repetición de palabras frecuentes.
- Presencia de penalización: fomenta diversos resultados evitando frases repetidas.
- Tokens máximos: limita la longitud de la respuesta.
- Secuencias de detención: define secuencias de token que detienen la generación de texto.
- n & best_of: controla el número de terminaciones generadas.
Ingeniería rápida 201
El repositorio incluye un cuaderno de Jupyter ( PROMPT_ENGINEERING.ipynb ) que demuestra técnicas de optimización de inmediato para LLM.
Temas centrales:
- Comprensión del comportamiento del modelo: indicaciones ajustadas para lograr las respuestas deseadas.
- Control de creatividad y precisión: ajuste de parámetros para salidas estructuradas, coherentes y relevantes.
- Respuestas del modelo de depuración: utilizando probabilidades de registro para refinar las indicaciones.
Demostración y uso
Para explorar los conceptos, ejecute los cuadernos Jupyter proporcionados:
-
AI_ASSISTED_CODING.ipynb -demostraciones de codificación asistidas por AI. -
PROMPT_ENGINEERING.ipynb - Estrategias de ingeniería rápida avanzada.
Referencias
- Deeplearning.ai - Chatgpt Ingeniería rápida
- Stanford NLP (CS224N)
- Investigación de ingeniería de IA
Para contribuciones, abra una solicitud de extracción o cree un problema en este repositorio. ¡Feliz codificación!