Fundación-modelo-large-lengua-modelo-fm-llm-
Este repositorio se cometió bajo la acción de ejecutar tareas importantes en las que se establecen conceptos de IA generativos modernos. En particular, nos centramos en tres acciones de codificación de modelos de idiomas grandes que se dan de la siguiente manera:
- Exploramos el ejemplo de resumen de diálogo a través de AI generativo en el AWS con ML-M5-2xLarge de tipo instacial. Esto se ejecutó con éxito incorporando el resumen de un diálogo con el modelo de lenguaje grande (LLM) previamente entrenado (LLM) Flan-T5 de la cara abrazada. Además, empleamos ingeniería rápida, que es un concepto importante en los modelos fundamentales para la generación de texto. Utilizamos inferencia de disparo cero, inferencia de un solo disparo e inferencias de pocos disparos para concluir el experimento de resumen del diálogo.
- En el segundo experimento, exploramos un concepto importante de ajuste fino en un modelo de IA generativo y nuevamente trabajamos en el experimento de resumen del diálogo. Nuevamente es importante tener en cuenta que este experimento en particular se realizó en el AWS con ML-M5-2xLarge de tipo instacial. Después de recordar el conjunto de datos de nuestro interés, que en este caso es un conjunto de datos de la cara que abarca el diálogo, cargamos el modelo Flan-T5 previamente entrenado y luego lo tokenizamos. Después de probar el modelo con la influencia de disparos, ajustamos el modelo y luego evaluamos la validez del LLM entrenado por la métrica Rogue. Después de eso, hemos realizado ajuste fino, ejecutamos el ajuste fino eficiente de los parámetros (PEFT), que es un término genérico que incluye la adaptación de bajo rango (LORA) y el experimento de IC concluyó al calcular la métrica rebelde nuevamente para verificar la validez de PEFT en el modelo.
- Por último, estudiamos cómo ajustar un modelo Flan-T5 para generar contenido menos tóxico con el modelo de recompensa de discurso de odio de Meta Ai. Después de haber ejecutado las confirmaciones tradicionales, realizamos el ajuste fino para desintoxicar el resumen al optimizar la política de aprendizaje de refuerzo contra el modelo de recompensa mediante el uso de la optimización de políticas proximales (PPO). Nuevamente, no olvide que, realizamos todo esto en el AWS con ML-M5-2xLarge de tipo Instace.
Todas estas codificaciones se pusieron a disposición durante el curso que tomé en https://www.coursera.org/learn/generative-ai-with-llms en Coursera. El certificado de mi participación activa ya está cargado en este repositorio.