Los modelos de lenguaje grande (LLMS) exhiben una impresionante comprensión del lenguaje natural en todas las tareas. A medida que aumenta el tamaño del modelo de lenguaje, adaptarlos a tareas específicas se vuelve computacionalmente costosa. El aprendizaje en contexto se ha propuesto como una alternativa al ajuste fino estándar de LLM. Sin embargo, provocar que generalmente tenga un rendimiento inferior del ajuste fino. Además, encontrar las mejores indicaciones no es sencillo, ya que el proceso es frágil, por ejemplo, a la redacción de la solicitud y el número de ejemplos. Para abordar estos problemas, se ha propuesto el ajuste fino eficiente (PEFT) de parámetros. Este paradigma agrega componentes modulares a un modelo previamente capacitado; Estos están ajustados en la tarea de destino mientras que el LLM no se actualiza. Los componentes PEFT tienen capacidad dedicada por tarea y permiten actualizar un modelo sin olvidar el conocimiento previo, mientras que una composición de dichos módulos puede mejorar las capacidades de tareas múltiples de un LLM. Peft puede alcanzar el rendimiento del ajuste fino estándar. Esto ha motivado la investigación en esta área y recientemente se ha propuesto una gran cantidad de métodos. Sin embargo, para evaluar qué enfoque modular es adecuado para un conjunto de tareas, se necesita experimentación con enfoques modulares seleccionados por tarea. Esto a menudo requiere una búsqueda exhaustiva sobre métodos e hiperparametros, lo cual es difícil en la práctica. Este estudio propone un nuevo criterio, basado en la matriz de información de Fisher, para seleccionar qué enfoque de PEFF utilizar para adaptar una LLM a una tarea específica. La novela a priori Fisher informó a Fisher de ajuste de prefijo, adaptadores y lora para transformadores, PeshPal, evita experimentos costosos de entrenamiento y solo entrena una combinación por tarea. En los experimentos de esta tesis, FishPal supera constantemente las líneas de base en diferentes tareas de pegamento, al tiempo que actualiza el 2-4% de los parámetros del modelo total y agregan solo el 0.4% de los parámetros del modelo base durante la inferencia.
Todos los experimentos se ejecutaron en 1 GPU de Google Cloud (NVIDIA T4 GPU con 4VCPU y 15 GB de RAM en la zona US-West3-B)