Escola Internacional de Verão em Avanços na AI
Modelos de idiomas grandes e como a instrução o sintoniza (de maneira sustentável)
Autores : Danilo Croce
Muito obrigado a: Claudiu Daniel HROMEI por apoiar o desenvolvimento do (a maioria dos) código
Este repositório hospeda materiais da palestra realizada na escola de verão e contra a IA 2024 organizada pela Aixia.
O objetivo desta palestra é:
- Introduzir arquiteturas baseadas em transformadores , incluindo estruturas de codificação de codificação, somente codificador e somente decodificador.
- Demonstre o ajuste fino de modelos de idiomas grandes (LLMs) em diversos conjuntos de dados em uma estrutura de várias tarefas.
- Utilize a adaptação de baixo rank (LORA) para ajuste sustentável e eficiente em hardware "modesto" (por exemplo, GPU de RAM de 16 GB único).
O repositório inclui código para ajustar um modelo de idioma grande (baseado na llama) para resolver tarefas de PNL, como as propostas na avaliação 2023.
Código
Laboratório: Tune um modelo baseado em llama para todas as tarefas da avaliação 2023
No final, esta palestra mostra como codificar dados de diferentes tarefas em prompts específicos e ajustar o LLM usando Q-Lora. O código também pode ser usado no Google Colab usando uma GPU NVIDIA-T4 com memória de 15 GB.
O código é fortemente baseado na usada no sistema extremita que participou para avaliar 2023:
- Papel Extremita
- Código Extremita Github
O processo geral é dividido em quatro etapas:
- Etapa 1 - codificando os dados : mostra como codificar dados de uma tarefa de avaliação para gerar prompts para o LLM
- Etapa 2-Ajustando o modelo de llama : mostra como ajustar os LLMs, dados os prompts
- Etapa 3 - Inferência: Gerando respostas : mostra como usar o modelo de ajuste multado
- Etapa 4 - Descarga os dados : mostra como converter os dados a serem avaliados no desafio da avalta
Deslizamentos
O repositório também apresenta slides (link).
Exercício
Um exercício é proposto nos últimos slides da apresentação.
Contatos
Para perguntas ou sugestões, levante um problema neste repositório ou envie um e -mail para [email protected]