Fundação-modelo-modelo-linguagem-model-fm-llm-
Esse repositório foi cometido sob a ação de executar tarefas importantes nas quais os conceitos generativos de IA modernos são estabelecidos. Em particular, focamos em três ações de codificação de grandes modelos de idiomas que são dados da seguinte forma:
- Exploramos o exemplo de resumo do diálogo através da IA generativa na AWS com ML-M5-2xlarge do tipo Instace. Isso foi executado com sucesso, incorporando o resumo de um diálogo com o Flan-T5 do Modelo de Linguagem de Grandes Linguagem (LLM), do rosto. Além disso, empregamos engenharia imediata, que é um conceito importante nos modelos de fundação para a geração de texto. Utilizamos inferência de tiro zero, inferência de um tiro e inferências de poucas fotos para concluir o experimento de resumo do diálogo.
- No segundo experimento, exploramos um conceito importante de ajuste fino em um modelo generativo de IA e, novamente, trabalhamos no experimento de resumo do diálogo. É novamente importante observar que esse experimento específico foi realizado na AWS com ML-M5-2xlarge do tipo Instace. Depois de recordar o conjunto de dados de nosso interesse, que neste caso é um conjunto de dados Face Abrafing Face, que carregamos o modelo Flan-T5 pré-treinado e depois o toquei. Depois de testar o modelo com inferência de tiro, ajustamos o modelo e depois avaliamos a validade do LLM treinado pela métrica desonesta. Depois disso, realizamos o ajuste fino, executamos o ajuste fino (PEFT) eficiente eficiente de parâmetro, que é um termo genérico que inclui adaptação de baixo rank (LORA) e o experimento IC foi concluído calculando a métrica desonesta novamente para verificar a validade do PEFT no modelo.
- Por fim, estudamos como ajustar um modelo Flan-T5 para gerar menos conteúdo tóxico com o modelo de recompensa de discurso de ódio da Meta AI. Depois de executar compromissos tradicionais, realizamos o ajuste fino para desintoxicar o resumo, otimizando a política de aprendizado de reforço em relação ao modelo de recompensa usando a otimização de políticas proximais (PPO). Novamente, por favor, não se esqueça disso, realizamos tudo isso na AWS com ML-M5-2xlarge do tipo Instace.
Todas essas codificações foram disponibilizadas durante o curso que fiz em https://www.coursera.org/learn/generative-ai-with-llms no Coursera. O certificado da minha participação ativa já foi enviado neste repositório.