LLM-RECommentação-Systems
LLMs de ajuste fino para recomendações baseadas em texto
Este projeto explora o potencial de modelos de grandes idiomas de ajuste fino (LLMS) especificamente para recomendações baseadas em texto, com o objetivo de melhorar a precisão e a satisfação do usuário. Ele apresenta um novo mecanismo imediato que transforma as informações de relacionamento em texto de linguagem natural, permitindo que o LLM interprete as interações do usuário e faça recomendações mais informadas.
Visão geral do projeto
Pontos -chave:
- Utilizou o conjunto de dados de revisão da Amazon 2018 para desenvolver um sistema de recomendação de produtos personalizado.
- Implementou e comparou o desempenho de dois grandes modelos de idiomas: Mistral-7b e Tinyllama.
- Técnicas avançadas aplicadas como Lora (adaptação de baixo rank) e Qlora (quantizada LORA) para ajuste fino eficiente do modelo.
- Desenvolveu uma nova estratégia de solicitação para transformar o histórico de interação do usuário em insumos de linguagem natural para os modelos.
- Alcançou mais de 98% de precisão na previsão das próximas compras de produtos dos usuários usando o modelo Tinyllama ajustado.
- Demonstrou que modelos menores e especializados podem superar modelos maiores para tarefas específicas quando ajustadas adequadamente.
- Análise de erro conduzido para identificar padrões em previsões incorretas e áreas potenciais de melhoria.
- Explorou o equilíbrio entre o tamanho do modelo, a eficiência computacional e a precisão da previsão em sistemas de recomendação.
O projeto concentra-se em demonstrar a eficiência dos LLMs de ajuste fino para tarefas de recomendação usando um conjunto de dados diversificado e expansivo. A implementação inclui as seguintes fases:
Extração de dados e pré -processamento :
- Subconjuntos extraídos de dados de revisão da Amazon e os converteu em quadros de dados.
- Removido colunas desnecessárias.
- Filtrou os usuários com históricos de compra insuficientes.
- Transformou os dados restantes em prompts, formando a entrada para o LLM.
Engenharia rápida :
- Explorou várias técnicas de solicitação.
- Resolvido em uma estrutura de três partes para cada prompt: instrução, detalhes de entrada e saída da verdade do fundamento.
- Essa estrutura fornece ao modelo uma tarefa clara, informações relevantes e o formato de saída desejado.
Implementação de modelos :
- Utilizou as bibliotecas não lotadas de IA e HuggingFace para modelos e ferramentas de personalização pré-treinados.
- Considerado Qlora, uma técnica para melhorar o desempenho do modelo.
- Criou objetos consolidados
SFTTrainer e TrainingArguments para centralizar ajustes de hiperparâmetro durante o treinamento.