Este repositório contém o código e os recursos para a criação de um chatbot de FAQ com comércio eletrônico usando o parâmetro ajuste fino eficiente com a técnica LORA. O projeto tem como objetivo desenvolver um chatbot para um site de comércio eletrônico, aproveitando os modelos de grandes idiomas (LLMS) e adotando uma abordagem de ajuste fina usando o modelo Falcon-7b. O ajuste fino é realizado com o ajuste fino (PEFT) eficiente em parâmetro e a técnica LORA (adaptação de baixo rank) para aprimorar o desempenho do modelo.
No mundo acelerado do comércio eletrônico, o manuseio de consultas com o cliente é crucial. Este projeto apresenta uma solução de chatbot alavancando modelos avançados de linguagem para automatizar respostas a perguntas frequentes. O modelo de ajuste fino, Falcon-7B, é treinado em um conjunto de dados personalizado extraído de Kaggle, abordando consultas comuns do usuário no domínio do comércio eletrônico.
O projeto se baseia em modelos pré-treinados, incluindo os modelos GPT da OpenAI e os modelos de llama da Meta. Ele também explora os chatbots existentes como o IBM Watson Assistant e o ADA Healthcare Chatbot. A comparação entre os modelos RAG (Recuperação Aumentada) e modelos de ajuste fino é discutido.
O conjunto de dados, proveniente de Kaggle, compreende 79 amostras com perguntas e respostas correspondentes. A divisão inclui 67 amostras para treinamento (85%) e 12 amostras para teste (15%).
Link para o conjunto de dados em kaggle
A metodologia envolve o uso do modelo Falcon-7b, ajuste fino com a técnica Peft e Lora e alavancando bibliotecas-chave como Transformers e Peft, abraçando o rosto. O processo inclui pré -processamento do conjunto de dados, configuração dos adaptadores LORA e treinamento de modelos.
O modelo demonstra valores de perda decrescente em épocas, indicando tendências de treinamento positivo. A pontuação do BLEU, usada para avaliação, mostra a proficiência do modelo na geração de respostas alinhadas com os resultados esperados.
O projeto contribui para melhorar o suporte ao cliente no comércio eletrônico por meio de modelos avançados de linguagem. Embora os resultados alcançados sejam promissores, recomenda -se experimentos adicionais com conjuntos de dados maiores e refinamento contínuo do modelo.
Os agradecimentos são estendidos aos desenvolvedores do modelo Falcon-7B, a comunidade de rosto abraçados, Kaggle para hospedar o conjunto de dados e a faculdade da Universidade de New Haven.
Um aplicativo Stirlit foi desenvolvido para uso local, exigindo uma GPU com pelo menos 16 gigabytes de RAM de vídeo (VRAM) para obter o desempenho ideal. o aplicativo neste repositório. check-out no slamlit-app diretor
Sinta -se à vontade para explorar, experimentar e contribuir para melhorias adicionais.