Ce référentiel contient le code et les ressources pour créer un chatbot FAQ de commerce électronique en utilisant un réglage fin efficace des paramètres avec la technique LORA. Le projet vise à développer un chatbot pour un site de commerce électronique en tirant parti des modèles de grandes langues (LLM) et en adoptant une approche de réglage fin à l'aide du modèle Falcon-7B. Le réglage fin est effectué avec un réglage fin efficace des paramètres (PEFT) et la technique LORA (Adaptation de faible rang) pour améliorer les performances du modèle.
Dans le monde du commerce électronique rapide, la gestion efficace des requêtes des clients est cruciale. Ce projet présente une solution de chatbot en tirant parti des modèles de langage avancés pour automatiser les réponses aux questions fréquemment posées. Le modèle affiné, FALCON-7B, est formé sur un ensemble de données personnalisé extrait de Kaggle, traitant des requêtes utilisateur communes dans le domaine du commerce électronique.
Le projet s'appuie sur les modèles pré-formés, y compris les modèles GPT d'Openai et les modèles LLAMA de META. Il explore également les chatbots existants comme IBM Watson Assistant et Ada Healthcare Chatbot. La comparaison entre le chiffon (génération augmentée de récupération) et les modèles affinés est discuté.
L'ensemble de données, provenant de Kaggle, comprend 79 échantillons avec des questions et des réponses correspondantes. La scission comprend 67 échantillons pour la formation (85%) et 12 échantillons pour les tests (15%).
Lien vers un ensemble de données sur Kaggle
La méthodologie consiste à utiliser le modèle Falcon-7B, à affiner avec la technique PEFT et LORA, et en tirant parti des bibliothèques clés telles que les transformateurs et PEFT en étreignant le visage. Le processus comprend le prétraitement de l'ensemble de données, la configuration des adaptateurs LORA et la formation du modèle.
Le modèle démontre une diminution des valeurs de perte à travers les époques, indiquant des tendances de formation positives. Le score BLEU, utilisé pour l'évaluation, présente la compétence du modèle dans la génération de réponses alignées avec les résultats attendus.
Le projet contribue à améliorer le support client dans le commerce électronique grâce à des modèles de langage avancés. Bien que les résultats obtenus soient prometteurs, d'autres expériences avec des ensembles de données plus importants et un raffinement continu du modèle sont recommandés.
Les remerciements sont étendus aux développeurs du modèle Falcon-7B, de la communauté des étreintes de visage, de Kaggle pour l'hébergement de l'ensemble de données et de la faculté de l'Université de New Haven.
Une application rationalisée a été développée pour un usage local, nécessitant un GPU avec au moins 16 gigaoctets de RAM vidéo (VRAM) pour des performances optimales. L'application dans ce référentiel. Découvrez dans Dir Streamlit-App
N'hésitez pas à explorer, à expérimenter et à contribuer à de nouvelles améliorations.