Dieses Repository enthält den Code und die Ressourcen zum Erstellen eines E-Commerce-FAQ-Chatbots mithilfe von Parameter effizienter Feinabstimmung mit LORA-Technik. Das Projekt zielt darauf ab, einen Chatbot für eine E-Commerce-Site zu entwickeln, indem große Sprachmodelle (LLMs) genutzt und mit dem Falcon-7b-Modell einen Feinabstimmungsansatz verfolgt werden. Die Feinabstimmung erfolgt mit Parameter-effizienter Feinabstimmung (PEFT) und der LORA-Technik (Low-Rank-Adaptation), um die Leistung des Modells zu verbessern.
In der schnelllebigen Welt des E-Commerce ist der effiziente Umgang mit Kundenanfragen von entscheidender Bedeutung. In diesem Projekt wird eine Chatbot -Lösung vorgestellt, die erweiterte Sprachmodelle nutzt, um Antworten auf häufig gestellte Fragen zu automatisieren. Das fein abgestimmte Modell Falcon-7b wird in einem aus Kaggle extrahierten benutzerdefinierten Datensatz geschult, in dem sich gemeinsame Benutzerabfragen in der E-Commerce-Domäne befassen.
Das Projekt baut auf vorgeborenen Modellen auf, darunter die GPT-Modelle von OpenAI und die Lama-Modelle von Meta. Es werden auch vorhandene Chatbots wie IBM Watson Assistant und ADA Healthcare Chatbot untersucht. Der Vergleich zwischen RAG (Abrufener Generation) und fein abgestimmten Modellen wird diskutiert.
Der aus Kaggle stammende Datensatz umfasst 79 Proben mit Fragen und entsprechenden Antworten. Die Spaltung umfasst 67 Proben für das Training (85%) und 12 Proben zum Test (15%).
Link zum Datensatz auf Kaggle
Die Methodik umfasst die Verwendung des Falcon-7b-Modells, die Feinabstimmung mit PEFT- und LORA-Technik und die Nutzung wichtiger Bibliotheken wie Transformatoren und PEFT durch Umarmung. Der Prozess umfasst Datensatzvorverarbeitung, Konfiguration von LORA -Adaptern und Modelltraining.
Das Modell zeigt abnehmende Verlustwerte über Epochen hinweg, was auf positive Trainingstrends hinweist. Der zur Bewertung verwendete BLEU -Score zeigt die Fähigkeiten des Modells, Antworten zu generieren, die mit den erwarteten Ergebnissen ausgerichtet sind.
Das Projekt trägt zur Verbesserung der Kundenunterstützung im E-Commerce durch fortschrittliche Sprachmodelle bei. Während die erzielten Ergebnisse vielversprechend sind, werden weitere Experimente mit größeren Datensätzen und kontinuierlicher Modellverfeinerung empfohlen.
Anerkennungen werden auf die Entwickler des Falcon-7b-Modells, der Umarmungs-Face-Community, Kaggle für das Hosting des Datensatzes und der Fakultät der University of New Haven ausgedehnt.
Für die lokale Verwendung wurde eine Stromanwendung entwickelt, die eine GPU mit mindestens 16 Gigabyte Video -RAM (VRAM) für eine optimale Leistung erfordert. Die App in diesem Repository. Checkout in Streamlit-App dir
Fühlen Sie sich frei zu erforschen, zu experimentieren und zu weiteren Verbesserungen beizutragen.