Repositori ini berisi kode dan sumber daya untuk membangun chatbot FAQ e-commerce menggunakan parameter fine tuning efisien dengan teknik LORA. Proyek ini bertujuan untuk mengembangkan chatbot untuk situs e-commerce dengan memanfaatkan model bahasa besar (LLM) dan mengadopsi pendekatan penyempurnaan menggunakan model Falcon-7b. Fine-tuning dilakukan dengan parameter efisien fine tuning (PEFT) dan teknik LORA (adaptasi rendah) untuk meningkatkan kinerja model.
Di dunia e-commerce yang serba cepat, menangani pertanyaan pelanggan secara efisien sangat penting. Proyek ini memperkenalkan solusi chatbot yang memanfaatkan model bahasa canggih untuk mengotomatisasi tanggapan terhadap pertanyaan yang sering diajukan. Model yang disesuaikan, Falcon-7b, dilatih pada dataset khusus yang diekstraksi dari Kaggle, menangani kueri pengguna umum di domain e-commerce.
Proyek ini dibangun berdasarkan model pra-terlatih, termasuk model GPT Openai dan model Llama Meta. Ini juga mengeksplorasi chatbots yang ada seperti IBM Watson Assistant dan ADA Healthcare Chatbot. Perbandingan antara Rag (Retrieval Augmented Generation) dan model yang disesuaikan dibahas.
Dataset, yang bersumber dari Kaggle, terdiri dari 79 sampel dengan pertanyaan dan jawaban yang sesuai. Perpecahan mencakup 67 sampel untuk pelatihan (85%) dan 12 sampel untuk pengujian (15%).
Tautan ke dataset di kaggle
Metodologi ini melibatkan penggunaan model Falcon-7b, menyempurnakan dengan teknik PEFT dan LORA, dan memanfaatkan perpustakaan kunci seperti Transformers dan Peft dengan memeluk wajah. Proses ini mencakup preprocessing dataset, konfigurasi adapter LORA, dan pelatihan model.
Model ini menunjukkan penurunan nilai kerugian di seluruh zaman, menunjukkan tren pelatihan positif. Skor Bleu, yang digunakan untuk evaluasi, menampilkan kemahiran model dalam menghasilkan respons yang selaras dengan hasil yang diharapkan.
Proyek ini berkontribusi untuk meningkatkan dukungan pelanggan dalam e-commerce melalui model bahasa canggih. Sementara hasil yang dicapai menjanjikan, eksperimen lebih lanjut dengan kumpulan data yang lebih besar dan penyempurnaan model berkelanjutan direkomendasikan.
Ucapan Terima Kasih Diperluas ke Pengembang Model Falcon-7B, Komunitas Face Hugging, Kaggle untuk menjadi tuan rumah dataset, dan fakultas di University of New Haven.
Aplikasi streamlit telah dikembangkan untuk penggunaan lokal, membutuhkan GPU dengan setidaknya 16 gigabyte video ram (VRAM) untuk kinerja optimal. Aplikasi di repositori ini. Checkout di streamlit-app dir Dir
Jangan ragu untuk mengeksplorasi, bereksperimen, dan berkontribusi pada perbaikan lebih lanjut.