该存储库包含使用Lora Technique的参数有效调整来构建电子商务常见问题聊天机器人的代码和资源。该项目旨在通过利用大型语言模型(LLM)并使用Falcon-7B模型采用微调方法来为电子商务网站开发聊天机器人。通过参数有效的微调(PEFT)和LORA(低级适应)技术进行微调,以增强模型的性能。
在快速的电子商务世界中,有效地处理客户查询至关重要。该项目介绍了一个聊天机器人解决方案,利用高级语言模型来自动对常见问题的回答。微调模型Falcon-7B在从Kaggle提取的自定义数据集上进行了培训,并涉及电子商务域中的常见用户查询。
该项目建立在预先训练的模型的基础上,包括OpenAI的GPT模型和Meta的Llama型号。它还探索了IBM Watson Assistant和Ada Healthcare聊天机器人等现有聊天机器人。讨论了抹布(检索增强生成)与微调模型之间的比较。
来自Kaggle的数据集包含79个带有问题和相应答案的样本。该拆分包括67个用于训练的样本(85%)和12个样品进行测试(15%)。
链接到Kaggle上的数据集
该方法涉及使用Falcon-7b模型,使用PEFT和LORA技术进行微调,并通过拥抱面部来利用诸如变形金刚和PEFT之类的关键库。该过程包括数据集预处理,LORA适配器配置和模型培训。
该模型表明,各个时期的损失值降低,表明训练趋势是积极的。用于评估的BLEU评分展示了该模型在产生与预期结果一致的响应方面的熟练程度。
该项目通过高级语言模型有助于增强电子商务中的客户支持。尽管实现的结果是有希望的,但建议对较大的数据集进行进一步的实验,并建议进行连续的模型改进。
致谢延伸到Falcon-7b模型的开发商,拥抱面孔社区,Kaggle托管数据集以及纽黑文大学的教职员工。
已经开发了一个简化的应用程序供本地使用,需要具有至少16千兆视频RAM(VRAM)的GPU,以实现最佳性能。该存储库中的应用程序。在spartlit-app dir中结帐
随意探索,实验并为进一步的改进做出贡献。