llm-recmendation-systems
基於文本建議的微調LLM
該項目探討了專門針對基於文本建議的精細調整大語言模型(LLM)的潛力,旨在提高準確性和用戶滿意度。它引入了一種新穎的及時機制,該機制將關係信息轉換為自然語言文本,從而使LLM能夠解釋用戶互動並提出更明智的建議。
項目概述
要點:
- 利用2018年亞馬遜評論數據集開發了個性化的產品推薦系統。
- 實施並比較了兩種大語言模型的性能:Mistral-7b和Tinyllama。
- 應用的高級技術(例如LORA(低級適應性)和Qlora(量化Lora),用於有效的模型微調。
- 開發了一種新穎的提示策略,將用戶互動歷史記錄轉變為模型的自然語言輸入。
- 使用微調Tinyllama型號預測用戶的下一個產品購買時,獲得了超過98%的精度。
- 證明較小的專業模型在正確調整時可以勝過特定任務的較大模型。
- 進行了誤差分析,以確定不正確的預測模式和潛在的改進領域。
- 探索了建議系統中模型大小,計算效率和預測準確性之間的平衡。
該項目著重於使用多樣化且廣泛的數據集證明針對建議任務的微調LLM的效率。實施包括以下階段:
數據提取和預處理:
- 提取亞馬遜審查數據的子集並將其轉換為數據范圍。
- 刪除了不必要的列。
- 用不足的購買歷史過濾了用戶。
- 將剩餘數據轉換為提示,形成了LLM的輸入。
及時工程:
- 探索了各種提示技術。
- 在每個提示符下定居三部分結構:指令,輸入詳細信息和地面真相輸出。
- 該結構為模型提供了明確的任務,相關信息和所需的輸出格式。
模型實施:
- 為預訓練的模型和自定義工具利用了不舒服的AI和擁抱面庫。
- 被認為是Qlora,這是一種改善模型性能的技術。
- 創建了合併的
SFTTrainer和TrainingArguments對象,以集中訓練期間的超參數調整。