LLM-Commendation-Systems
テキストベースの推奨事項のための微調整LLM
このプロジェクトでは、テキストベースの推奨事項のために特に大規模な言語モデル(LLMS)を微調整する可能性を調査し、精度とユーザーの満足度を向上させることを目的としています。関係情報を自然言語のテキストに変換する新しい迅速なメカニズムを導入し、LLMがユーザーインタラクションを解釈し、より多くの情報に基づいた推奨事項を作成できるようにします。
プロジェクトの概要
キーポイント:
- 2018 Amazon Review Datasetを利用して、パーソナライズされた製品推奨システムを開発しました。
- Mistral-7BとTinyllamaの2つの大きな言語モデルのパフォーマンスを実装および比較しました。
- 効率的なモデルの微調整のために、LORA(低ランク適応)やQlora(量子化されたLORA)などの高度な技術。
- ユーザーの相互作用履歴をモデルの自然言語入力に変換するための新しいプロンプト戦略を開発しました。
- 微調整されたTinyllamaモデルを使用して、ユーザーの次の製品購入を予測する上で98%以上の精度を達成しました。
- より小さく、専門的なモデルが、適切に微調整された場合、特定のタスクの大きなモデルを上回ることができることを実証しました。
- 誤った予測のパターンを特定し、改善のための潜在的な領域を識別するためのエラー分析を実施しました。
- 推奨システムのモデルサイズ、計算効率、予測精度のバランスを調査しました。
このプロジェクトは、多様で広大なデータセットを使用した推奨タスクの微調整LLMの効率を実証することに焦点を当てています。実装には、次のフェーズが含まれます。
データ抽出と前処理:
- Amazonレビューデータのサブセットを抽出し、それらをデータフレームに変換しました。
- 不要な列を削除しました。
- 購入履歴が不十分なユーザーを除外しました。
- 残りのデータをプロンプトに変換し、LLMの入力を形成しました。
迅速なエンジニアリング:
- さまざまなプロンプトテクニックを調査しました。
- 各プロンプトの3部構造構造に落ち着きました:命令、入力の詳細、およびグラウンドトゥルース出力。
- この構造は、モデルに明確なタスク、関連情報、および目的の出力形式を提供します。
モデルの実装:
- 事前に訓練されたモデルとカスタマイズツールのために、Unsloth AIおよびHuggingfaceライブラリを利用しました。
- モデルのパフォーマンスを向上させる手法であるQloraと見なされます。
- トレーニング中にハイパーパラメーターの調整を集中させるために、統合された
SFTTrainerおよびTrainingArgumentsオブジェクトを作成しました。