Finetune LLAMA 2 On Your DataSet AutoTrain From Hugging Face
1.0.0
このプロジェクトは、LORAアダプターを使用してLlama-3.1-8Bモデルを微調整し、チャットテンプレートを適用し、推論のためにモデルを保存する方法を示しています。このモデルは、ローカルデータでトレーニングされ、パラメーター効率の高いトレーニング用に最適化され、ハグするフェイスハブに展開されます。
このプロジェクトを実行するには、必要なパッケージをインストールする必要があります。これをGoogle Colabまたはあなたのローカル環境で設定できます。
pip install torch transformers datasets pandas unsloth trl