このプロジェクトは、FaceのTransformers Libraryを使用してFlan-T5言語モデルを微調整することを目的としています。これらの手順に従うことにより、モデルを微調整して推論に使用できます。
始める前に、次のことを確認してください。
このリポジトリをローカルマシンにクローンします。
git clone https://github.com/mltrev23/Fine-Tuning-LLaMA-2/次のコマンドを使用して、必要なパッケージをインストールします。
pip install -r requirements.txt微調整には4つの方法があります。
添加剤の微調整:トレーニングにレイヤーを追加します。
python additive-fine-tuning.py完全な微調整:モデルのすべてのウェイトをトレーニングします。
python full-fine-tuning.py選択的な微調整:トレーニングする元のモデルの特定のレイヤーを選択します。
python selective-fine-tuning.pyテンプレート微調整:トレーニングに事前定義されたテンプレートを使用します。テンプレートは必要に応じて変更できます。
微調整のために独自のデータを摂取するには、スクリプトのコードを変更してデータセットをロードします。テキストデータセットを読み込む例は次のとおりです。
from transformers import LineByLineTextDataset
dataset = LineByLineTextDataset ( tokenizer = tokenizer , file_path = 'datasets/bittensor.txt' , block_size = 128 )微調整されたFlan-T5モデルを使用して推論を実行するには、次のスクリプトを使用できます。
フォワードパスを使用して生成:このスクリプトは、フォワードパスアプローチを使用してテキストの生成を示します。
python generate-using-forward.py主な推論スクリプト:このスクリプトは、モデルから出力を生成する簡単な方法を提供します。
python main.pymain.pyファイルの入力テキストを変更して、モデルをテストできます。
input_text = [ "What is FAANG?" ]これにより、提供された入力に基づいて出力が生成されます。
特定のタスクとデータセットに必要に応じて、自由にスクリプトを変更してください。問題が発生した場合は、抱き合っている顔の文書を確認するか、コミュニティから助けを求めてください。
特定のニーズに基づいて、セクションをさらに調整してください!