simple llm finetuner
1.0.0
| タイトル | 絵文字 | 色から | コロルト | SDK | app_file | ピン留め |
|---|---|---|---|---|---|---|
シンプルなLLM Finetuner | ? | 黄色 | オレンジ | グラデーション | app.py | 間違い |
Simple LLM Finetunerは、商品Nvidia GPUのPEFTライブラリを介してLORAメソッドを使用してさまざまな言語モデルを微調整するように設計された初心者向けのインターフェイスです。小さなデータセットと256のサンプル長さでは、通常のColab Tesla T4インスタンスでこれを実行することもできます。
この直感的なUIを使用すると、データセットを簡単に管理し、パラメーターをカスタマイズし、トレーニングを行い、モデルの推論機能を評価できます。
仮想環境を使用して、必要なパッケージをインストールすることをお勧めします。コンドラが望ましい。
conda create -n simple-llm-finetuner python=3.10
conda activate simple-llm-finetuner
conda install -y cuda -c nvidia/label/cuda-11.7.0
conda install -y pytorch=2 pytorch-cuda=11.7 -c pytorch
WSLでは、これらの手順に従って手動でCUDAをインストールし、起動する前に以下を実行する必要がある場合があります。
export LD_LIBRARY_PATH=/usr/lib/wsl/lib
リポジトリをクローンし、必要なパッケージをインストールします。
git clone https://github.com/lxe/simple-llm-finetuner.git
cd simple-llm-finetuner
pip install -r requirements.txt
起動します
python app.py
ブラウザでhttp://127.0.1:7860/を開きます。各サンプルを2つの空白線で分離して、トレーニングデータを準備します。トレーニングデータセット全体をテキストボックスに貼り付けます。 「新しいPEFTアダプター名」テキストボックスに新しいLORAアダプター名を指定し、[トレーニング]をクリックします。 GPUメモリに合わせて最大シーケンスの長さとバッチサイズを調整する必要がある場合があります。モデルはlora/ディレクトリに保存されます。
トレーニングが完了したら、[推論]タブに移動し、ロラを選択して、それで遊んでください。
楽しむ!
https://www.youtube.com/watch?v=ym1wandknz8
MITライセンス