Alpaca 3B Fine Tuned
1.0.0
プロの仕事関連プロジェクト
このプロジェクトでは、Stanford Universityで最初に開発されたAlpaca 3Bパラメーターモデルの微調整プロセスを促進するコードとコラボラトリーノートを提供しました。微調整されている特定のモデルには、約30億パラメーターがあり、これはより小さなアルパカモデルの1つです。
このモデルは、低ランクの適応LORAを使用して、より少ない計算リソースとトレーニングパラメーターで実行されます。 bitsandbytesを使用して、8ビット形式でセットアップおよび実行して、コラボリ酸で使用できます。さらに、HuggingfaceのPEFTライブラリは、モデルを微調整するために使用されました。
ハイパーパラメーター:
オリジナルモデルのクレジット:Xinyang(Young)GengとHao Liu OpenLM ResearchのHao Liu
微調整モデル:Ryanair/Alpaca-3B-fine-tuned(huggingface)