Alpaca 350M Fine Tuned
1.0.0
مشروع مهني متعلق بالعمل
في هذا المشروع ، قدمت رمزًا ودفترًا كوليًا يسهل عملية ضبطها لنموذج الألبكة 350m الذي تم تطويره أصلاً في جامعة ستانفورد. يحتوي النموذج المعين الذي يتم ضبطه بشكل جيد على حوالي 350 مليون معلمة ، وهي واحدة من طرز الألبكة الأصغر (أصغر من طرازي السابق الذي تم ضبطه).
يستخدم النموذج Lora للتكيف منخفض الرتبة لتشغيله مع عدد أقل من الموارد الحسابية ومعلمات التدريب. نستخدم bitsandbytes لإعداد وتشغيل بتنسيق 8 بت بحيث يمكن استخدامه على colaboratory. علاوة على ذلك ، تم استخدام مكتبة PEFT من Huggingface لضبط النموذج.
المعلمات المفرطة:
الائتمان للنموذج الأصلي: Qiyuan GE
نموذج ضبط جيد: Ryanair/Alpaca-350m-Fine Tuned (Huggingface)