Alpaca 3B Fine Tuned
1.0.0
مشروع مهني متعلق بالعمل
في هذا المشروع ، قدمت رمزًا ودفترًا كوليًا يسهل عملية التكييف لنموذج المعلمة الألباكا 3B الذي تم تطويره أصلاً في جامعة ستانفورد. يحتوي النموذج المعين الذي يتم ضبطه جيدًا على حوالي 3 مليارات من المعلمات ، وهو أحد طرز الألبكة الأصغر.
يستخدم النموذج Lora للتكيف منخفض الرتبة لتشغيله مع عدد أقل من الموارد الحسابية ومعلمات التدريب. نستخدم bitsandbytes لإعداد وتشغيل بتنسيق 8 بت بحيث يمكن استخدامه على colaboratory. علاوة على ذلك ، تم استخدام مكتبة PEFT من Huggingface لضبط النموذج.
المعلمات المفرطة:
الائتمان للنموذج الأصلي: Xinyang (Young) Geng و Hao Liu من OpenLM Research
نموذج ضبط جيد: Ryanair/Alpaca-3B-Fine Tuned (Huggingface)