يحتوي هذا الريبو على رمز لضبط نماذج اللغة الكبيرة (LLMS) مع مجموعة بيانات اقتباسات شهيرة.
الأساليب المدعومة من Finetuning هي السرعة العميقة أو Lora أو Qlora.
في الأصل ، قام Repo بتنزيل وتحويل أوزان النموذج لـ GPTJ عندما لم تتم إضافته بعد إلى حزمة Luggingface Transformer. لا يزال من الممكن رؤية هذا الرمز تحت فرع original_youtube .
/quotes_dataset يحتوي على مجموعة البيانات المنسقة بشكل صحيح للضبط. انظر REPO لصنع مجموعة البيانات هذه هنا
/finetuning_repo يحتوي على رمز في الأصل من الريبو هنا الذي قمت بتعديله للعمل مع المزيد من النماذج ومع المزيد من الطرق.
إذا كانت في حاجة إلى مساعدة مهنية مدفوعة الأجر ، فهذا متاح من خلال هذا البريد الإلكتروني
شاهد الفيديو القديم للحصول على رمز الريبو الأصلي هنا للحصول على برنامج تعليمي للفيديو.
يمكن رؤية مقطع فيديو أكثر تحديثًا لاستخدام نموذج HuggingFace هنا
انتقل إلى فرع original_youtube ، هل تريد رؤية الرمز ، لكنني أوصي بشدة باستخدام طرق أكثر حداثة
يستخدم التجول المحدث NVIDIA-Docker لإخراج الصداع من معظم العملية.
إذا كان لديك نظام Linux 64 بت وتحتاج إلى برامج تشغيل لـ A100 ، فيمكنك تشغيل أمر مثل هذا لإعداده.
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
ستقوم بعد ذلك بتشغيل البرنامج الذي تم تنزيله مع Sudo.
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run
sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh . إذا تلقيت خطأً حول عدم القدرة على العثور على صورة Docker ، فتحديث إلى إصدار CUDA الأحدث. يتم إهمال الصور بشكل دوري. ثم افتح العلاقات العامة حتى تتمكن من إصلاح هذه المشكلة للآخرين. يمكن أن يستغرق بناء صورة Docker عدة دقائق.run_image.sh . يقوم هذا البرنامج النصي بتشغيل صورة Docker التي تم بناؤها للتو وتركيب الدليل الحالي إلى /workspace داخل حاوية Docker. سيتم تمرير جميع وحدات معالجة الرسومات في النظام. بالإضافة إلى ذلك ، لمنع تنزيل النماذج في كل مرة يتم فيها تشغيل هذه الحاوية ، سيتم أيضًا تمرير .cache الخاص بك.