الأساس-النموذج اللامبور-النماذج-FM-LLM-
تم الالتزام بهذا المستودع بموجب عمل تنفيذ المهام المهمة التي يتم فيها وضع مفاهيم الذكاء الاصطناعي الحديثة. على وجه الخصوص ، ركزنا على ثلاث إجراءات ترميز لنماذج اللغة الكبيرة التي يتم تقديمها على النحو التالي:
- نستكشف مثال تلخيص الحوار من خلال الذكاء الاصطناعي التوليدي على AWS مع من النوع ML-M5-2XLARGE. تم تنفيذ ذلك بنجاح من خلال دمج ملخص للحوار مع نموذج اللغة الكبير المدربين مسبقًا (LLM) Flan-T5 من وجه المعانقة. علاوة على ذلك ، استخدمنا هندسة سريعة وهو مفهوم مهم في نماذج الأساس لتوليد النصوص. استخدمنا الاستدلال صفريًا ، واستدلال طلقة واحدة واستنتاجات قليلة لاستنتاج تجربة تلخيص الحوار.
- في التجربة الثانية ، نستكشف مفهومًا مهمًا للضبط الدقيق على نموذج AI التوليدي ومرة أخرى عملنا في تجربة تلخيص الحوار. من المهم مرة أخرى أن نلاحظ أنه تم إجراء هذه التجربة بالذات على AWS مع ML-M5-2XLARGE من نوع Instace. بعد استدعاء مجموعة البيانات التي تهمنا ، والتي في هذه الحالة هي Dialogsum تعانق مجموعة بيانات الوجه ، نقوم بتحميل نموذج Flan-T5 المدربين مسبقًا ثم نرمزه. بعد اختبار النموذج باستخدام التقديمات ، قمنا بتنشيط النموذج ثم قمنا بتقييم صحة LLM المدربة بواسطة مقياس المارقة. بعد ذلك ، أجرينا ضبطًا دقيقًا ، قمنا بتنفيذ المعلمة الدقيقة الفعالة (PEFT) وهو مصطلح عام يتضمن التكيف منخفض الرتب (LORA) وتجربة IC التي اختتمت عن طريق حساب مقياس المارقة مرة أخرى للتحقق من صحة PEFT على النموذج.
- أخيرًا ، ندرس كيفية ضبط نموذج Flan-T5 لتوليد محتوى أقل سمية مع نموذج مكافأة الكراهية في Meta AI. بعد أن نفذنا الالتزامات التقليدية ، نقوم بإجراء ضبط دقيق لإزالة السموم من الملخص من خلال تحسين سياسة التعلم التعزيز مقابل نموذج المكافآت باستخدام تحسين السياسة القريبة (PPO). مرة أخرى ، من فضلك لا تنسى ذلك ، لقد أجرينا كل هذا على AWS مع من النوع ML-M5-2XLARGE.
تم إتاحة كل هذه الترميز خلال الدورة التي اتخذتها على https://www.coursera.org/learn/generative-ai-with-llms في Coursera. تم تحميل شهادة مشاركتي النشطة بالفعل في هذا المستودع.