مجموعة من الأوراق والموارد حول مواءمة نماذج اللغة الكبيرة (LLMS) مع الإنسان.
ظهرت نماذج اللغة الكبيرة (LLMS) التي تم تدريبها على شركة نصية واسعة النطاق كحلول رائدة لمجموعة واسعة من مهام معالجة اللغة الطبيعية (NLP). على الرغم من أدائها الملحوظ ، فإن هذه النماذج عرضة لبعض القيود مثل سوء فهم التعليمات البشرية ، أو توليد محتوى متحيز محتمل ، أو معلومات غير صحيحة في الواقع. وبالتالي ، أصبح محاذاة LLMs مع التوقعات البشرية مجالًا نشطًا في الاهتمام داخل مجتمع الأبحاث. يقدم هذا المسح نظرة عامة شاملة على تقنيات المحاذاة هذه ، بما في ذلك الجوانب التالية. (1) جمع البيانات (2) منهجيات التدريب (3) تقييم النموذج. في الختام ، نقوم بتجميع النتائج التي توصلنا إليها ونقلها ، ونلقي الضوء على العديد من طرق البحث المستقبلية الواعدة في هذا المجال. لذلك ، يعمل هذا الاستطلاع كمورد قيّم لأي شخص يستثمر في فهم وتعزيز محاذاة LLMS لتناسب المهام والتوقعات الموجهة نحو الإنسان بشكل أفضل.
نأمل أن يساعد هذا المستودع الباحثين والممارسين على الحصول على فهم أفضل لهذا المجال الناشئ. إذا كان هذا المستودع مفيدًا لك ، فيرجى مساعدتنا عن طريق الاستشهاد بهذه الورقة:
@article{aligning_llm_human,
title={Aligning Large Language Models with Human: A Survey},
author={Yufei Wang and Wanjun Zhong and Liangyou Li and Fei Mi and Xingshan Zeng and Wenyong Huang and Lifeng Shang and Xin Jiang and Qun Liu},
journal={arXiv preprint arXiv:2307.12966},
year={2023}
}؟ هذا المشروع قيد التطوير. يمكنك ضرب النجم ومشاهدة لمتابعة التحديثات.