المؤلف: Zhao Xin ، Li Junyi ، Zhou Kun ، Tang Tianyi ، Wen Jirong
في نهاية عام 2022 ، تم إطلاق Chatgpt بشكل مثير للصدمة ، وسرعان ما "اجتاحت" تقنية النموذج الكبير "المجتمع بأكمله" ، وقد دخلت تكنولوجيا الذكاء الاصطناعي في تقدم مهم. في مواجهة الأداء القوي لنماذج اللغة الكبيرة ، لا يسعنا إلا أن نسأل: ما هي بالضبط التكنولوجيا وراء هذه النماذج؟ أصبح هذا السؤال بلا شك محور التفكير للعديد من الباحثين العلميين. يجب الإشارة إلى أن تقنية النماذج الكبيرة لا تتحقق بين عشية وضحاها. شهد تاريخ تطويره على التوالي مراحل تطوير متعددة مثل نماذج اللغة الإحصائية ونماذج لغة الشبكة العصبية ونماذج اللغة التي تم تدريبها مسبقًا. قامت كل خطوة من خطوات التطوير بتكثيف جهود وإنجازات العديد من الباحثين العلميين. بصفته مروجًا مهمًا لتكنولوجيا نموذج اللغة الكبيرة ، استكشف Openai عددًا كبيرًا من التفاصيل الفنية المتعلقة بها في الماضي وأخيراً أطلقت سلسلة GPT من النماذج ، مما أدى إلى هذا التغيير التكنولوجي.
ومع ذلك ، منذ GPT-3 ، نادراً ما ذكر فريق Openai التفاصيل الفنية ذات الصلة في المواد العامة ، والعديد من التقارير الفنية تقدم بشكل أساسي المحتوى المتعلق بالمراجعة. حتى الآن ، لا يزال من الصعب فك تشفير التكنولوجيا الأساسية حول نموذج سلسلة GPT. في الوقت الحاضر ، فإن التحدي الرئيسي الذي يواجه المجتمع الأكاديمي هو أن هناك عدد قليل جدًا من الفرق التي لديها موارد كافية لاستكشاف تدريبات نموذجية كبيرة بشكل كامل ، مما يؤدي إلى عدم وجود خبرة مباشرة وصعوبة في إجراء البحوث ذات الصلة مباشرة. يتضمن التدريب النموذجي الكبير العديد من تفاصيل التدريب ، والتي لا يتم الحصول عليها مباشرة من أوراق البحث العلمي القائمة. نظرًا للعديد من المعلمات والمكونات المعقدة وعملية التدريب المعقدة نسبيًا ، قد تؤدي الاستكشافات التجريبية المبكرة إلى زيادة كبيرة في عدد التجارب إذا لم يتم تقديم معرفة سابقة. هذا يجعل من الصعب بشكل خاص إتقان تجربة التكنولوجيا النموذجية الكبيرة ، ناهيك عن استكشاف قضايا البحث العلمي ذات الصلة من نقطة الصفر ، مما يحد بشكل كبير من الدور الذي يلعبه المجتمع الأكاديمي في هذه الموجة الاصطناعية. في الوقت الحاضر ، يتم اشتقاق نماذج اللغة الكبيرة ذات القدرات القوية من الصناعة ، وقد يصبح هذا الاتجاه أكثر وضوحًا بمرور الوقت. "المعرفة" مهمة للغاية للباحثين العلميين من التجربة المباشرة. فقط من خلال التعرف على جوهر التكنولوجيا ، يمكننا أن نفهم حقًا المشكلات ذات مغزى وإيجاد حلول.
إنه لمن دواعي سرورنا أن الناس قد أدركوا تدريجياً أهمية "الانفتاح" في كل من الأوساط الأكاديمية والصناعة ، ويمكنهم رؤية المزيد والمزيد من النماذج الأساسية العامة والرموز الفنية والأوراق الأكاديمية ، والتي عززت بشكل فعال "شفافية" التكنولوجيا النموذجية الكبيرة. فقط من خلال الانفتاح والمشاركة ، يمكننا جمع حكمة جمعية البشرية والترويج بشكل مشترك لتطوير تكنولوجيا الذكاء الاصطناعي. في الواقع ، وفقًا للمعلومات العامة الحالية ، فإن تقنية النماذج الكبيرة هي أيضًا "مع قواعد متابعة" ، مثل عملية التدريب الشاملة ، وطرق تنظيف البيانات ، وتكنولوجيا التهمة ، وتكنولوجيا التفضيلات البشرية ، وخوارزميات تفضيل الإنسان ، وما إلى ذلك ، وفقًا لهذه التقنيات ، مع دعم موارد الحوسبة ، تمكن موظفو البحث والتطوير من إكمال عملية التدريب الشاملة للنموذج الكبير بسلاسة نسبيًا وتحقيق نتائج النموذج الجيد. من خلال الكشف عن المزيد من التقنيات الأساسية وفتحها ، سيتم تحسين "شفافية" تكنولوجيا النماذج الكبيرة.
باختصار ، تقع تقنية النموذج الكبيرة في مرحلة من التطور السريع ، ويجب استكشاف المبادئ الأساسية ويجب تحسين التقنيات الرئيسية. بالنسبة للباحثين العلميين ، فإن أعمال البحث النموذجية الكبيرة مليئة بالخيال والرائع. من خلال التقدم المستمر ومشاركة وفتح التكنولوجيا ، لدينا سبب للاعتقاد بأن تكنولوجيا الذكاء الاصطناعي ستحقق تقدمًا أكبر في المستقبل وستكون لها تأثير أكثر عمقًا في المزيد من المجالات. يهدف هذا الكتاب إلى تزويد القراء بفهم شامل لتكنولوجيا النموذج الكبير ، بما في ذلك مبادئه الأساسية والتقنيات الرئيسية وآفاق التطبيق. من خلال البحث والممارسة المتعمقة ، يمكننا باستمرار استكشاف وتحسين تكنولوجيا النموذج على نطاق واسع والمساهمة في تطوير مجال الذكاء الاصطناعي. نأمل أن يتمكن القراء من فهم الوضع الحالي والاتجاهات المستقبلية لتكنولوجيا النموذج الكبير من خلال قراءة هذا الكتاب ، وتوفير التوجيه والإلهام لبحثهم وممارستهم. دعنا نعمل معًا لتعزيز تطوير تكنولوجيا الذكاء الاصطناعي والمساهمة في بناء مستقبل أكثر ذكاءً وأكثر استدامة.

محتوى الكتاب : "نموذج اللغة الكبيرة" (تم تحديثه 2024-04-15)
ورقة مراجعة اللغة الإنجليزية : llmsurvey
LLMBOX : مكتبة الكود
Mockup Yulan : Code Library

赵鑫,李军毅,周昆,唐天一,文继荣,大语言模型,https://llmbook-zh.github.io/,2024.
@book{LLMBook,
title = {大语言模型},
year = {2024},
author = {赵鑫, 李军毅, 周昆, 唐天一, 文继荣},
address = {北京},
url = {https://llmbook-zh.github.io/},
}
قائمة الأشخاص والمشاركين المسؤولين الرئيسيين في كل فصل من هذا الكتاب هي كما يلي:
أيضًا ، بفضل الطلاب الآخرين الذين شاركوا في تجميع هذا الكتاب وتصحيحه. إنهم (مرتبة من قبل Pinyin) هم Cao Qian و Cao Zhanshuo و Chen Jie و Cheng Jiyyaqi و Dai Tunhao و Deng Xin و Ding Yijie و Feng Xueyang و Gao Zefeng و Gou Zhibin و Gu Zihui و Guo Geyang و Hou Dongnan و Hou Xinming و Hu Yiwen و Li Bingsqian ، Chengyuan ، Li Ging-Yuan ، Liu Enze ، Liu Jiongnan ، Liu Zihan ، Luo Wenyang ، Mei Lang ، Ou Keshan ، Peng Han ، Ruan Kai ، Su Weihang ، Sun Yiding ، Tang Yiru ، Wang Jiap ، Wang Lei ، Wang anting ، Yao Feng ، تشانغ ليانغ ، تشو تيانيو وتشو يوتاو.
خلال عملية الكتابة ، تم دعم هذا الكتاب من خلال الحوسبة الموارد من منصة مشاركة الأدوات العلمية على نطاق واسع في جامعة رينمين في الصين. أود أن أعرب عن خالص شكري للمعلمين الثلاثة تشن يويغو ولو ويزنج وشي يوان.
يتم إنشاء صورة غلاف هذا الكتاب بواسطة أدوات الذكاء الاصطناعي ويتم إنتاجها بواسطة Xu Lanling.
في عملية إعداد الكتب الصينية ، نقرأ على نطاق واسع الأوراق الكلاسيكية الحالية والرموز والكتب المدرسية والمفاهيم الأساسية المستخرجة والخوارزميات والنماذج السائدة ، وقدمها بشكل منهجي. لقد قمنا بمراجعة المسودة الأولى لكل فصل عدة مرات ، وسعتقينا لتوضيح التعبيرات الدقيقة. ومع ذلك ، أثناء عملية الكتابة ، نشعر بعمق بالقيود على قدراتنا ومعرفتنا. على الرغم من أننا بذلنا جهودًا كبيرة ، إلا أنه سيكون هناك حتامًا أو نقاط غير لائقة. الطبعة الأولى من هذا الكتاب ليست سوى نقطة انطلاق. نخطط لمواصلة تحديث المحتوى وتحسينه عبر الإنترنت ، ونرحب بشكل خاص بالقراء لتقديم انتقادات واقتراحات قيمة. سنقدم أيضًا الشكر للقراء الذين يقدمون اقتراحات قيمة على الموقع في نفس الوقت. نحن نعتبر عملية كتابة هذا الكتاب على أنها عملية تعليمية خاصة بنا ، ونأمل أيضًا في التواصل المتعمق مع القراء من خلال هذا الكتاب والتعلم من المزيد من أقران الصناعة.
إذا كان لديك أي تعليقات وتعليقات واقتراحات (تأكد أولاً مما إذا كان قد تم تصحيح الإصدار الأخير) ، فيرجى تقديم ملاحظات من خلال صفحة مشكلات Github ، أو إرسالها بالبريد الإلكتروني إلى عنوان البريد الإلكتروني للمؤلف Batmanfly على QQ.com ، lijunyi في Ruc.edu.cn ، francis_kun_zhou على roc.edu.cn ، stevenianyitang في Outlocklook.com .