يغير هذا المشروع تنفيذ رمز MXNET في الكتاب الأصلي "التعلم العميق" إلى TensorFlow2. بعد أن استشار مدرس Archersama مع المعلم Li Mu ، تمت الموافقة على تنفيذ هذا المشروع من قبل المعلم Li Mu. مؤلفو الكتاب الأصليين: أستون تشانغ ، لي مو ، زاكاري سي. ليبتون ، ألكساندر ج. سمورا والمساهمين الآخرين في المجتمع ، عنوان جيثب: https://github.com/d2l-ai/d2l-zh
هناك بعض الاختلافات في الإصدارات الصينية والإنجليزية من هذا الكتاب. يعيد هذا المشروع بشكل أساسي إعادة توحص TensorFlow2 للنسخة الصينية من هذا الكتاب. بالإضافة إلى ذلك ، يشير هذا المشروع أيضًا إلى مشروع Dive-neto-DL-Pytorch الذي يعيد إعادة تهيئة Pytorch في النسخة الصينية من هذا الكتاب ، شكرًا لك هنا.
تم تحديثه إلى عشرة فصول ويتم تحديثه بشكل مستمر. . .
تم الإبلاغ عن المشروع من قبل العديد من الحسابات العامة مثل Machine Heart وتم الاعتراف بها من قبل المؤلف الأصلي Li Mu.
مقدمة
يحتوي هذا المستودع بشكل أساسي على مجلدين: رمز ومستندات (بالإضافة إلى تخزين بعض البيانات في البيانات). مجلد الرمز هو رمز دفتر جوبتر ذي الصلة لكل فصل (استنادًا إلى TensorFlow2) ؛ مجلد المستندات هو المحتوى ذي الصلة في تنسيق Markdown لكتاب "التعلم العميق" ، ثم استخدم Docsify لنشر مستند الويب على صفحات GitHub. نظرًا لأن الكتاب الأصلي يستخدم إطار عمل MXNET ، فقد يكون محتوى المستندات مختلفًا قليلاً عن الكتاب الأصلي ، ولكن المحتوى الكلي هو نفسه. المساهمات في هذا المشروع أو القضية موضع ترحيب.
للحشود
يستهدف هذا المشروع أحذية الأطفال المهتمين بالتعلم العميق ، وخاصة أولئك الذين يرغبون في استخدام TensorFlow2 للتعلم العميق. لا يتطلب منك هذا المشروع أن يكون لديك أي معرفة أساسية بالتعلم العميق أو التعلم الآلي. ما عليك سوى فهم الرياضيات والبرمجة الأساسية ، مثل الجبر الخطي الأساسي ، والتفاضلية والاحتمال ، وبرمجة Python الأساسية.
كيف تأكل
الطريقة 1
يحتوي هذا المستودع على بعض صيغ اللاتكس ، ولكن لا يدعم Github Markdown Display عرض الصيغة ، وتم نشر مجلد المستندات على صفحات GitHub باستخدام Docsify ، وبالتالي فإن أسهل طريقة لعرض المستند هي الوصول مباشرة إلى إصدار الويب من هذا المشروع . بالطبع ، إذا كنت لا تزال ترغب في تشغيل الكود ذي الصلة ، فلا يزال يتعين عليك استنساخ المشروع ثم تشغيل الكود ذي الصلة في مجلد الرمز.
الطريقة 2
يمكنك أيضًا الوصول إلى الوثائق محليًا وتثبيت أداة docsify-cli أولاً:
ثم استنساخ المشروع محليا:
git clone https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0
cd Dive-into-DL-TensorFlow2.0
ثم قم بتشغيل خادم محلي ، بحيث يمكنك بسهولة الوصول إلى تأثير تقديم ويب المستند في الوقت الفعلي على http://localhost:3000 .
المساهمين
الرعاة والمساهمين الرئيسيين في هذا المشروع على النحو التالي
آرترساما (قائد) | خداع
| Swordfaith
| Shusentang
| ليانجكينغويوان
|
جدول المحتويات
- مقدمة
- دليل القراءة
- 1. مقدمة للتعلم العميق
- 2. المعرفة التحضير
- 2.1 تكوين البيئة
- 2.2 تشغيل البيانات
- 2.3 تجد التدرجات تلقائيًا
- 2.4 تحقق من المستند
- 3. أساسيات التعلم العميق
- 3.1 الانحدار الخطي
- 3.2 تنفيذ الانحدار الخطي من الصفر
- 3.3 تنفيذ موجز للانحدار الخطي
- 3.4 الانحدار softmax
- 3.5 مجموعة بيانات تصنيف الصور (الموضة)
- 3.6 تنفيذ انحدار softmax من الصفر
- 3.7 تطبيق بسيط لانحدار Softmax
- 3.8 آلة استشعار متعددة الطبقات
- 3.9 تنفيذ آلة تصور الطبقة متعددة الطبقات من الصفر
- 3.10 التنفيذ البسيط لآلة تصور الطبقة متعددة الطبقات
- 3.11 اختيار النماذج ، والضمن والتورط
- 3.12 تحلل الوزن
- 3.13 طريقة التخلص
- 3.14 الانتشار إلى الأمام ، والانتشار الخلفي والاخطاف المخططات الحسابية
- 3.15 الاستقرار العددي وتهيئة النموذج
- 3.16 مسابقة Kaggle الفعلية: التنبؤ بسعر المنزل
- 4. الحوسبة التعليمية العميقة
- 4.1 بناء النموذج
- 4.2 الوصول والتهيئة ومشاركة معلمات النموذج
- 4.3 تأخير تهيئة المعلمات النموذجية
- 4.4 طبقة مخصصة
- 4.5 القراءة والتخزين
- 4.6 GPU الحوسبة
- 5. الشبكة العصبية التلافيفية
- 5.1 طبقة الالتواء ثنائية الأبعاد
- 5.2 ملء وخطوة
- 5.3 قناة متعددة المدخلات وقناة متعددة المخرجات
- 5.4 تجميع الطبقة
- 5.5 الشبكة العصبية التلافيفية (LENET)
- 5.6 الشبكة العصبية التلافيفية العميقة (Alexnet)
- 5.7 شبكات باستخدام عناصر متكررة (VGG)
- 5.8 شبكة في الشبكة (NIN)
- 5.9 شبكة مع اتصال متوازي (googlenet)
- 5.10 تطبيع الدُفعات
- 5.11 الشبكة المتبقية (RESNET)
- 5.12 Densenet
- 6. الشبكة العصبية المتكررة
- 6.1 نموذج اللغة
- 6.2 الشبكة العصبية المتكررة
- 6.3 مجموعة بيانات نموذج اللغة (كلمات ألبوم جاي تشو)
- 6.4 تنفيذ الشبكات العصبية المتكررة من الصفر
- 6.5 التنفيذ البسيط للشبكة العصبية المتكررة
- 6.6 backpropagation عبر الزمن
- 6.7 وحدة تداول بوابات (GRU)
- 6.8 ذاكرة طويلة الأجل طويلة (LSTM)
- 6.9 الشبكة العصبية المتكررة العميقة
- 6.10 شبكة عصبية متكررة ثنائية الاتجاه
- 7. خوارزمية التحسين
- 7.1 التحسين والتعلم العميق
- 7.2 النزول التدرج والانسداد المتدرج العشوائي
- 7.3 نزول التدرج العشوائي الصغير
- 7.4 طريقة الزخم
- 7.5 خوارزمية Adagrad
- 7.6 RMSPROP خوارزمية
- 7.7 خوارزمية Adadelta
- 7.8 آدم خوارزمية
- 8. الأداء الحسابي
- 8.1 البرمجة الهجينة الضرورية والرمزية
- 8.2 حساب غير متزامن
- 8.3 الحوسبة التلقائية المتوازية
- 8.4 حوسبة متعددة GPU
- 9. رؤية الكمبيوتر
- 9.1 زيادة الصورة
- 9.2 تعديل غرامة
- 9.3 الكشف عن الكائنات ومربع المحيط
- 9.4 إطار المرساة
- 9.5 اكتشاف الهدف متعدد النطاق
- 9.6 مجموعة بيانات الكشف عن الكائنات (Pikachu)
- 9.8 سلسلة الشبكة العصبية التلافيفية الإقليمية (R-CNN)
- 9.9 التجزئة الدلالية ومجموعات البيانات
- 9.10 الشبكة التلافيفية الكاملة (FCN)
- 9.11 النمط الهجرة
- 9.12 مسابقة Kaggle العملية: تصنيف الصور (CIFAR-10)
- 9.13 مسابقة Kaggle العملية: تحديد تكاثر الكلاب (ImageNet Dogs)
- 10. معالجة اللغة الطبيعية
- 10.1 تضمين الكلمات (Word2Vec)
- 10.2 التدريب التقريبي
- 10.3 تنفيذ Word2Vec
- 10.4 تضمين الكلمات الفرعية (fasttext)
- 10.5 تضمين الكلمات من المتجهات العالمية (القفاز)
- 10.6 ابحث عن المرادفات والتشبيهات
- 10.7 تصنيف العاطفة النصية: استخدام الشبكات العصبية المتكررة
- 10.8 تصنيف العاطفة النصية: استخدام الشبكة العصبية التلافيفية (TextCnn)
- 10.9 ترميز التشفير (SEQ2Seq)
- 10.10 حفنة البحث
- 10.11 آلية الانتباه
- 10.12 الترجمة الآلية
- 11. التذييل
- 11.1 قائمة الرموز الرئيسية
- 11.2 أساسيات الرياضيات
- 11.3 باستخدام دفتر Jupyter
- 11.4 تشغيل رمز باستخدام AWS
- 11.5 دليل شراء GPU
تم تحديثه باستمرار ...
عنوان الكتاب الأصلي
النسخة الصينية: تعلم التعلم العميق على اليدين | مستودع جيثب
النسخة الإنجليزية: الغوص في التعلم العميق | جيثب ريبو
يقتبس
إذا استخدمت هذا المشروع في بحثك ، فيرجى الاستشهاد بالكتاب الأصلي:
@book{zhang2019dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{http://www.d2l.ai}},
year={2019}
}