NLP-Tutorial
nlp-tutorial هو برنامج تعليمي لمن يدرس NLP (معالجة اللغة الطبيعية) باستخدام Pytorch . تم تنفيذ معظم النماذج في NLP بأقل من 100 سطر من التعليمات البرمجية (باستثناء التعليقات أو الأسطر الفارغة)
- [08-14-2020] تم أرشفة رمز TensorFlow V1 القديم في مجلد الأرشيف. بالنسبة لقدرة المبتدئين ، يتم دعم Pytorch الإصدار 1.0 فقط أو أعلى.
المناهج الدراسية - (مثال الغرض)
1. نموذج التضمين الأساسي
- 1-1. NNLM (نموذج لغة الشبكة العصبية) - توقع الكلمة التالية
- ورقة - نموذج لغة احتمالية عصبية (2003)
- كولاب - nnlm.ipynb
- 1-2. Word2Vec (Skip -gram) - تضمين الكلمات وإظهار الرسم البياني
- ورقة - تمثيلات موزعة للكلمات والعبارات وتكوينها (2013)
- كولاب - Word2Vec.ipynb
- 1-3. FastText (مستوى التطبيق) - تصنيف الجملة
- ورقة - حقيبة من الحيل لتصنيف النص الفعال (2016)
- كولاب - fasttext.ipynb
2. CNN (الشبكة العصبية التلافيفية)
- 2-1. TextCnn - تصنيف المشاعر الثنائية
- ورقة - الشبكات العصبية التلافيفية لتصنيف الجملة (2014)
- TextCnn.ipynb
3. RNN (الشبكة العصبية المتكررة)
- 3-1. Textrnn - توقع الخطوة التالية
- ورقة - العثور على هيكل في الوقت (1990)
- كولاب - Textrnn.ipynb
- 3-2. TextLstm - الإكمال التلقائي
- ورقة - ذاكرة طويلة الأجل طويلة (1997)
- كولاب - textlstm.ipynb
- 3-3. BI -LSTM - توقع الكلمة التالية في الجملة الطويلة
4. آلية الانتباه
- 4-1. seq2seq - تغيير الكلمة
- Paper - تمثيل عبارة التعلم باستخدام RNN Encoder - Decoder للترجمة الآلية الإحصائية (2014)
- كولاب - seq2seq.ipynb
- 4-2. seq2seq مع الاهتمام - ترجمة
- الورق - الترجمة الآلية العصبية عن طريق التعلم المشترك لمحاذاة وترجمة (2014)
- كولاب - seq2seq (الانتباه) .ipynb
- 4-3. BI -LSTM مع الانتباه - تصنيف المشاعر الثنائية
- كولاب - bi_lstm (انتباه) .ipynb
5. نموذج يعتمد على المحول
- 5-1. المحول - ترجمة
- الورق - الاهتمام هو كل ما تحتاجه (2017)
- Colab - Transformer.ipynb ، Transformer (Greedy_Decoder) .ipynb
- 5-2. بيرت - التصنيف الجملة التالية والتنبؤ بالرموز المقنعة
- ورقة - بيرت: قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة (2018)
- كولاب - بيرت
التبعيات
- بيثون 3.5+
- Pytorch 1.0.0+
مؤلف
- Tae Hwan Jung (Jeff Jung) GrayKode
- البريد الإلكتروني للمؤلف: [email protected]
- شكر وتقدير إلى Mojitok مثل تدريب الأبحاث NLP.