
=================
يبني:
=================
يعتزم هذا الفصل تقديم الكائنات والمفاهيم الرئيسية في TensorFlow. نقدم أيضًا كيفية الوصول إلى البيانات لبقية الكتاب وتوفير موارد إضافية للتعلم حول TensorFlow.
بعد أن أنشأنا الكائنات والأساليب الأساسية في TensorFlow ، نريد الآن إنشاء المكونات التي تشكل خوارزميات TensorFlow. نبدأ بتقديم الرسوم البيانية الحسابية ، ثم ننتقل إلى وظائف الخسارة والانتشار الخلفي. ننتهي بإنشاء مصنف بسيط ثم نعرض مثالًا على تقييم خوارزميات الانحدار والتصنيف.
هنا نوضح كيفية تنفيذ العديد من تقنيات الانحدار الخطي في TensorFlow. يوضح القسمان الأولين كيفية القيام بحل الانحدار الخطي المصفوفة القياسي في Tensorflow. تصور الأقسام الستة المتبقية كيفية تنفيذ أنواع مختلفة من الانحدار باستخدام الرسوم البيانية الحسابية في TensorFlow.
يوضح هذا الفصل كيفية تنفيذ طرق SVM المختلفة مع TensorFlow. نقوم أولاً بإنشاء SVM خطي وأوضح أيضًا كيف يمكن استخدامه للانحدار. ثم نقدم kernels (RBF Gaussian kernel) ونوضح كيفية استخدامها لتقسيم البيانات غير الخطية. ننتهي من تنفيذ متعدد الأبعاد لـ SVMs غير الخطية للعمل مع فصول متعددة.
أقرب طرق الجوار هي خوارزمية ML شهيرة للغاية. نوضح كيفية تنفيذ جيران K-nearest ، وجيران K-nearest الموزونة ، وجيران K-Nearest مع وظائف مسافة مختلطة. في هذا الفصل ، نوضح أيضًا كيفية استخدام مسافة Levenshtein (تحرير المسافة) في TensorFlow ، ونستخدمها لحساب المسافة بين السلاسل. ننهي هذا الفصل بإظهار كيفية استخدام جيران K-nearest للتنبؤ الفئوي مع التعرف على أرقام مكتوبة بخط اليد MNIST.
الشبكات العصبية مهمة للغاية في التعلم الآلي وتنمو في شعبية بسبب الاختراقات الرئيسية في المشكلات السابقة التي لم يتم حلها. يجب أن نبدأ بتقديم شبكات عصبية "ضحلة" ، وهي قوية للغاية ويمكن أن تساعدنا على تحسين نتائج خوارزمية ML السابقة. نبدأ بتقديم وحدة NN الأساسية للغاية ، البوابة التشغيلية. نضيف تدريجياً المزيد والمزيد إلى الشبكة العصبية وينتهي مع تدريب نموذج للعب Tic-Tac-Toe.
تعد معالجة اللغة الطبيعية (NLP) وسيلة لمعالجة المعلومات النصية في ملخصات أو ميزات أو نماذج رقمية. في هذا الفصل ، سنحفز ونشرح أفضل التعامل مع النص في TensorFlow. نعرض كيفية تنفيذ "حقيبة الكلمات" الكلاسيكية ونظهر أنه قد تكون هناك طرق أفضل لتضمين النص بناءً على المشكلة المطروحة. هناك تضمينات شبكة عصبية تسمى Word2Vec (CBOW و SKIP-GRAM) و DOC2VEC. نظهر كيفية تنفيذ كل هذه في TensorFlow.
الشبكات العصبية التلافيفية (CNN) هي طرق للحصول على الشبكات العصبية للتعامل مع بيانات الصورة. تستمد CNN اسمها من استخدام الطبقة التلافيفية التي تطبق مرشح الحجم الثابت عبر صورة أكبر ، مع التعرف على نمط في أي جزء من الصورة. هناك العديد من الأدوات الأخرى التي يستخدمونها (Max Booting ، Fropout ، إلخ ...) التي نعرضها كيفية التنفيذ باستخدام TensorFlow. نوضح أيضًا كيفية إعادة تدريب بنية موجودة وأخذ CNNs مع Stylenet و Deep Dream.
تشبه الشبكات العصبية المتكررة (RNNs) إلى حد كبير الشبكات العصبية العادية باستثناء أنها تسمح بالاتصالات "المتكررة" ، أو الحلقات التي تعتمد على الحالات السابقة للشبكة. يتيح هذا لـ RNNs التعامل بكفاءة مع البيانات المتسلسلة ، في حين أن أنواع الشبكات الأخرى لا يمكن. نحفز بعد ذلك استخدام شبكات LSTM (ذاكرة قصيرة المدى طويلة) كوسيلة لمعالجة مشاكل RNN العادية. ثم نظهر مدى سهولة تنفيذ هذه أنواع RNN في TensorFlow.
بالطبع هناك ما هو أكثر من Tensorflow من مجرد إنشاء نماذج التعلم الآلي وتركيبها. بمجرد أن يكون لدينا نموذج نريد استخدامه ، يتعين علينا نقله نحو استخدام الإنتاج. سيقدم هذا الفصل نصائح وأمثلة على اختبارات الوحدة المنفذة ، باستخدام معالجات متعددة ، باستخدام آلات متعددة (توزيع TensorFlow) ، والانتهاء من مثال إنتاج كامل.
لتوضيح مدى تنوع TensorFlow ، سنعرض أمثلة إضافية في هذا الفصل. نبدأ بإظهار كيفية استخدام Tensorboard أداة التسجيل/التصور. ثم نوضح كيفية عمل مجموعة K-means ، واستخدام خوارزمية وراثية ، وحل نظام ODEs.