Référentiel pour le livre Introduction aux réseaux de neurones artificiels et en profondeur en profondeur: un guide pratique avec des applications en python .
Le Deep Learning n'est pas seulement le discours de la ville parmi les gens de la technologie. Le Deep Learning nous permet de s'attaquer aux problèmes complexes, à former des réseaux de neurones artificiels pour reconnaître des modèles complexes pour la reconnaissance de l'image et de la parole. Dans ce livre, nous continuerons où nous nous sommes arrêtés dans Python Machine Learning et implémentez des algorithmes d'apprentissage en profondeur à Pytorch.
Ce référentiel contiendra les instructions, les exemples de code et les solutions pour les parties pratiques et d'exercice de chaque chapitre.
Les versions PDF et ebook du livre seront disponibles auprès de LeanPub.

ISBN-10: [TBA]
ISBN-13: [TBA]
Broché: EST. 2018
01 - Introduction
02 - le perceptron
03 - Optimisation des fonctions de coût avec descente de gradient
04 - régression logistique et régression softmax
05 - De la régression Softmax aux perceptrons multicouches
06 - Validation croisée et métriques de performance
07 - Regualisation dans les réseaux de neurones
08 - Taux d'apprentissage et initialisation du poids
09 - Réseaux de neurones convolutionnels
10 - Réseaux de neurones récurrents
11 - Autoencoders
12 - Réseaux de neurones adversériaux généraux
13 - modèles génératifs profonds
14 - Apprentissage du renforcement
Annexe A: Notation mathématique [PDF]
Annexe B: Bases d'algèbre [PDF]
Annexe C: Essentiels d'algèbre linéaire
Annexe D: Primer de calcul et de différenciation [PDF]
Annexe E: Présentation de la théorie des probabilités
Annexe F: Référence des conventions de notation
Annexe G: Configuration Python
Annexe H: Introduction à Numpy [PDF] [Note de code]
Annexe I: Bases Pytorch
Annexe I (Alt.): TensorFlow Basics [PDF] [Note de code]
Annexe J: cloud computing [PDF]
L'apprentissage automatique est devenu un élément central de notre vie - en tant que consommateurs, clients et, espérons-le, en tant que chercheurs et praticiens! J'apprécie tous les beaux commentaires que vous m'avez envoyés sur l'apprentissage automatique Python , et je suis tellement heureux d'apprendre que vous l'avez trouvé si utile qu'un guide d'apprentissage, vous aidant avec vos applications commerciales et vos projets de recherche. J'ai reçu de nombreux e-mails depuis sa sortie. De plus, dans ces mêmes e-mails, vous me demandiez une éventuelle préquelle ou suite.
Au départ, j'étais enclin à écrire plus sur les pièces "mathématiques", qui peuvent être un véritable obstacle pour presque tout le monde sans (ou même avec) une majeure en mathématiques à l'université. Au départ, je pensais que écrire un livre sur les «mathématiques d'apprentissage automatique» était une chose cool à faire. Maintenant, j'ai environ 15 chapitres de notes sur le pré-calcul, le calcul, l'algèbre linéaire, les statistiques et la théorie de la probabilité. Cependant, j'ai finalement conclu qu'il y avait déjà trop d'autres livres de mathématiques! La plupart d'entre eux sont bien meilleurs et plus complets et précis que mon potentiel d'introduction de 500 pages aux sujets que j'avais en magasin. Après tout, je pense que la véritable motivation pour apprendre et comprendre un sujet vient d'être excité à ce sujet en premier lieu; Si vous êtes passionné par l'apprentissage automatique et que vous tombez sur la règle de la chaîne en calcul, vous n'auriez aucun problème pour trouver une ressource de confiance via votre moteur de recherche préféré ces jours-ci.
Ainsi, au lieu d'écrire cette «préquelle», permettez-moi d'écrire sur quelque chose qui se construit sur les concepts que j'ai introduits dans les derniers chapitres de l'apprentissage automatique Python - des algorithmes pour l'apprentissage en profondeur. Après avoir codé un Perceptron multicouche (un certain type de réseau neuronal artificiel à la recherche) à partir de zéro, nous avons examiné bref quelques bibliothèques Python pour mettre en œuvre des algorithmes d'apprentissage en profondeur, et j'ai introduit des réseaux de neurones convolutionnels et récurrents à un niveau conceptuel.
Dans ce livre, je veux continuer là où je me suis arrêté et je veux mettre en œuvre des réseaux de neurones profonds et des algorithmes pour les algorithmes d'apprentissage en profondeur à partir de zéro, en utilisant Python, Numpy et Scipy tout au long de ce voyage éducatif. En plus de la gamme de science de Vanilla Python, nous implémenterons ces algorithmes dans TensorFlow, très performant mais très accessible Library en apprentissage en profondeur pour mettre en œuvre et appliquer l'apprentissage en profondeur à des problèmes réels.
Tout le code de ce référentiel (y compris les exemples de code dans Jupyter Notebooks) est le contenu open source, publié sous la licence logicielle MIT. En bref, la licence MIT permissive vous permet de faire quoi que ce soit avec le code avec une attribution appropriée et sans garantie; Veuillez vérifier l'avis de licence du MIT pour plus de détails.
Tout le contenu non code et le travail créatif dans ce référentiel, y compris le texte et les graphiques, sont sous le droit d'auteur exclusif de l'auteur, Sebastian Raschka. Sauf indication contraire, le contenu texte partagé dans ce référentiel est destiné à un usage personnel uniquement. Vous pouvez utiliser, modifier ou partager de courts passages de texte de ce travail avec une attribution appropriée à l'auteur. Cependant, si vous prévoyez de modifier et / ou de partager des parties substantielles de ce livre pour d'autres écrits, tels que des articles de blog, un article de magazine ou un matériel d'enseignement, contactez l'auteur pour l'autorisation.
Les chiffres et les graphiques marqués par un Creative Commons Attribution-ShareAlike 4.0 International sont libres de partager en vertu des termes de licence respectifs (comme indiqué dans la section Creative Commons Attribution-Sharealike 4.0 dans le fichier de licence) et une attribution appropriée.
Je voudrais remercier spécial les lecteurs, qui ont attrapé diverses fautes de frappe et erreurs et ont proposé des suggestions pour clarifier mon écriture.