Tutoriels TensorFlow et Deep Learning
Les tutoriels d'apprentissage en profondeur de Google
- Tenorial officiel d'apprentissage officiel de TensorFlow [中文].
- MLP avec Dropout TensorFlow [中文] TensorLayer [中文]
- Autoencoder TensorLayer [中文]
- Réseau neuronal convolutionnel Tensorflow [中文] tensorlayer [中文]
- Réseau neural récurrent TensorFlow [中文] tensorlayer [中文]
- Apprentissage en renforcement profond Tensorlayer [中文]
- Séquence à séquence TensorFlow TensorLayer [中文]
- Mot incorporation de tensorflow [中文] tensorlayer [中文]
Liste de lecture en profondeur
- MIT Deep Learning Livre
- Blog de karpathy
- Tutoriels de Stanford Ufldl
- Blog de Colah - mot incorporant [中文]
- Blog de Colah - Comprendre LSTN [门函数]
Index du tutoriel
0 - Préalable
- Introduction à l'apprentissage automatique (cahier)
- Introduction à l'ensemble de données MNIST (cahier)
1 - Introduction
- Hello World (Notebook) (code)
- Opérations de base (cahier) (code)
2 - modèles de base
- Le voisin le plus proche (cahier) (code)
- Régression linéaire (cahier) (code)
- Régression logistique (cahier) (code)
3 - Réseaux de neurones
- Perceptron multicouche (Notebook) (code)
- Réseau neuronal convolutionnel (cahier) (code)
- Réseau neuronal récurrent (LSTM) (Notebook) (code)
- Réseau neuronal récurrent bidirectionnel (LSTM) (Notebook) (code)
- Réseau neuronal récurrent dynamique (LSTM) (code)
- Autoencoder (cahier) (code)
4 - services publics
- Enregistrer et restaurer un modèle (cahier) (code)
- Tensorboard - Visualisation du graphique et des pertes (cahier) (code)
- Tensorboard - Visualisation avancée (code)
5 - Multi GPU
- Opérations de base sur Multi-GPU (Notebook) (code)
Ensemble de données
Certains exemples nécessitent un ensemble de données MNIST pour la formation et les tests. Ne vous inquiétez pas, cet ensemble de données sera automatiquement téléchargé lors de l'exécution d'exemples (avec input_data.py). MNIST est une base de données de chiffres manuscrits, pour une description rapide de cet ensemble de données, vous pouvez vérifier ce cahier.
Site officiel: http://yann.lecun.com/exdb/mnist/
Référentiels sélectionnés
- JTOY / Awesome-Tensorflow
- nlintz / tensorflow-tutorials
- Adatao / Tensorspark
- Ry / Tensorflow-Resnet
Trucs
- Astuces pour utiliser TensorLayer
Exemples
Bases
- Perceptron multi-couches (MNIST) - tâche de classification, voir tutoriel_mnist_simple.py.
- Classification multi-couches (MNIST) - Classification à l'aide d'Iterator, voir Method1 et Method2.
Vision par ordinateur
- Denoiing Autoencoder (MNIST). Tâche de classification, voir tutoriel_mnist.py.
- Autoencoder de débroussage empilé et réglage fin (MNIST). Tâche de classification, voir tutoriel_mnist.py.
- Réseau convolutionnel (MNIST). Tâche de classification, voir tutoriel_mnist.py.
- Réseau convolutionnel (CIFAR-10). Tâche de classification, voir tutorial_cifar10.py et tutoriel_cifar10_tfrecord.py.
- VGG 16 (ImageNet). Tâche de classification, voir tutoriel_vgg16.py.
- VGG 19 (ImageNet). Tâche de classification, voir tutoriel_vgg19.py.
- InceptionV3 (ImageNet). Tâche de classification, voir tutorial_inceptionv3_tfslim.py.
- Wide Resnet (Cifar) par Ritchieng.
- D'autres implémentations CNN de TF-SLIM peuvent être connectées à TensorLayer via SlimNetLayer.
- Réseaux de transformateurs spatiaux par Zsdonghao.
- U-net pour la segmentation des tumeurs cérébrales par Zsdonghao.
- Autoencoder variationnel (VAE) pour (Celeba) par yzwxx.
- Autoencoder variationnel (VAE) pour (MNIST) par Buptldy.
- Cabillage d'image - Remplémentation de l'im2txt de Google par Zsdonghao.
Traitement du langage naturel
- Réseau neuronal récurrent (LSTM). Appliquez plusieurs LSTM à l'ensemble de données PTB pour la modélisation de la langue, voir Tutorial_PTB_LSTM.PY et Tutorial_PTB_LSTM_STATE_IS_TUPLE.py.
- Word Embedding (Word2Vec). Train une matrice d'intégration de mots, voir tutoriel_word2vec_basic.py.
- Restaurer la matrice d'intégration. Restaurez une matrice d'incorporation pré-trains, voir tutoriel_generate_text.py.
- Génération de texte. Génère de nouveaux scripts de texte, à l'aide du réseau LSTM, voir tutoriel_generate_text.py.
- Texte chinois anti-spam par Pakrchen.
- Chatbot dans 200 lignes de code pour SEQ2SEQ.
- Classification de phrase FastText (IMDB), voir tutoriel_imdb_fastText.py par tomtung.
Apprentissage contradictoire
- DCGAN (Celeba). Génération d'images par des réseaux adversaires génératifs convolutionnels profonds par Zsdonghao.
- Texte adversaire génératif à la synthèse d'image par Zsdonghao.
- Traduction d'image à image non supervisée avec des réseaux adversaires génératifs par Zsdonghao.
- Cyclegan amélioré avec redimensipation par Luoxier
- Super résolution Gan par Zsdonghao.
- Dagan: Reconstruction IRM de détection comprimée rapide par nébulav.
Apprentissage du renforcement
- Gradient / réseau de politique (atari ping-pong), voir tutoriel_atari_pong.py.
- Network profonde Q (lac Frozen), voir tutoriel_frozenlake_dqn.py.
- Algorithme d'apprentissage Q-Table (lac Frozen), voir tutoriel_frozenlake_q_table.py.
- Gradient de politique asynchrone à l'aide de Tensordb (atari ping-pong) par nébulav.
- AC pour l'espace d'action discrète (cartpole), voir tutoriel_cartpole_ac.py.
- A3C pour l'espace d'action continue (Bipedal Walker), voir Tutorial_Bipedalwalker_A3C * .py.
- Dagger pour (gym Torcs) par Zsdonghao.
- TRPO pour un espace d'action continu et discret par JJKKE88.
Divers
- Formation distribuée. Mnist et Imagenet par Jorgemf.
- Fusionner TF-Slim dans Tensorlayer. tutoriel_inceptionv3_tfslim.py.
- Fusionner les keras dans Tensorlayer. tutoriel_keras.py.
- Augmentation des données avec tfrecord. Moyen efficace de charger et de prétruire les données, voir tutoriel_tfrecord * .py et tutoriel_cifar10_tfrecord.py.
- Augmentation des données avec TensorLayer, voir tutoriel_image_preprocess.py.
- Tensordb par fangde Voir ici.
- Un service Web simple - Tensorflask de Joelkronander.
- Float 16 Modèle de demi-précision, voir tutoriel_mnist_float16.py
Liens utiles
- Astuces pour utiliser TensorLayer