Tutoriales de tensorflow y aprendizaje profundo
Tutoriales de aprendizaje profundo de Google
- Tutorial de aprendizaje profundo oficial de TensorFlow [中文].
- MLP con deserción de tensorflow [中文] TensorLayer [中文]
- TensorLayer de Autoencoder [中文]
- Red neuronal convolucional TensorFlow [中文] TensorLlayer [中文]
- TensorLlaw de red neuronal recurrente [中文] TensorLlayer [中文]
- Refuerzo profundo Aprendizaje TensorRoLayer [中文]
- Secuencia a secuencia TensorFlow TensorLayer [中文]
- Palabra incrustación de tensorflow [中文] TensorLayer [中文]
Lista de lectura de aprendizaje profundo
- Libro de aprendizaje profundo del MIT
- Blog de Karpathy
- Tutoriales de Stanford Ufldl
- Blog de Colah - incrustación de palabras [中文]
- Blog de Colah - Comprender LSTN [门函数]
Índice tutorial
0 - Requisito previo
- Introducción al aprendizaje automático (cuaderno)
- Introducción al conjunto de datos MNIST (cuaderno)
1 - Introducción
- Hello World (cuaderno) (código)
- Operaciones básicas (cuaderno) (código)
2 - Modelos básicos
- Vecino más cercano (cuaderno) (código)
- Regresión lineal (cuaderno) (código)
- Regresión logística (cuaderno) (código)
3 - Redes neuronales
- Perceptron multicapa (cuaderno) (código)
- Red neural convolucional (cuaderno) (código)
- Red neural recurrente (LSTM) (cuaderno) (código)
- Red neuronal recurrente bidireccional (LSTM) (cuaderno) (código)
- Red neuronal recurrente dinámica (LSTM) (código)
- Autoencoder (cuaderno) (código)
4 - Utilidades
- Guardar y restaurar un modelo (cuaderno) (código)
- TensorBoard - Visualización de gráficos y pérdidas (cuaderno) (código)
- TensorBoard - Visualización avanzada (código)
5 - Multi GPU
- Operaciones básicas en multi-GPU (cuaderno) (código)
Conjunto de datos
Algunos ejemplos requieren un conjunto de datos MNIST para capacitación y pruebas. No se preocupe, este conjunto de datos se descargará automáticamente al ejecutar ejemplos (con input_data.py). Mnist es una base de datos de dígitos escritos a mano, para una descripción rápida de ese conjunto de datos, puede verificar este cuaderno.
Sitio web oficial: http://yann.lecun.com/exdb/mnist/
Repositorios seleccionados
- JToy/Awesome-TensorFlow
- nlintz/tensorflow-tutoirals
- adatao/tensorspark
- Ry/TensorFlow-Retnet
Engaños
- Trucos para usar TensorLayer
Ejemplos
Lo esencial
- Perceptron de múltiples capas (MNIST) - Tarea de clasificación, ver tutorial_mnist_simple.py.
- Perceptrón de múltiples capas (MNIST) - Clasificación utilizando ITerator, ver Method1 y Method2.
Visión por computadora
- Autoencoder de Denoising (MNIST). Tarea de clasificación, ver tutorial_mnist.py.
- Apilado Denoising Autoencoder y Fine-Auting (MNIST). Tarea de clasificación, ver tutorial_mnist.py.
- Red convolucional (MNIST). Tarea de clasificación, ver tutorial_mnist.py.
- Red convolucional (CIFAR-10). Tarea de clasificación, consulte tutorial_cifar10.py y tutorial_cifar10_tfrecord.py.
- VGG 16 (Imagenet). Tarea de clasificación, ver tutorial_vgg16.py.
- VGG 19 (Imagenet). Tarea de clasificación, ver Tutorial_vgg19.py.
- InceptionV3 (Imagenet). Tarea de clasificación, ver tutorial_inceptionv3_tfslim.py.
- Resnet amplio (CIFAR) por Ritchieng.
- Se pueden conectar más implementaciones de CNN de TF-SLIM a TensorLayer a través de SlimNetslayer.
- Redes de transformadores espaciales por Zsdonghao.
- Net U para la segmentación del tumor cerebral por ZSDonghao.
- Autoencoder variacional (VAE) para (Celeba) por YZWXX.
- Autoencoder variacional (VAE) para (Mnist) por BUptldy.
- Subtinte de la imagen: reimplementación del IM2TXT de Google por ZSDonghao.
Procesamiento del lenguaje natural
- Red neuronal recurrente (LSTM). Aplique múltiples LSTM a PTB DataSet para el modelado de idiomas, consulte tutorial_ptb_lstm.py y tutorial_ptb_lstm_state_is_tuple.py.
- Incrustación de palabras (Word2Vec). Entrena una matriz de incrustación de palabras, ver tutorial_word2vec_basic.py.
- Restaurar la matriz de incrustación. Restaurar una matriz de incrustación previa al entrenamiento, ver tutorial_generate_text.py.
- Generación de texto. Genera nuevos scripts de texto, usando la red LSTM, consulte tutorial_generate_text.py.
- Texto chino Anti-Spam por Pakrchen.
- Chatbot en 200 líneas de código para SEQ2SEQ.
- Clasificación de oraciones de FastText (IMDB), consulte Tutorial_imdb_fastText.py de TomTung.
Aprendizaje adversario
- DCGAN (CELEBA). Generación de imágenes por redes adversas generativas convolucionales profundas por ZSDonghao.
- Texto adversario generativo a la síntesis de imágenes por ZSDonghao.
- Imagen no supervisada a la traducción de imágenes con redes adversas generativas por ZSDonghao.
- Cyclegan mejorado con condimentación de cambio de tamaño por Luoxier
- SUPER Resolución Gan por Zsdonghao.
- Dagan: reconstrucción de resonancia magnética de detección rápida por Nebulav.
Aprendizaje de refuerzo
- Gradiente / red de políticas (Atari Ping Pong), ver Tutorial_atari_pong.py.
- Profunda Q-Network (Frozen Lake), ver tutorial_frozenlake_dqn.py.
- Algoritmo de aprendizaje Q-Table (Frozen Lake), ver tutorial_frozenlake_q_table.py.
- Gradiente de política asincrónica utilizando TensordB (Atari Ping Pong) por Nebulav.
- AC para el espacio de acción discreta (Cartpole), ver tutorial_cartpole_ac.py.
- A3C para el espacio de acción continua (Bipedal Walker), ver tutorial_bipedalwalker_a3c*.py.
- Daga para (Torcs de gimnasio) por Zsdonghao.
- TRPO para el espacio de acción continuo y discreto por JJKke88.
Misceláneas
- Capacitación distribuida. Mnist e Imagenet por Jorgemf.
- Fusionar TF-Slim en TensorLayer. tutorial_inceptionv3_tfslim.py.
- Fusionar keras en TensorLayer. tutorial_keras.py.
- Aumento de datos con TFRecord. Forma efectiva de cargar y preprocesar datos, consulte tutorial_tfrecord*.py y tutorial_cifar10_tfrecord.py.
- Aumento de datos con TensorLayer, ver tutorial_image_process.py.
- Tensordb por fangde ver aquí.
- Un servicio web simple - TensorFlask por Joelkronander.
- Float 16 Modelo de media precisión, ver tutorial_mnist_float16.py
Enlaces útiles
- Trucos para usar TensorLayer