Motivación del proyecto/ Introducción del curso/ Recursos del curso/ Catálogo de libros de texto/ Notas/ Carpeta Descripción/ Organizador/ Colaborador
"Hand-on Learning Deep Learning" es una serie de videos de aprendizaje profundo impartidos por el Sr. Li Mu (un científico jefe principal de AWS, Ph.D., Departamento de Ciencias de la Computación, Universidad Carnegie Mellon, EE. UU.). Este proyecto recopila notas detalladas de Markdown y códigos Jupyter relacionados durante nuestro proceso de "aprendizaje manual de aprendizaje de vacaciones de invierno". Darle a alguien una rosa dejará una fragancia en tus manos. Abrimos Source todas las notas de Markdown . Esperamos que, mientras aprenden por nosotros mismos, también sea útil para todos aprender y dominar el "aprendizaje manual del maestro Li Mu de aprendizaje profundo".
Características de este proyecto:
- Las notas de Markdown corresponden al video del curso original uno por uno, lo que puede ayudar a todos a comprender mientras escuchan la clase.
- Los códigos Jupyter tienen anotaciones chinas detalladas para ayudar a todos a comenzar con la práctica más rápido.
Hay 73 videos de curso en total , y la duración promedio de un solo video no es más de 30 minutos . Se espera que el estudio se pueda completar dentro de los 40 días de las vacaciones de invierno .
La insignia utilizada en este proyecto proviene de Internet. Si infringe los derechos de autor de su imagen, contáctenos para eliminarlo. Gracias.
Por lo general, cuando mencionamos el aprendizaje profundo, a menudo olvidamos que el aprendizaje profundo es solo una pequeña parte del aprendizaje automático, y creemos que es un módulo separado independiente del aprendizaje automático. Esto se debe a que el aprendizaje automático, como disciplina con una historia más larga, tenía una gama estrecha de aplicaciones en el mundo real antes de que se lanzara el aprendizaje profundo. En los campos del reconocimiento de voz, la visión por computadora, el procesamiento del lenguaje natural, etc., el aprendizaje automático a menudo es solo una pequeña parte de las soluciones para resolver estos problemas de dominio debido a la gran cantidad de conocimiento del dominio requerido y la realidad es extremadamente compleja. Pero en los últimos años, el advenimiento y la aplicación del aprendizaje profundo han traído sorpresas al mundo, promoviendo el rápido desarrollo de la visión por computadora, el procesamiento del lenguaje natural, el reconocimiento automático de voz, el aprendizaje de refuerzo y el modelado estadístico, y liderando gradualmente la tendencia, estableciendo una ola de revolución de la inteligencia artificial en el mundo.
En el curso "aprendizaje profundo manual" , no solo hay una pequeña cantidad de conocimiento básico del aprendizaje automático, como redes neuronales lineales, máquinas de percepción de múltiples capas , etc.; También hay varios modelos de aprendizaje profundo que se utilizan actualmente en aplicaciones de vanguardia: incluyendo Lenet, ResNet, LSTM, Bert ... Al mismo tiempo, la explicación de cada capítulo también está equipada con código, libros de texto, etc. implementados por Pytorch, que puede ayudar a los estudiantes a dominar los modelos básicos y el conocimiento de la reducción de aprendizaje profundo en un período corto de tiempo y mejorar su capacidad práctica.
Además, este curso tiene implementaciones de código correspondientes. Cada capítulo tiene un nopa Jupyter correspondiente, que proporciona el código de Python completo del modelo , y todos los recursos se pueden obtener de forma gratuita en línea.
"Aprendizaje profundo manual" (versión china) y la versión en inglés se sumergen en el aprendizaje profundo 0.17.1 El catálogo de libros de texto de documentación y los enlaces de capítulo son los siguientes:
| capítulo | Versión china | Versión en inglés |
|---|---|---|
| 1 | Prefacio | Introducción |
| 2 | Conocimiento de preparación | Preliminares |
| 3 | Red neuronal lineal | Redes neuronales lineales |
| 4 | Máquina de detección de múltiples capas | Perceptrones de múltiples capas |
| 5 | Computación de aprendizaje profundo | Computación de aprendizaje profundo |
| 6 | Red neuronal convolucional | Redes neuronales convolucionales |
| 7 | Redes neuronales convolucionales modernas | Redes neuronales convolucionales modernas |
| 8 | Red neuronal recurrente | Redes neuronales recurrentes |
| 9 | Red neuronal recurrente moderna | Redes neuronales recurrentes modernas |
| 10 | Mecanismo de atención | Mecanismos de atención |
| 11 | Algoritmo de optimización | Algoritmos de optimización |
| 12 | Rendimiento computacional | Rendimiento computacional |
| 13 | Visión por computadora | Visión por computadora |
| 14 | Procesamiento del lenguaje natural: pre-entrenamiento | Procesamiento del lenguaje natural: preventiva |
| 15 | Procesamiento del lenguaje natural: aplicación | Aplicaciones de procesamiento del lenguaje natural |
| 16 | Sistema recomendado | Sistemas de recomendación |
| 17 | Generar redes adversas | Redes adversas generativas |
| 18 | Apéndice: los conceptos básicos de las matemáticas en el aprendizaje profundo | Apéndice: Matemáticas para el aprendizaje profundo |
| 19 | Apéndice: herramientas de aprendizaje profundo | Apéndice: Herramientas para el aprendizaje profundo |
| video | notas | Folleto | Código | Colaboradores |
|---|---|---|---|---|
![]() | 00 previsión | Folleto | ![]() | |
![]() | Calendario de 01 cursos | Folleto | ![]() | |
![]() | 02 Introducción al aprendizaje profundo | Folleto | ![]() ![]() | |
![]() | 03 instalación | Folleto | ![]() ![]() | |
![]() | Operación 04 de datos y preprocesamiento de datos | Folleto | Código Jupyter | ![]() ![]() |
![]() | Álgebra lineal 05 | Folleto | ![]() ![]() | |
![]() | Cálculo de 06 matriz | Folleto | ![]() | |
![]() | Reglas 07-Chengdu y derivación automática | Folleto | Código Jupyter | ![]() ![]() |
![]() | 08 Algoritmo de optimización básica de regresión lineal + | Notas de conferencia 1 2 | Código Jupyter | ![]() |
![]() | 09-Softmax regresión | Notas de conferencia 1 2 | Código Jupyter | ![]() ![]() |
![]() | Máquina de detección de 10-Multi-capa | Notas de conferencia 1 2 | Código Jupyter | ![]() ![]() |
![]() | Selección de 11 modelos + sobreajuste y poco acorralado | Notas de conferencia 1 2 | ![]() ![]() | |
![]() | Recesión de 12 peso | Folleto | Código Jupyter | ![]() ![]() |
![]() | Método de 13 descubrimiento | Folleto | Código Jupyter | ![]() |
![]() | 14 estabilidad numérica | Notas de conferencia 1 2 | ![]() | |
![]() | 15 Práctica Kaggle Predicción de precios de la vivienda | Folleto | Código Jupyter | ![]() ![]() |
![]() | Conceptos básicos de la red neuronal de 16 pytorch | Folleto | Código Jupyter | ![]() ![]() |
![]() | 17-Use y comprar GPU | Folleto | Código Jupyter | ![]() ![]() |
![]() | 18-sumario de la competencia de precios de la vivienda de predicción | Folleto | ![]() ![]() | |
![]() | Capa de 19-condimentado | Notas de conferencia 1 2 | Código Jupyter | ![]() |
![]() | 20 llenado y zancada | Folleto | Código Jupyter | ![]() |
![]() | 21 canales de salida y salida de entrada | Folleto | Código Jupyter | ![]() ![]() |
![]() | 22 Capa de poliamiento | Folleto | Código Jupyter | ![]() ![]() |
![]() | 23-neneta | Folleto | Código Jupyter | ![]() ![]() |
![]() | 24-ALEXNET | Folleto | Código Jupyter | ![]() |
![]() | VGG de 25 network usando bloques | Folleto | Código Jupyter | ![]() |
![]() | 26-minero | Folleto | Código Jupyter | ![]() |
![]() | 27-googlenet | Folleto | Código Jupyter | ![]() ![]() |
![]() | Normalización de 28 lotes | Folleto | Código Jupyter | ![]() ![]() |
![]() | 29 resistuales REDNE RETNET | Folleto | ![]() ![]() | |
![]() | 30 partes 2 termina la competencia | Folleto | ![]() | |
![]() | 31-CPU y GPU | Folleto | ![]() ![]() | |
![]() | Hardware de aprendizaje de 32 profundos | Folleto | ![]() | |
![]() | 33 cartas múltiples de 33 máquinas en paralelo | Folleto | ![]() ![]() | |
![]() | Implementación de capacitación 34-Multi-GPU | Folleto | Código Jupyter | ![]() ![]() |
![]() | Capacitación 35 distribuida | Folleto | ![]() ![]() | |
![]() | Aumento de 36 datos | Folleto | Código Jupyter | ![]() ![]() |
![]() | Ajuste de 37 finos | Folleto | Código Jupyter | ![]() ![]() |
![]() | 38-Los resultados de la segunda clasificación de hojas de competencia | Folleto | ![]() | |
![]() | 39 Practical Kaggle Competition-1 | Folleto | ![]() ![]() | |
![]() | Competencia de Kaggle de 40 Práctica-2 | Folleto | Código Jupyter | ![]() ![]() |
![]() | 41 conjuntos de detección de objetos y datos | Folleto | ![]() ![]() | |
![]() | [42 marco de anclaje] | Folleto | ![]() ![]() | |
![]() | 43 Resumen técnico de la competencia de clasificación de hojas | Folleto | ![]() | |
![]() | Algoritmo de detección de 44 objetos | Notas de conferencia 123 | ![]() | |
![]() | Implementación de 45-SSD | Folleto | Código Jupyter | ![]() ![]() |
![]() | 46 segmentación y conjuntos de datos semánticos | Folleto | Código Jupyter | ![]() ![]() |
![]() | 47 convolución de transferencia | Notas de conferencia 1 2 | ![]() ![]() | |
![]() | 48-FCN | Folleto | Código Jupyter | ![]() |
![]() | Migración de estilo 49 | Folleto | Código Jupyter | ![]() |
![]() | Competencia de 50 platos | Folleto | ![]() | |
![]() | Modelo de 51 secuencia | Folleto | ![]() ![]() | |
![]() | Preprocesamiento de 52 texto | Folleto | Código Jupyter | ![]() ![]() |
![]() | Modelo de 53 idiomas | Folleto | ![]() ![]() | |
![]() | 54 red neuronales de recurrencia | Folleto | ![]() ![]() | |
![]() | Implementación 55-RNN | Folleto | Código Jupyter | ![]() |
![]() | 56-gru | Folleto | Código Jupyter | ![]() |
![]() | 57-LSTM | Folleto | ![]() ![]() | |
![]() | Red neuronal recurrente de 58 profundas | Folleto | Código Jupyter | ![]() ![]() |
![]() | [Red neuronal recurrente 59-bidireccional] | Folleto | ![]() ![]() | |
![]() | Conjunto de datos de traducción de 60 máquinas | Folleto | Código Jupyter | ![]() ![]() |
![]() | 61 arquitectura de decodificador de codificador | Folleto | ![]() | |
![]() | Aprendizaje de 62 secuencia a secuencia | Folleto | Código Jupyter | ![]() ![]() |
![]() | Búsqueda de 63-Bunch | Folleto | ![]() | |
![]() | 64- Mecanismo de atención | Folleto | Código Jupyter | ![]() ![]() |
![]() | 65- Puntuación de atención | Folleto | ![]() ![]() | |
![]() | [66-seq usando atención] | Folleto | ![]() ![]() | |
![]() | 67 autónomo | Folleto | Código Jupyter | ![]() ![]() |
![]() | 68-transformador | Folleto | Código Jupyter | ![]() |
![]() | 39-Bert-Bertening Training | Folleto | ![]() ![]() | |
![]() | Ajuste fino de 70-berts | Folleto | ![]() ![]() | |
![]() | [71-Sumar de la competencia de detección de objetivos] | Folleto | ![]() ![]() | |
![]() | 72 algoritmo de optimización | Folleto | ![]() | |
![]() | Resumen de 73 cursos y aprendizaje avanzado | Folleto | ![]() |
Gracias a los siguientes estudiantes por organizar este proyecto.


Gracias a los siguientes estudiantes por su apoyo y contribución a este proyecto.











