Этот проект изменяет реализацию кода MXNET в оригинальной книге «Ручное глубокое обучение» на TensorFlow2. После того, как репетитор Арчерсамы проконсультировался с учителем Ли Му, реализация этого проекта была одобрена учителем Ли Му. Оригинальные авторы книги: Aston Zhang, Li Mu, Zachary C. Lipton, Alexander J. Smora и другие участники сообщества, Github Адрес: https://github.com/d2l-ai/d2l-zh
Есть некоторые различия в китайских и английских версиях этой книги. Этот проект в основном рефакторирует TensorFlow2 для китайской версии этой книги. Кроме того, этот проект также относится к проекту Dive-Into-DL-Pytorch, который рефактирует Pytorch в китайской версии этой книги, спасибо здесь.
Он был обновлен до десяти глав и постоянно обновляется. Полем Полем
Сообщалось о проекте многих общественных счетов, такими как машинное сердце, и был признан первоначальным автором Ли Му.
Введение
Этот репозиторий в основном содержит две папки: код и документы (плюс некоторые данные хранятся в данных). Кодовая папка - это соответствующий код ноутбука Jupyter для каждой главы (на основе TensorFlow2); Папка DOCS-это соответствующий контент в формате разметки книги «Рукопадающий глубокий обучение», а затем используйте DocSify для развертывания веб-документа на страницы GitHub. Поскольку оригинальная книга использует фреймворк MXNET, контент DOCS может немного отличаться от исходной книги, но общий контент одинаково. Взносы в этот проект или выпуск приветствуются.
Для толпы
Этот проект предназначен для детской обуви, которая заинтересована в глубоком обучении, особенно тех, кто хочет использовать TensorFlow2 для глубокого обучения. Этот проект не требует, чтобы вы имели какое -либо исследование глубокого обучения или машинного обучения. Вам нужно только понимать базовую математику и программирование, такие как основная линейная алгебра, дифференциальная и вероятность, а также базовое программирование Python.
Как поесть
Метод 1
Этот репозиторий содержит некоторые формулы латекса, но Native Github Markdown не поддерживает отображение формулы, а папка DOCS была развернута на страницах GitHub с использованием DocSify, поэтому самый простой способ просмотра документа - это напрямую доступ к веб -версии этого проекта . Конечно, если вы все еще хотите запустить соответствующий код, вам все равно придется клонировать проект, а затем запустить соответствующий код в папке кода.
Метод 2
Вы также можете получить доступ к документации локально и сначала установить инструмент docsify-cli :
Затем клонируйте проект локально:
git clone https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0
cd Dive-into-DL-TensorFlow2.0
Затем запустите локальный сервер, чтобы вы могли легко получить доступ к эффекту веб -рендеринга документа в режиме реального времени по адресу http://localhost:3000 .
Участники
Спонсоры и основные участники этого проекта следующие
Арчерерсама (лидер) | Хидергго
| Мечфейт
| Шузентанг
| Liangqingyuan
|
Оглавление
- Введение
- Руководство по чтению
- 1. Введение в глубокое обучение
- 2. Подготовка знаний
- 2.1 Конфигурация среды
- 2.2 Операция данных
- 2.3 автоматически находит градиенты
- 2.4 Проверьте документ
- 3. Основы глубокого обучения
- 3.1 Линейная регрессия
- 3.2 Реализация линейной регрессии с нуля
- 3.3 Краткая реализация линейной регрессии
- 3.4 Регрессия Softmax
- 3.5 Набор данных классификации изображений (мода-мнист)
- 3.6 Реализация регрессии SoftMax с нуля
- 3.7 Простая реализация регрессии SoftMax
- 3.8 Многослойная сенсорная машина
- 3.9 Реализация многослойной машины восприятия с нуля
- 3.10 Простая реализация многослойной машины восприятия
- 3.11 Выбор модели, недооценка и переосмысление
- 3.12 ЗАКАЗА
- 3.13 Метод отброса
- 3.14 Диаграммы прямого распространения, размножения и расчета обратного распространения и расчетов
- 3.15 Численная стабильность и инициализация модели
- 3.16 Фактическая конкуренция Kaggle: прогноз цены дома
- 4. Глубокое обучение вычисления
- 4.1 Строительство модели
- 4.2 Доступ, инициализация и совместное использование параметров модели
- 4.3 Задержка инициализации параметров модели
- 4.4 Пользовательский слой
- 4.5 Чтение и хранение
- 4.6 Вычисления графического процессора
- 5. Служба нейронная сеть
- 5.1 Двумерный слой свертки
- 5.2 Заполнить и шаг
- 5.3 Канал с несколькими входами и канал с несколькими выходами
- 5.4 Объединение слоя
- 5.5 Снутренняя нейронная сеть (Lenet)
- 5.6 Глубокая сверточная нейронная сеть (Alexnet)
- 5.7 сети с использованием повторяющихся элементов (VGG)
- 5.8 Сеть в сети (NIN)
- 5.9 Сеть с параллельным соединением (Googlenet)
- 5.10 Нормализация партии
- 5.11 остаточная сеть (Resnet)
- 5.12 Денсенет
- 6. повторяющаяся нейронная сеть
- 6.1 Языковая модель
- 6.2 повторяющаяся нейронная сеть
- 6.3 Набор данных языковой модели (текст альбома Джея Чоу)
- 6.4 Реализация повторяющихся нейронных сетей с нуля
- 6.5 Простая реализация повторяющейся нейронной сети
- 6.6 Перепластиться во времени
- 6.7 Группа циркуляционной единицы (GRU)
- 6.8 Длинная кратковременная память (LSTM)
- 6.9 глубоко повторяющаяся нейронная сеть
- 6.10 двунаправленная повторяющаяся нейронная сеть
- 7. Алгоритм оптимизации
- 7.1 Оптимизация и глубокое обучение
- 7.2 Градиент спуск и стохастический градиент спуск
- 7.3 Стохастический градиент с небольшим партийным градиентом
- 7.4 Метод импульса
- 7.5 Адаград Алгоритм
- 7.6 Алгоритм RMSPROP
- 7.7 АЛГОРИТМ АДАДЕЛЬТА
- 7.8 Адам Алгоритм
- 8. Вычислительная производительность
- 8.1 Императивное и символы гибридного программирования
- 8.2 Асинхронное расчет
- 8.3 Автоматические параллельные вычисления
- 8.4 Multi-GPU Computing
- 9. Компьютерное зрение
- 9.1 Увеличение изображения
- 9.2 Прекрасная регулировка
- 9.3 Обнаружение объекта и ограничивающая коробка
- 9.4 Якорная рама
- 9.5 многомасштабное обнаружение цели
- 9.6 Набор данных обнаружения объектов (Pikachu)
- 9.8 Серия региональной сверточной нейронной сети (R-CNN)
- 9.9 Семантическая сегментация и наборы данных
- 9.10 Полная сверточная сеть (FCN)
- 9.11 миграция стиля
- 9.12 Практическая конкуренция Kaggle: классификация изображений (CIFAR-10)
- 9.13 Практическая конкуренция Kaggle: идентификация породы собак (собаки ImageNet)
- 10. Обработка естественного языка
- 10.1 Слово внедрение (Word2VEC)
- 10.2 Приблизительное обучение
- 10.3 Реализация Word2VEC
- 10.4 Внедрение подносов (FASTTEXT)
- 10.5 Слово встраивание глобальных векторов (перчатка)
- 10.6 Найти синонимы и аналогии
- 10.7 Текстовая классификация эмоций: использование повторяющихся нейронных сетей
- 10.8.
- 10.9 Encoder-Decoder (SEQ2SEQ)
- 10.10 Bunch Search
- 10.11 Механизм внимания
- 10.12 машинный перевод
- 11. Приложение
- 11.1 Список основных символов
- 11.2 Основы математики
- 11.3 Использование ноутбука Юпитера
- 11.4 Запустите код с помощью AWS
- 11,5 Руководство по покупке графического процессора
Непрерывно обновляется ...
Оригинальный адрес книги
Китайская версия: Учитесь глубоким обучением на руках | Репозиторий GitHub
Английская версия: Погрузитесь в глубокое обучение | GitHub Repo
Цитировать
Если вы использовали этот проект в своем исследовании, пожалуйста, укажите оригинальную книгу:
@book{zhang2019dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{http://www.d2l.ai}},
year={2019}
}