
Обновление: см. Orignal Repo для полного порта Pytorch. Мы больше не поддерживаем это репо.
Этот проект адаптирован из оригинального погружения в книгу о глубоком обучении Астоном Чжан, Захари С. Липтоном, Му Ли, Алексом Дж. Смолой и всеми участниками сообщества. Github of the Original Book: https://github.com/d2l-ai/d2l-en. Мы приложили усилия, чтобы изменить книгу и преобразовать фрагменты кода MXNET в Pytorch.
Примечание. Некоторые ноутбуки IPYNB могут не отображаться идеально в GitHub. Мы предлагаем cloning репо или использование NBViewer для просмотра ноутбуков.
Главы
Установка CH02
CH03 ВВЕДЕНИЕ
CH04 Предварительные вещества: аварийный канал
- 4.1 Манипулирование данными
- 4.2 Линейная алгебра
- 4.3 Автоматическая дифференциация
- 4.4 Вероятность и статистика
- 4.5 Наивная классификация Байеса
- 4.6 Документация
CH05 линейные нейронные сети
- 5.1 Линейная регрессия
- 5.2 Реализация линейной регрессии с нуля
- 5.3 Краткая реализация линейной регрессии
- 5.4 Регрессия Softmax
- 5.5 Данные классификации изображений (мода-мнист)
- 5.6 Реализация регрессии Softmax с нуля
- 5.7 Краткая реализация регрессии Softmax
CH06 Многослойные персептроны
- 6.1 Многослойный персептрон
- 6.2 Реализация многослойного персептрона с нуля
- 6.3 Краткая реализация многослойного персептрона
- 6.4 Выбор модели подключает и переживание
- 6,5 Веса распада
- 6.6 Отступие
- 6.7 Право распространения обратного распространения и вычислительных графиков
- 6.8 Численная стабильность и инициализация
- 6.9 Учитывая окружающую среду
- 6.10 Прогнозирование цен на жилье на Kaggle
CH07 Расчету глубокого обучения
- 7.1 слои и блоки
- 7.2 Управление параметрами
- 7.3 Отложенная инициализация
- 7.4 Пользовательские слои
- 7.5 Файл ввода/вывода
- 7.6 графические процессоры
CH08 сверточные нейронные сети
- 8.1 от плотных слоев до сверты
- 8.2 Своивание для изображений
- 8.3 прокладка и шаг
- 8.4 Несколько входных и выходных каналов
- 8.5 объединение
- 8.6 Служба нейронных сетей (Lenet)
CH09 Современные сверточные сети
- 9.1 Глубокие сверточные нейронные сети (Alexnet)
- 9.2 Сети с использованием блоков (VGG)
- 9.3 Сеть в сети (NIN)
- 9.4 Сети с параллельными конкатенациями (Googlenet)
- 9.5 Нормализация партии
- 9.6 остаточные сети (Resnet)
- 9.7 густо связанные сети (Densenetet)
CH10 повторяющиеся нейронные сети
- 10.1 модели последовательности
- 10.2 Языковые модели
- 10.3 повторяющиеся нейронные сети
- 10.4 Текстовая предварительная обработка
- 10.5 Внедрение повторяющихся нейронных сетей с нуля
- 10.6 Краткая реализация повторяющихся нейронных сетей
- 10.7.
- 10.8 Зарегистрированные повторяющиеся единицы (GRU)
- 10.9 длинная краткосрочная память (LSTM)
- 10.10 глубоко повторяющиеся нейронные сети
- 10.11 двунаправленные повторяющиеся нейронные сети
- 10.12 машинный перевод и наборы данных
- 10.13 Архитектура энкодера-декодера
- 10.14 последовательность к последовательности
- 10.15 Поиск луча
CH11 Механизм внимания
- 11.1 Механизм внимания
- 11.2 последовательность к последовательности с механизмом внимания
- 11.3 Трансформатор
Алгоритмы оптимизации CH12
- 12.1 Оптимизация и глубокое обучение
- 12.2 Выпуклость
- 12.3 Градиент спуск
- 12.4 Стохастический градиент спуск
- 12.5 мини-партийный стохастический градиент спуск
- 12,6 импульс
- 12.7 Адаград
- 12.8 RMSProp
- 12.9 Ададельта
- 12.10 Адам
CH14 Компьютерное зрение
- 14.1 Увеличение изображения
- 14.2 тонкая настройка
- 14.3 Обнаружение объекта и ограничивающие коробки
- 14.4 Якоря коробки
- 14.5 Обнаружение объекта с несколькими исследованиями
- 14.6 Набор данных обнаружения объектов (Pikachu)
- 14.7 Обнаружение мультипокс с одним выстрелом (SSD)
- 14.8 CNNS на основе региона (R-CNNS)
- 14.9 Семантическая сегментация и наборы данных
- 14.10 транспонированная свертка
- 14.11 Полностью сверточные сети (FCN)
- 14.12 Перенос нервного стиля
- 14.13 Классификация изображений (CIFAR-10) на Kaggle
- 14.14 Идентификация породы собак (собаки ImageNet) на Kaggle
Внося
Пожалуйста, не стесняйтесь открыть запрос на привлечение, чтобы внести ноутбук в Pytorch для остальных глав. Прежде чем начать с ноутбука, откройте проблему с названием ноутбука, чтобы внести свой вклад в то же самое. Мы назначим вам эту проблему (если никто не был назначен ранее).
Строго следуйте соглашениям об именах для ноутбуков Ipython и подразделах.
Кроме того, если вы думаете, что есть какой -либо раздел, который требует большего/лучшего объяснения, используйте трекер проблемы, чтобы открыть проблему и сообщить нам об этом. Мы вернемся как можно скорее.
Найдите какой -нибудь код, который требует улучшения, и отправьте запрос на вытяжку.
Найдите ссылку, которую мы пропустили, и отправьте запрос на привлечение.
Постарайтесь не подавать огромные запросы на притяжение, так как это затрудняет их понимание и включение. Лучше отправить несколько меньших.
Поддерживать
Если вам нравится этот репо и вы найдете его полезным, пожалуйста, рассмотрите (★) с участием в главной роли, чтобы он мог достичь более широкой аудитории.
Ссылки
[1] Оригинальная книга погрузилась в глубокое обучение -> GitHub Repo
[2] Глубокое обучение - прямая допинг
[3] Pytorch - Mxnet Cheatsheet
Цитировать
Если вы используете эту работу или код для своего исследования, пожалуйста, укажите оригинальную книгу со следующей записью Bibtex.
@book{zhang2020dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{https://d2l.ai}},
year={2020}
}