이 프로젝트는 원래 책 "Hand-On Deep Learning"에서 Tensorflow2에서 MXNet 코드의 구현을 변경합니다. Archersama의 교사가 Li Mu 교사와 상담 한 후,이 프로젝트의 구현은 Li Mu 교사의 승인을 받았습니다. 오리지널 책 저자 : Aston Zhang, Li Mu, Zachary C. Lipton, Alexander J. Smora 및 기타 커뮤니티 기고자, Github 주소 : https://github.com/d2l-ai/d2l-zh
이 책의 중국어와 영어 버전에는 몇 가지 차이가 있습니다. 이 프로젝트는 주로이 책의 중국어 버전에 대해 Tensorflow2를 리팩터링합니다. 또한이 프로젝트는이 책의 중국어 버전에서 Pytorch를 리팩터링하는 프로젝트 다이브 -into-dl-pytorch를 말합니다. 감사합니다.
10 장으로 업데이트되었으며 지속적으로 업데이트되고 있습니다. . .
이 프로젝트는 Machine Heart와 같은 많은 공개 계정에 의해보고되었으며 원래 저자 Li Mu에 의해 인정되었습니다.
소개
이 저장소에는 주로 코드와 문서의 두 폴더가 포함됩니다 (일부 데이터는 데이터에 저장됩니다). 코드 폴더는 각 장의 관련 Jupyter 노트북 코드입니다 (Tensorflow2 기반). Docs 폴더는 "Hand-On Deep Learning"책의 Markdown 형식의 관련 내용이며 Docsify를 사용하여 웹 문서를 GitHub 페이지에 배포합니다. 원래 책은 MXNET 프레임 워크를 사용하기 때문에 문서 내용은 원래 책과 약간 다를 수 있지만 전체 내용은 동일합니다. 이 프로젝트 또는 문제에 대한 기여를 환영합니다.
군중을 위해
이 프로젝트는 딥 러닝에 관심이있는 어린이 신발, 특히 딥 러닝에 Tensorflow2를 사용하려는 사람들을 대상으로합니다. 이 프로젝트는 딥 러닝 또는 머신 러닝에 대한 배경 지식이 필요하지 않습니다. 기본 선형 대수, 차동 및 확률, 기본 파이썬 프로그래밍과 같은 기본 수학 및 프로그래밍 만 이해하면됩니다.
먹는 방법
방법 1
이 저장소에는 일부 라텍스 공식이 포함되어 있지만 Github의 Markdown Native는 Formula Display를 지원하지 않으며 Docsify를 사용하여 GitHub 페이지에 Docs 폴더가 배포되었으므로 문서를 보는 가장 쉬운 방법은이 프로젝트의 웹 버전에 직접 액세스하는 것입니다 . 물론 관련 코드를 여전히 실행하려는 경우에도 프로젝트를 복제 한 다음 코드 폴더에서 관련 코드를 실행해야합니다.
방법 2
문서에 로컬로 액세스하고 docsify-cli 도구를 먼저 설치할 수도 있습니다.
그런 다음 프로젝트를 로컬로 복제하십시오.
git clone https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0
cd Dive-into-DL-TensorFlow2.0
그런 다음 로컬 서버를 실행하여 http://localhost:3000 에서 문서 웹 렌더링 효과에 쉽게 액세스 할 수 있습니다.
기고자
이 프로젝트의 후원자와 주요 기고자는 다음과 같습니다.
궁수 사마 (지도자) | 속임수
| 검
| Shusentang
| Liangqingyuan
|
목차
- 소개
- 독서 가이드
- 1. 딥 러닝 소개
- 2. 준비 지식
- 2.1 환경 구성
- 2.2 데이터 작동
- 2.3 자동으로 그라디언트를 찾습니다
- 2.4 문서를 확인하십시오
- 3. 딥 러닝의 기초
- 3.1 선형 회귀
- 3.2 처음부터 선형 회귀 구현
- 3.3 선형 회귀의 간결한 구현
- 3.4 SoftMax 회귀
- 3.5 이미지 분류 데이터 세트 (Fashion-Mnist)
- 3.6 처음부터 SoftMax 회귀 구현
- 3.7 SoftMax 회귀의 간단한 구현
- 3.8 다층 감지 기계
- 3.9 다층 인식 기계 구현
- 3.10 다층 인식기의 간단한 구현
- 3.11 모델 선택, 언더 피팅 및 과적
- 3.12 무게 붕괴
- 3.13 폐기 방법
- 3.14 전방 전파, 후면 전파 및 계산 다이어그램
- 3.15 수치 안정성 및 모델 초기화
- 3.16 실제 Kaggle 경쟁 : 주택 가격 예측
- 4. 딥 러닝 컴퓨팅
- 4.1 모델 구성
- 4.2 모델 매개 변수의 액세스, 초기화 및 공유
- 4.3 모델 매개 변수의 초기화 지연
- 4.4 사용자 정의 계층
- 4.5 읽기 및 저장
- 4.6 GPU 컴퓨팅
- 5. Convolutional Neural Network
- 5.1 2 차원 컨볼 루션 층
- 5.2 채우고 보폭
- 5.3 다중 입력 채널 및 다중 출력 채널
- 5.4 풀링 레이어
- 5.5 Convolutional Neural Network (Lenet)
- 5.6 깊은 컨볼 루션 신경 네트워크 (Alexnet)
- 5.7 반복 요소 (VGG) 사용 네트워크
- 5.8 네트워크 네트워크 (NIN)
- 5.9 병렬 연결 네트워크 (Googlenet)
- 5.10 배치 정규화
- 5.11 잔차 네트워크 (RESNET)
- 5.12 Densenet
- 6. 반복 신경 네트워크
- 6.1 언어 모델
- 6.2 반복 신경 네트워크
- 6.3 언어 모델 데이터 세트 (Jay Chou의 앨범의 가사)
- 6.4 처음부터 재발 성 신경망 구현
- 6.5 재발 신경 네트워크의 간단한 구현
- 6.6 시간이 지남에 따라 역전
- 6.7 게이트 순환 장치 (GRU)
- 6.8 긴 단기 메모리 (LSTM)
- 6.9 깊은 재발 신경 네트워크
- 6.10 양방향 반복 신경 네트워크
- 7. 최적화 알고리즘
- 7.1 최적화 및 딥 러닝
- 7.2 그라디언트 하강 및 확률 론적 구배 하강
- 7.3 작은 배치 확률 론적 구배 출신
- 7.4 운동량 방법
- 7.5 Adagrad 알고리즘
- 7.6 RMSProp 알고리즘
- 7.7 Adadelta 알고리즘
- 7.8 아담 알고리즘
- 8. 계산 성능
- 8.1 명령 및 기호 하이브리드 프로그래밍
- 8.2 비동기 계산
- 8.3 자동 병렬 컴퓨팅
- 8.4 멀티 GPU 컴퓨팅
- 9. 컴퓨터 비전
- 9.1 이미지 확대
- 9.2 미세 조정
- 9.3 객체 감지 및 경계 박스
- 9.4 앵커 프레임
- 9.5 다중 규모 대상 탐지
- 9.6 객체 감지 데이터 세트 (Pikachu)
- 9.8 지역 컨볼 루션 신경 네트워크 (R-CNN) 시리즈
- 9.9 시맨틱 세분화 및 데이터 세트
- 9.10 전체 컨볼 루션 네트워크 (FCN)
- 9.11 스타일 마이그레이션
- 9.12 실제 Kaggle 경쟁 : 이미지 분류 (Cifar-10)
- 9.13 실용적인 Kaggle 경쟁 : 개 품종 식별 (Imagenet Dogs)
- 10. 자연어 처리
- 10.1 Word Embedding (Word2Vec)
- 10.2 근사 교육
- 10.3 Word2Vec의 구현
- 10.4 서브 워드 임베딩 (FastText)
- 10.5 글로벌 벡터의 단어 임베딩 (글러브)
- 10.6 동의어와 비유를 찾으십시오
- 10.7 텍스트 감정 분류 : 재발 성 신경망 사용
- 10.8 텍스트 감정 분류 : Convolutional Neural Network 사용 (TextCnn)
- 10.9 인코더-디코더 (seq2seq)
- 10.10 무리 검색
- 10.11주의 메커니즘
- 10.12 기계 번역
- 11. 부록
- 11.1 주요 기호 목록
- 11.2 수학의 기본
- 11.3 Jupyter Notebook 사용
- 11.4 AWS를 사용하여 코드를 실행하십시오
- 11.5 GPU 구매 안내서
지속적으로 업데이트되었습니다 ...
원래 책 주소
중국어 버전 : 손에 딥 러닝 배우기 | Github 저장소
영어 버전 : 딥 러닝으로 뛰어들 | Github Repo
인용하다
이 프로젝트를 연구에서 사용한 경우 원래 책을 인용하십시오.
@book{zhang2019dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{http://www.d2l.ai}},
year={2019}
}