このプロジェクトは、元の本「Hand-on Deep Learning」のMXNETコードの実装をTensorflow2に変更します。 Archersamaの家庭教師がLi Mu Mu教師に相談した後、このプロジェクトの実施はLi Mu Mu教師によって承認されました。オリジナルの本の著者:アストン・チャン、リー・ムー、ザカリー・C・リプトン、アレクサンダー・J・スモーラ、その他のコミュニティ貢献者、github住所:https://github.com/d2l-ai/d2l-zh
この本の中国語版と英語版にはいくつかの違いがあります。このプロジェクトは、主にこの本の中国語版のTensorflow2をリファクタリングします。さらに、このプロジェクトでは、この本の中国語版でPytorchをリファクタリングするプロジェクトDive-into-dl-pytorchにも言及しています。ここでありがとう。
10章に更新され、継続的に更新されています。 。 。
このプロジェクトは、Machine Heartなどの多くの公開アカウントによって報告されており、元の著者Li Muによって認識されています。
導入
このリポジトリには、主にコードとドキュメントの2つのフォルダーが含まれています(さらに、一部のデータはデータに保存されています)。コードフォルダーは、各章に関連するJupyterノートブックコードです(Tensorflow2に基づく)。 Docsフォルダーは、「Hand-on Deep Learning」ブックのマークダウン形式の関連コンテンツであり、Docsifyを使用してWebドキュメントをGitHubページに展開します。元の本はMXNETフレームワークを使用しているため、ドキュメントのコンテンツは元の本とはわずかに異なる場合がありますが、全体的なコンテンツは同じです。このプロジェクトまたは問題への貢献は大歓迎です。
群衆のために
このプロジェクトは、深い学習に関心のある子供の靴、特に深い学習にTensorflow2を使用したい人の靴を対象としています。このプロジェクトでは、深い学習や機械学習に関する背景知識を持つ必要はありません。基本的な線形代数、差動と確率、基本的なPythonプログラミングなど、基本的な数学とプログラミングを理解するだけです。
食べる方法
方法1
このリポジトリにはいくつかのラテックス式が含まれていますが、GithubのMarkdownネイティブはフォーミュラディスプレイをサポートしておらず、Docsフォルダーはdocsifyを使用してGithubページに展開されているため、ドキュメントを表示する最も簡単な方法は、このプロジェクトのWebバージョンに直接アクセスすることです。もちろん、関連するコードを実行する場合でも、プロジェクトをクローンしてから、コードフォルダーで関連するコードを実行する必要があります。
方法2
ドキュメントにローカルにアクセスして、最初にdocsify-cliツールをインストールすることもできます。
次に、プロジェクトをローカルにクローンします。
git clone https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0
cd Dive-into-DL-TensorFlow2.0
次に、ローカルサーバーを実行して、 http://localhost:3000でドキュメントWebレンダリング効果に簡単にアクセスできるようにします。
貢献者
このプロジェクトのスポンサーと主な貢献者は次のとおりです
アルケサマ (リーダー) | Trickygo
| ソードフェイス
| shusentang
| liangqingyuan
|
目次
- 導入
- 読書ガイド
- 1。深い学習の紹介
- 2。準備知識
- 2.1環境構成
- 2.2データ操作
- 2.3勾配を自動的に見つけます
- 2.4ドキュメントを確認します
- 3。深い学習の基本
- 3.1線形回帰
- 3.2ゼロからの線形回帰の実装
- 3.3線形回帰の簡潔な実装
- 3.4ソフトマックス回帰
- 3.5画像分類データセット(Fashion-Mnist)
- 3.6 SoftMax回帰の実装をゼロから
- 3.7ソフトマックス回帰の簡単な実装
- 3.8マルチレイヤーセンシングマシン
- 3.9マルチレイヤー認識マシンのゼロの実装
- 3.10多層知覚マシンの簡単な実装
- 3.11モデルの選択、体調不良および過剰適合
- 3.12重量減衰
- 3.13廃棄方法
- 3.14前方伝播、背中の伝播および計算図
- 3.15数値の安定性とモデルの初期化
- 3.16実際のKaggle競争:住宅価格予測
- 4。ディープラーニングコンピューティング
- 4.1モデル構造
- 4.2モデルパラメーターのアクセス、初期化、共有
- 4.3モデルパラメーターの遅延初期化
- 4.4カスタムレイヤー
- 4.5リーディングとストレージ
- 4.6 GPUコンピューティング
- 5。畳み込みニューラルネットワーク
- 5.1二次元畳み込み層
- 5.2充填と歩幅
- 5.3マルチ入力チャネルとマルチアウトプットチャネル
- 5.4プーリングレイヤー
- 5.5畳み込みニューラルネットワーク(LENET)
- 5.6ディープ畳み込みニューラルネットワーク(ALEXNET)
- 5.7繰り返し要素を使用したネットワーク(VGG)
- 5.8ネットワーク内のネットワーク(NIN)
- 5.9パラレル接続を備えたネットワーク(googleNet)
- 5.10バッチ正規化
- 5.11残差ネットワーク(ResNet)
- 5.12デンセン
- 6。再発ニューラルネットワーク
- 6.1言語モデル
- 6.2再発性ニューラルネットワーク
- 6.3言語モデルデータセット(Jay Chouのアルバムの歌詞)
- 6.4再発性ニューラルネットワークのゼロの実装
- 6.5再発性ニューラルネットワークの簡単な実装
- 6.6時間の経過とともにバックプロパゲーション
- 6.7ゲート循環ユニット(GRU)
- 6.8長期記憶(LSTM)
- 6.9深い再発性ニューラルネットワーク
- 6.10双方向の再発性ニューラルネットワーク
- 7。最適化アルゴリズム
- 7.1最適化と深い学習
- 7.2勾配降下と確率的勾配降下
- 7.3小さなバッチ確率的勾配降下
- 7.4運動量方法
- 7.5 Adagradアルゴリズム
- 7.6 RMSPROPアルゴリズム
- 7.7 Adadeltaアルゴリズム
- 7.8 Adam Algorithm
- 8。計算パフォーマンス
- 8.1命令的およびシンボルハイブリッドプログラミング
- 8.2非同期計算
- 8.3自動並列コンピューティング
- 8.4マルチGPUコンピューティング
- 9。コンピュータービジョン
- 9.1画像増強
- 9.2微細な調整
- 9.3オブジェクトの検出と境界ボックス
- 9.4アンカーフレーム
- 9.5マルチスケールターゲット検出
- 9.6オブジェクト検出データセット(Pikachu)
- 9.8地域畳み込みニューラルネットワーク(R-CNN)シリーズ
- 9.9セマンティックセグメンテーションとデータセット
- 9.10完全畳み込みネットワーク(FCN)
- 9.11スタイルの移行
- 9.12実践的なKaggle競争:画像分類(CIFAR-10)
- 9.13実践的なKaggleコンペティション:犬種の識別(Imagenet Dogs)
- 10。自然言語処理
- 10.1ワード埋め込み(word2vec)
- 10.2概算トレーニング
- 10.3 Word2vecの実装
- 10.4サブワード埋め込み(FastText)
- 10.5グローバルベクターの単語埋め込み(グローブ)
- 10.6同義語と類推を見つけます
- 10.7テキスト感情分類:再発性ニューラルネットワークの使用
- 10.8テキスト感情分類:畳み込みニューラルネットワークの使用(TextCNN)
- 10.9エンコーダデコーダー(seq2seq)
- 10.10バンチ検索
- 10.11注意メカニズム
- 10.12機械翻訳
- 11。付録
- 11.1メインシンボルのリスト
- 11.2数学の基本
- 11.3 Jupyterノートブックの使用
- 11.4 AWSを使用してコードを実行します
- 11.5 GPU購入ガイド
継続的に更新されました...
オリジナルの本アドレス
中国語版:手で深い学習を学ぶ| GitHubリポジトリ
英語版:深い学習に飛び込みます| Github Repo
引用
このプロジェクトを研究で使用した場合は、元の本を引用してください。
@book{zhang2019dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{http://www.d2l.ai}},
year={2019}
}