仔細學習論文審查和代碼實踐:深度學習論文評論和實踐
- 這是細緻的深度學習論文評論和代碼實踐的存儲庫。
- 根據最新論文,我們介紹了非常流行的各種深度學習論文。
- 如有疑問,請將其留在此存儲庫的“問題”選項卡中。
圖像識別(圖像識別)
- 使用變壓器的端到端對象檢測(ECCV 2020)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 搜索MobilenetV3(ICCV 2019)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 圖像識別的深度殘留學習(CVPR 2016)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF / MNIST / CIFAR-10 / IMAGENET
- 自適應實例歸一化實時的任意樣式轉移(ICCV 2017)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 使用卷積神經網絡的圖像樣式轉移(CVPR 2016)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 更快的R-CNN:通過區域提案網絡實時對象檢測(NIPS 2015)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
自然語言處理(自然語言處理)
- 單頭授予RNN:停止思考(2020)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- BERT:對語言承諾的深雙向變壓器的預訓練(NAACL 2019)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 您需要注意的全部(NIPS 2017)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 神經機器翻譯通過共同學習對齊和翻譯(ICLR 2015)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 顯示和講述:神經圖像標題發電機(CVPR 2015)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 使用神經網絡序列學習的順序(NIPS 2014)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
生成模型和超級分辨率
- 零擊超分辨率的元轉移學習(CVPR 2020)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- Singan:從單個自然圖像中學習生成模型(ICCV 2019)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 一種基於樣式的生成器架構,用於生成對抗網絡(CVPR 2019)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- Stargan:統一生成的網絡用於多域圖像到儀器翻譯(CVPR 2018)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 帶有條件對抗網絡的圖像到圖像翻譯(CVPR 2017)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 通用網(NIPS 2014)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
建模與優化(建模與優化)
- 圖像分類的技巧袋(CVPR 2019)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF
- CIFAR-10 / CIFAR-10具有標籤平滑 / CIFAR-10,帶有輸入混合 / CIFAR-10,標籤平滑和輸入混合
- 深度壓縮:帶有修剪,訓練量化和Huffman編碼的深層神經網絡(ICLR 2016年)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 分批歸一化:通過減少國際協變量轉移來加速深層網絡培訓(PMLR 2015)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
對抗性例子和後門攻擊(敵對的例子和後門攻擊)
- Hopskipjumpattack:基於查詢效率的基於決策的攻擊(標準普爾2020年)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /目標攻擊 /非目標攻擊
- 違反認證的辯護:具有欺騙性魯棒性證書的語義對抗性示例(ICLR 2020)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- Sign-Opt:查詢有效的硬標籤對抗攻擊(ICLR 2020)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF / MNIST / CIFAR-10
- 伯特真的很健壯嗎?自然語言攻擊文本分類和索引的強大基準(AAAI 2020年)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
- 查詢有效的硬標籤黑盒攻擊:基於優化的方法(ICLR 2019)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF / MNIST / CIFAR-10
- 通過動量增強對抗性攻擊(CVPR 2018 Spotlight)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF / CIFAR-10 / Imagenet
- 毒青蛙!對神經網絡的有針對性的清潔標籤中毒攻擊(NIPS 2018)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF / Resnet / Alexnet
- 基於決策的對抗攻擊:針對黑盒機器學習模型的可靠攻擊(ICLR 2018)
- 原始紙鏈接 /紙質評論視頻 /摘要PDF /代碼練習
最後論文評論內容
- 解釋和利用對抗性例子(ICLR 2015)
- 旨在評估神經網絡的魯棒性(S&P 2017)
- 邁向抵抗對抗性攻擊的深度學習模型(ICLR 2018)
- 對抗性示例不是錯誤,而是ARRE功能(NIPS 2019)
- 對具有差異隱私的對抗性示例的認證魯棒性(標準普爾2019)
- 混淆的梯度給出了錯誤的安全感(ICML 2018)
- 用生成模型構建非逆境示例(NIPS 2018)
- 對抗補丁(NIPS 2018)