仔细学习论文审查和代码实践:深度学习论文评论和实践
- 这是细致的深度学习论文评论和代码实践的存储库。
- 根据最新论文,我们介绍了非常流行的各种深度学习论文。
- 如有疑问,请将其留在此存储库的“问题”选项卡中。
图像识别(图像识别)
- 使用变压器的端到端对象检测(ECCV 2020)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 搜索MobilenetV3(ICCV 2019)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 图像识别的深度残留学习(CVPR 2016)
- 原始纸链接 /纸质评论视频 /摘要PDF / MNIST / CIFAR-10 / IMAGENET
- 自适应实例归一化实时的任意样式转移(ICCV 2017)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 使用卷积神经网络的图像样式转移(CVPR 2016)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 更快的R-CNN:通过区域提案网络实时对象检测(NIPS 2015)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
自然语言处理(自然语言处理)
- 单头授予RNN:停止思考(2020)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- BERT:对语言承诺的深双向变压器的预训练(NAACL 2019)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 您需要注意的全部(NIPS 2017)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 神经机器翻译通过共同学习对齐和翻译(ICLR 2015)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 显示和讲述:神经图像标题发电机(CVPR 2015)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 使用神经网络序列学习的顺序(NIPS 2014)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
生成模型和超级分辨率
- 零击超分辨率的元转移学习(CVPR 2020)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- Singan:从单个自然图像中学习生成模型(ICCV 2019)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 一种基于样式的生成器架构,用于生成对抗网络(CVPR 2019)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- Stargan:统一生成的网络用于多域图像到仪器翻译(CVPR 2018)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 带有条件对抗网络的图像到图像翻译(CVPR 2017)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 通用网(NIPS 2014)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
建模与优化(建模与优化)
- 图像分类的技巧袋(CVPR 2019)
- 原始纸链接 /纸质评论视频 /摘要PDF
- CIFAR-10 / CIFAR-10具有标签平滑 / CIFAR-10,带有输入混合 / CIFAR-10,标签平滑和输入混合
- 深度压缩:带有修剪,训练量化和Huffman编码的深层神经网络(ICLR 2016年)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 分批归一化:通过减少国际协变量转移来加速深层网络培训(PMLR 2015)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
对抗性例子和后门攻击(敌对的例子和后门攻击)
- Hopskipjumpattack:基于查询效率的基于决策的攻击(标准普尔2020年)
- 原始纸链接 /纸质评论视频 /摘要PDF /目标攻击 /非目标攻击
- 违反认证的辩护:具有欺骗性鲁棒性证书的语义对抗性示例(ICLR 2020)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- Sign-Opt:查询有效的硬标签对抗攻击(ICLR 2020)
- 原始纸链接 /纸质评论视频 /摘要PDF / MNIST / CIFAR-10
- 伯特真的很健壮吗?自然语言攻击文本分类和索引的强大基准(AAAI 2020年)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
- 查询有效的硬标签黑盒攻击:基于优化的方法(ICLR 2019)
- 原始纸链接 /纸质评论视频 /摘要PDF / MNIST / CIFAR-10
- 通过动量增强对抗性攻击(CVPR 2018 Spotlight)
- 原始纸链接 /纸质评论视频 /摘要PDF / CIFAR-10 / Imagenet
- 毒青蛙!对神经网络的有针对性的清洁标签中毒攻击(NIPS 2018)
- 原始纸链接 /纸质评论视频 /摘要PDF / Resnet / Alexnet
- 基于决策的对抗攻击:针对黑盒机器学习模型的可靠攻击(ICLR 2018)
- 原始纸链接 /纸质评论视频 /摘要PDF /代码练习
最后论文评论内容
- 解释和利用对抗性例子(ICLR 2015)
- 旨在评估神经网络的鲁棒性(S&P 2017)
- 迈向抵抗对抗性攻击的深度学习模型(ICLR 2018)
- 对抗性示例不是错误,而是ARRE功能(NIPS 2019)
- 对具有差异隐私的对抗性示例的认证鲁棒性(标准普尔2019)
- 混淆的梯度给出了错误的安全感(ICML 2018)
- 用生成模型构建非逆境示例(NIPS 2018)
- 对抗补丁(NIPS 2018)