高质量(最新)自动工程和轻量级模型的列表,包括1.)神经体系结构搜索, 2。)轻量级结构, 3。)模型压缩,量化和加速度, 4。)4.)超参数优化, 5。)自动化功能工程。
该存储库的目的是为汽车研究提供信息(尤其是针对轻型模型)。欢迎来到Repo错过的PR The Works(论文,存储库)。
坡度:
当NAS遇到鲁棒性时:寻找针对对抗攻击的强大架构| [ CVPR 2020 ]
在四个GPU小时内搜索强大的神经建筑| [ CVPR 2019 ]
尽快:建筑搜索,退火和修剪| [2019/04]
单路NAS:在不到4个小时内设计硬件有效的Convnets | [2019/04]
自动卷积神经体系结构在不同场景下搜索图像分类| [ IEEE Access 2019 ]
SharpDarts:更快,更准确的可区分架构搜索| [2019/03]
通过参数共享学习隐式复发CNN | [ ICLR 2019 ]
概率神经建筑搜索| [2019/02]
自动深度列表:分层神经体系结构搜索语义图像分割| [2019/01]
SNA:随机神经体系结构搜索| [ ICLR 2019 ]
FBNET:通过可区分的神经体系结构搜索硬件有效的弯曲设计| [2018/12]
神经体系结构优化| [ NIPS 2018 ]
飞镖:可区分的体系结构搜索| [2018/06]
强化学习:
基于模板的自动搜索紧凑的语义分割体系结构| [2019/04]
了解神经体系结构搜索技术| [2019/03]
通过神经体系结构搜索快速,准确和轻巧的超分辨率| [2019/01]
移动神经体系结构搜索中的多目标增强进化| [2019/01]
无副NAS:目标任务和硬件的直接神经体系结构搜索| [ ICLR 2019 ]
使用神经自动转移学习| [ NIPS 2018 ]
学习可转移的架构可扩展图像识别| [2018/07]
MNASNET:平台感知的神经体系结构搜索移动| [2018/07]
实用的块神经网络建筑生成| [ CVPR 2018 ]
通过参数共享有效的神经体系结构搜索| [ ICML 2018 ]
通过网络转换|有效的体系结构搜索| [ AAAI 2018 ]
进化算法:
单一路径一声神经体系结构搜索均匀采样| [2019/04]
DETNA:对象检测的神经体系结构搜索| [2019/03]
进化的变压器| [2019/01]
通过神经进化设计神经网络| [自然机器智能2019 ]
EAT-NAS:用于加速大规模神经体系结构搜索的弹性建筑转移| [2019/01]
通过Lamarckian Evolution进行有效的多目标神经体系结构搜索| [ ICLR 2019 ]
SMBO:
MFA:多模式融合体系结构搜索| [ CVPR 2019 ]
DPP网络:设备感知的渐进式搜索帕累托最佳神经体系结构| [ ECCV 2018 ]
进行性神经建筑搜索| [ ECCV 2018 ]
随机搜索:
探索以图像识别的随机有线神经网络| [2019/04]
搜索有效的多尺度体系结构以获取密集图像预测| [ NIPS 2018 ]
超网络:
贝叶斯优化:
部分订单修剪
知识蒸馏
图像分类:
高效网络:重新思考卷积神经网络的模型缩放| [ ICML 2019 ]
搜索MobilenetV3 | [2019/05]
语义细分:
CGNET:一个轻量级上下文指导网络,用于语义分割| [2019/04]
ESPNETV2:轻巧,电力效率和通用卷积神经网络| [2018/11]
ESPNET:扩张卷积的有效空间金字塔用于语义分割| [ ECCV 2018 ]
Bisenet:实时语义分割的双边分割网络| [ ECCV 2018 ]
ERFNET:实时语义分割的有效剩余分解的弯曲| [ T-ITS 2017 ]
对象检测:
Thundernet:迈向实时通用对象检测| [2019/03]
池化金字塔网络用于对象检测| [2018/09]
Tiny-dsod:用于资源限制用法的轻质对象检测| [ BMVC 2018 ]
PELEE:移动设备上的实时对象检测系统| [ Neurips 2018 ]
接收场块网以进行准确和快速的对象检测| [ ECCV 2018 ]
FSSD:功能融合单拍多伯克斯检测器| [2017/12]
特征金字塔网络用于对象检测| [ CVPR 2017 ]
修剪:
彩票票证假设:寻找稀疏,可训练的神经网络| [ ICLR 2019 ]
重新考虑网络修剪的价值| [ ICLR 2019 ]
微小的神经网络| [ ICLR 2019 ]
AMC:移动设备上的模型压缩和加速器的汽车| [ ECCV 2018 ]
通过网络减肥来学习有效的卷积网络| [ ICCV 2017 ]
渠道修剪以加速非常深的神经网络| [ ICCV 2017 ]
修剪卷积神经网络,用于资源有效推理| [ ICLR 2017 ]
修剪过滤器以进行有效的转向| [ ICLR 2017 ]
量化:
了解训练激活中的直通估计器量化神经网| [ ICLR 2019 ]
量化和培训神经网络的有效整数仅推断| [ CVPR 2018 ]
量化深度卷积网络以进行有效的推断:白皮书| [2018/06]
协议:量化神经网络的参数化剪辑激活| [2018/05]
用于快速部署的卷积网络的训练后4位量化| [ ICML 2018 ]
WRPN:广泛的减少精确网络| [ ICLR 2018 ]
增量网络量化:朝着低精度权重|的无损CNN | [ ICLR 2017 ]
Dorefa-net:训练低比特宽度梯度的低位卷积神经网络| [2016/06]
通过随机神经元估算或传播梯度以进行条件计算| [2013/08]
知识蒸馏
学徒:使用知识蒸馏技术来提高低精度网络的准确性| [ ICLR 2018 ]
通过蒸馏和量化进行模型压缩| [ ICLR 2018 ]
加速度:
使用没有研究生的学生调整超参数:可扩展且强大的贝叶斯优化使用蜻蜓| [2019/03]
有效的高维贝叶斯优化,具有添加性和正交傅立叶特征| [ Neurips 2018 ]
Google Vizier:用于黑盒优化的服务| [ SIGKDD 2017 ]
关于机器学习算法的超参数优化:理论和实践| [神经计算2020 ]
使用贝叶斯优化的云机器学习引擎中的超参数调整
贝叶斯优化概述
贝叶斯优化
NetScope CNN分析仪| [Caffe]
SKSQ96/Pytorch-Summary | [Pytorch]
lyken17/pytorch-opcounter | [Pytorch]
sovrasov/flops-counter.pytorch | [Pytorch]