Une liste des travaux automne de haute qualité (les plus récents) et des modèles légers, y compris 1.) Recherche d'architecture neuronale , 2.) Structures légères , 3.) Compression, quantification et accélération du modèle , 4.) Optimisation de l'hyperparamètre , 5.) Ingénierie de fonctionnalités automatisées .
Ce dépôt vise à fournir les informations pour la recherche en Automl (en particulier pour les modèles légers). Bienvenue à PR The Works (papiers, référentiels) qui sont manqués par le dépôt.
Pente:
Lorsque le NAS rencontre la robustesse: à la recherche d'architectures robustes contre les attaques contradictoires | [ CVPR 2020 ]
Recherche d'une architecture neuronale robuste en quatre heures GPU | [ CVPR 2019 ]
ASAP: Recherche d'architecture, recuit et tailler | [2019/04]
NAS à chemin unique: Concevoir des convaints économes en matériel en moins de 4 heures | [2019/04]
Architecture neuronale convolutionnelle automatique Recherche de classification d'images sous différentes scènes | [ IEEE Access 2019 ]
Sharpdarts: recherche d'architecture différenciable plus rapide et plus précise | [2019/03]
L'apprentissage des CNN implicitement récurrents via le partage des paramètres | [ ICLR 2019 ]
Recherche d'architecture neuronale probabiliste | [2019/02]
Auto-DeepLab: Recherche d'architecture neuronale hiérarchique pour la segmentation sémantique de l'image | [2019/01]
SNAS: recherche d'architecture neuronale stochastique | [ ICLR 2019 ]
FBNET: Conception ConvNET efficace - Awal-Aware Away via la recherche d'architecture neuronale différenciable | [2018/12]
Optimisation d'architecture neurale | [ NIPS 2018 ]
Darts: recherche d'architecture différenciable | [2018/06]
Apprentissage du renforcement:
Recherche automatique basée sur des modèles d'architectures de segmentation sémantique compacte | [2019/04]
Comprendre les techniques de recherche d'architecture neurale | [2019/03]
Super-résolution rapide, précise et légère avec recherche d'architecture neuronale | [2019/01]
Évolution renforcée multi-objectifs dans la recherche d'architecture neuronale mobile | [2019/01]
Proxylessnas: recherche d'architecture neuronale directe sur la tâche cible et le matériel | [ ICLR 2019 ]
Transfert d'apprentissage avec Neural Automl | [ NIPS 2018 ]
Apprentissage des architectures transférables pour la reconnaissance d'image évolutive | [2018/07]
MNASNET: Recherche d'architecture neuronale consciente de la plate-forme pour mobile | [2018/07]
Génération d'architecture de réseau neuronale pratique en bloc | [ CVPR 2018 ]
Recherche efficace d'architecture neuronale via le partage des paramètres | [ ICML 2018 ]
Recherche d'architecture efficace par transformation du réseau | [ AAAI 2018 ]
Algorithme évolutif:
Recherche d'architecture neuronale à un seul chemin avec échantillonnage uniforme | [2019/04]
Detnas: Recherche d'architecture neurale sur la détection d'objets | [2019/03]
Le transformateur évolué | [2019/01]
Concevoir des réseaux de neurones via la neuroévolution | [ Nature Machine Intelligence 2019 ]
Eat-Nas: transfert d'architecture élastique pour accélérer la recherche d'architecture neuronale à grande échelle | [2019/01]
Recherche d'architecture neuronale multi-objectifs efficace via Lamarckian Evolution | [ ICLR 2019 ]
Smbo:
MFAS: recherche d'architecture de fusion multimodale | [ CVPR 2019 ]
DPP-NET: Recherche progressive consciente de l'appareil pour les architectures neuronales Pareto-optimales | [ ECCV 2018 ]
Recherche d'architecture neuronale progressive | [ ECCV 2018 ]
Recherche aléatoire:
Exploration des réseaux de neurones câblés au hasard pour la reconnaissance d'image | [2019/04]
Recherche d'architectures multi-échelles efficaces pour une prédiction d'image dense | [ NIPS 2018 ]
Hypernet:
Optimisation bayésienne:
Élagage d'ordre partiel
Distillation des connaissances
Classification d'image:
EfficientNet: Repenser la mise à l'échelle du modèle pour les réseaux de neurones convolutionnels | [ ICML 2019 ]
Recherche de mobilenetv3 | [2019/05]
Segmentation sémantique:
CGNET: Un réseau guidé de contexte léger pour la segmentation sémantique | [2019/04]
ESPNETV2: Un réseau neuronal convolutionnel à usage léger, économe en puissance et à usage général | [2018/11]
ESPNET: Pyramide spatial efficace des convolutions dilatées pour la segmentation sémantique | [ ECCV 2018 ]
Bisenet: réseau de segmentation bilatérale pour la segmentation sémantique en temps réel | [ ECCV 2018 ]
ERFNET: ConvNet factoriel résiduel efficace pour la segmentation sémantique en temps réel | [ T-its 2017 ]
Détection d'objet:
Thundernet: Vers la détection d'objets génériques en temps réel | [2019/03]
Envocation du réseau pyramid pour la détection d'objets | [2018/09]
Tiny-dsod: Détection d'objets légers pour les usages restreints en ressources | [ BMVC 2018 ]
PELEE: Un système de détection d'objets en temps réel sur les appareils mobiles | [ NIRIPS 2018 ]
Net de bloc de champ réceptif pour une détection d'objets précises et rapide | [ ECCV 2018 ]
FSSD: Détecteur Multibox Fection Fusion Fusion Shot | [2017/12]
Caractéristiques des réseaux pyramidaux pour la détection d'objets | [ CVPR 2017 ]
Taille:
L'hypothèse de ticket de loterie: trouver des réseaux de neurones rares et entraînables | [ ICLR 2019 ]
Repenser la valeur de l'élagage du réseau | [ ICLR 2019 ]
Réseaux de neurones minces | [ ICLR 2019 ]
AMC: Automl pour la compression et l'accélération du modèle sur les appareils mobiles | [ ECCV 2018 ]
Apprendre des réseaux convolutionnels efficaces à travers le réseau minceur du réseau | [ ICCV 2017 ]
Élagage des canaux pour accélérer les réseaux de neurones très profonds | [ ICCV 2017 ]
Élagage des réseaux de neurones convolutionnels pour une inférence efficace des ressources | [ ICLR 2017 ]
Filtres d'élagage pour les convaintes efficaces | [ ICLR 2017 ]
Quantification:
Comprendre l'estimateur direct dans l'activation des filets neuronaux quantifiés | [ ICLR 2019 ]
Quantification et formation des réseaux de neurones pour une inférence efficace entière-arithmétique uniquement | [ CVPR 2018 ]
Quantifier les réseaux convolutionnels profonds pour une inférence efficace: un livre blanc | [2018/06]
PACT: Activation d'écrasement paramétré pour les réseaux de neurones quantifiés | [2018/05]
Quantification post-entraînement 4 bits des réseaux de convolution pour déploiement rapide | [ ICML 2018 ]
WRPN: Réseaux de précision réduits larges | [ ICLR 2018 ]
Quantification incrémentielle du réseau: vers des CNN sans perte avec des poids de faible précision | [ ICLR 2017 ]
Dorefa-Net: Formation de réseaux de neurones convolutionnels bitwidth faibles avec des gradients BitWidth faibles | [2016/06]
Estimation ou propagation des gradients à travers les neurones stochastiques pour le calcul conditionnel | [2013/08]
Distillation des connaissances
Apprenti: Utilisation des techniques de distillation des connaissances pour améliorer la précision du réseau à faible précision | [ ICLR 2018 ]
Compression du modèle par distillation et quantification | [ ICLR 2018 ]
Accélération:
Régler les hyperparamètres sans étudiants diplômés: optimisation bayésienne évolutive et robuste avec libellule | [2019/03]
Optimisation bayésienne efficace de haute dimension avec additivité et caractéristiques de Fourier en quadrature | [ NIRIPS 2018 ]
Google Vizir: un service d'optimisation de la boîte noire | [ SIGKDD 2017 ]
Sur l'optimisation hyperparamètre des algorithmes d'apprentissage automatique: théorie et pratique | [ Neurocomputing 2020 ]
Digne hyperparamètre dans le moteur d'apprentissage machine cloud utilisant l'optimisation bayésienne
Aperçu de l'optimisation bayésienne
Optimisation bayésienne
Analyseur NETSCOPE CNN | [Caffe]
SKSQ96 / Pytorch-Summary | [Pytorch]
Lyken17 / pytorch-opcounter | [Pytorch]
Sovrasov / Flops-Counter.pytorch | [Pytorch]