Uma lista de obras automáticas de alta qualidade (mais recentes) e modelos leves, incluindo 1.) Pesquisa de arquitetura neural , 2.) Estruturas leves , 3.) Modelo Compressão, quantização e aceleração , 4.) Otimização de hiperparameter , 5.) Engenharia de recursos automatizados .
Este repositório tem como objetivo fornecer as informações para a pesquisa automática (especialmente para os modelos leves). Bem -vindo ao PR os trabalhos (artigos, repositórios) que são perdidos pelo repositório.
Gradiente:
Quando o NAS encontra a robustez: em busca de arquiteturas robustas contra ataques adversários | [ CVPR 2020 ]
Procurando uma arquitetura neural robusta em quatro horas da GPU | [ CVPR 2019 ]
O mais rápido possível: pesquisa de arquitetura, recozimento e poda | [2019/04]
NAS de caminho único: projetando convicências com eficiência de hardware em menos de 4 horas | [2019/04]
Pesquisa automática de arquitetura neural convolucional para classificação de imagens em diferentes cenas | [ IEEE Access 2019 ]
SharpDarts: Pesquisa de arquitetura diferenciável mais rápida e precisa | [2019/03]
Aprendendo implicitamente CNNs recorrentes através do compartilhamento de parâmetros | [ ICLR 2019 ]
Pesquisa probabilística da arquitetura neural | [2019/02]
Auto-depplab: Pesquisa de arquitetura neural hierárquica por segmentação de imagem semântica | [2019/01]
SNAS: Pesquisa de arquitetura neural estocástica | [ ICLR 2019 ]
FBNET: Design de ConvNet eficiente e eficiente de hardware por meio de pesquisa de arquitetura neural diferenciável | [2018/12]
Otimização da arquitetura neural | [ NIPS 2018 ]
Darts: Pesquisa de arquitetura diferenciável | [2018/06]
Aprendizagem de reforço:
Pesquisa automática baseada em modelos de arquiteturas de segmentação semântica compacta | [2019/04]
Entendendo as técnicas de pesquisa de arquitetura neural | [2019/03]
Super-resolução rápida, precisa e leve com pesquisa de arquitetura neural | [2019/01]
Evolução reforçada multi-objetiva na pesquisa de arquitetura neural móvel | [2019/01]
Proxylessnas: Pesquisa direta de arquitetura neural na tarefa e hardware de destino | [ ICLR 2019 ]
Transfira o aprendizado com o Neural Automl | [ NIPS 2018 ]
Aprendendo arquiteturas transferíveis para reconhecimento de imagem escalável | [2018/07]
MNASNET: Pesquisa de arquitetura neural com reconhecimento de plataforma para celular | [2018/07]
Geração prática de arquitetura de rede neural em bloco | [ CVPR 2018 ]
Pesquisa de arquitetura neural eficiente via compartilhamento de parâmetros | [ ICML 2018 ]
Pesquisa de arquitetura eficiente por transformação de rede | [ AAAI 2018 ]
Algoritmo evolutivo:
Caminho único One-Shot Neural Architecture Pesquisa com amostragem uniforme | [2019/04]
Detnas: pesquisa de arquitetura neural na detecção de objetos | [2019/03]
O transformador evoluído | [2019/01]
Projetando redes neurais através da neuroevolução | [ Nature Machine Intelligence 2019 ]
Eat-NAS: Transferência de arquitetura elástica para acelerar a pesquisa de arquitetura neural em larga escala | [2019/01]
Pesquisa eficiente de arquitetura neural multi-objetiva via Lamarckian Evolution | [ ICLR 2019 ]
SMBO:
MFAs: Pesquisa multimodal de arquitetura de fusão | [ CVPR 2019 ]
DPP-NET: Pesquisa progressiva com reconhecimento de dispositivo por arquiteturas neurais ideais de pareto | [ ECCV 2018 ]
Pesquisa progressiva da arquitetura neural | [ ECCV 2018 ]
Pesquisa aleatória:
Explorando redes neurais com fio aleatoriamente para reconhecimento de imagem | [2019/04]
Procurando arquiteturas eficientes em várias escalas para previsão densas de imagem | [ NIPS 2018 ]
HyperNetwork:
Otimização bayesiana:
Poda de ordem parcial
Destilação do conhecimento
Classificação da imagem:
EFABIFITYNET: Repensando o escala do modelo para redes neurais convolucionais | [ ICML 2019 ]
Procurando MobileNetv3 | [2019/05]
Segmentação semântica:
CGNET: Uma rede guiada de contexto leve para segmentação semântica | [2019/04]
ESPNETV2: Uma rede neural convolucional de uso leve, eficiente e de uso geral | [2018/11]
ESPNET: pirâmide espacial eficiente de convoluções dilatadas para segmentação semântica | [ ECCV 2018 ]
Bisenet: Rede de segmentação bilateral para segmentação semântica em tempo real | [ ECCV 2018 ]
ERFNET: ConvNet residual eficiente fatorizado para segmentação semântica em tempo real | [ T-ITS 2017 ]
Detecção de objetos:
Thundernet: Rumo à detecção de objetos genéricos em tempo real | [2019/03]
Rede de pirâmide de agrupamento para detecção de objetos | [2018/09]
Tiny-DSOD: Detecção de objetos leves para usos restritos a recursos | [ BMVC 2018 ]
PELEE: Um sistema de detecção de objetos em tempo real em dispositivos móveis | [ Neurips 2018 ]
Rede de bloco de campo receptivo para detecção de objetos precisa e rápida | [ ECCV 2018 ]
FSSD: Detector Multibox de Fusion Fusion Fusion | [2017/12]
Recursos redes de pirâmide para detecção de objetos | [ CVPR 2017 ]
Poda:
A hipótese do ingresso da loteria: encontrando redes neurais escassas e treináveis | [ ICLR 2019 ]
Repensando o valor da poda de rede | [ ICLR 2019 ]
Redes neurais esbeltas | [ ICLR 2019 ]
AMC: Automl para compactação e aceleração do modelo em dispositivos móveis | [ ECCV 2018 ]
Aprendendo redes convolucionais eficientes através do Slimming da rede | [ ICCV 2017 ]
A poda de canal para acelerar redes neurais muito profundas | [ ICCV 2017 ]
A poda as redes neurais convolucionais para inferência eficiente de recursos | [ ICLR 2017 ]
Filtros de poda para convicências eficientes | [ ICLR 2017 ]
Quantização:
Compreendendo o estimador reto na ativação do treinamento quantizou redes neurais | [ ICLR 2019 ]
Quantização e treinamento de redes neurais para inferência eficiente-aritmética-somente inferência | [ CVPR 2018 ]
Quantizando redes convolucionais profundas para inferência eficiente: um whitepaper | [2018/06]
Pacto: ativação parametrizada de recorte para redes neurais quantizadas | [2018/05]
Quantização pós-treinamento de 4 bits de redes de convolução para implantação rápida | [ ICML 2018 ]
WRPN: Redes de precisão reduzida ampla | [ ICLR 2018 ]
Quantização incremental da rede: em direção a CNNs sem perdas com pesos de baixa precisão | [ ICLR 2017 ]
Dorefa-Net: Treinando redes neurais convolucionais com baixa largura de bits com gradientes de baixa largura de bits | [2016/06]
Estimativa ou propagação de gradientes através de neurônios estocásticos para computação condicional | [2013/08]
Destilação do conhecimento
Aprendiz: Usando técnicas de destilação de conhecimento para melhorar a precisão da rede de baixa precisão | [ ICLR 2018 ]
Modelo de compactação por destilação e quantização | [ ICLR 2018 ]
Aceleração:
Tuning Hyperparameters sem estudantes de pós -graduação: otimização bayesiana escalável e robusta com libélula | [2019/03]
Otimização bayesiana de alta dimensão eficiente com aditividade e recursos de Fourier quadratura | [ Neurips 2018 ]
Google Vizier: um serviço para otimização de caixa preta | [ Sigkdd 2017 ]
Sobre otimização de hiperparâmetro de algoritmos de aprendizado de máquina: teoria e prática | [ Neurocomputing 2020 ]
Ajuste hiperparâmetro no mecanismo de aprendizado de máquina em nuvem usando otimização bayesiana
Visão geral da otimização bayesiana
Otimização bayesiana
Analisador Netscope CNN | [Caffe]
sksq96/pytorch-summary | [Pytorch]
Lyken17/pytorch-opcounter | [Pytorch]
sovrasov/flops-counter.pytorch | [Pytorch]