Una lista de trabajos AutomL de alta calidad (más nuevos) y modelos livianos, incluidos 1.) Búsqueda de arquitectura neuronal , 2.) Estructuras livianas , 3.) Compresión del modelo, cuantización y aceleración , 4.) Optimización de hiperparameter , 5.) Ingeniería de características automatizadas .
Este repositorio tiene como objetivo proporcionar la información para la investigación automática (especialmente para los modelos livianos). Bienvenido a PR The Works (documentos, repositorios) que el repositorio extraña.
Gradiente:
Cuando NAS se encuentra con la robustez: en busca de arquitecturas robustas contra ataques adversos | [ CVPR 2020 ]
Buscando una arquitectura neuronal robusta en cuatro horas de GPU | [ CVPR 2019 ]
ASAP: Búsqueda de arquitectura, recocido y poda | [2019/04]
NAS de una sola vía: Diseño de convnetos eficientes en hardware en menos de 4 horas | [2019/04]
Arquitectura neuronal convolucional automática Búsqueda de la clasificación de imágenes en diferentes escenas | [ IEEE Access 2019 ]
Sharpdarts: búsqueda de arquitectura diferenciable más rápida y precisa diferenciable | [2019/03]
Aprendizaje de CNN recurrente implícitamente a través del intercambio de parámetros | [ ICLR 2019 ]
Búsqueda de arquitectura neuronal probabilística | [2019/02]
Auto-profundidad: arquitectura neural jerárquica Búsqueda de segmentación de imágenes semánticas | [2019/01]
SNAS: Búsqueda de arquitectura neuronal estocástica | [ ICLR 2019 ]
FBNET: diseño eficiente de Convnet eficiente a través de la búsqueda de arquitectura neuronal diferenciable | [2018/12]
Optimización de la arquitectura neural | [ NIPS 2018 ]
Darts: búsqueda de arquitectura diferenciable | [2018/06]
Aprendizaje de refuerzo:
Búsqueda automática basada en plantillas de arquitecturas de segmentación semántica compacta | [2019/04]
Comprensión de las técnicas de búsqueda de arquitectura neural | [2019/03]
Superresolución rápida, precisa y liviana con búsqueda de arquitectura neural | [2019/01]
Evolución reforzada con múltiples objetivos en la búsqueda de arquitectura neuronal móvil | [2019/01]
Proxylessnas: búsqueda directa de arquitectura neuronal sobre tareas y hardware objetivo | [ ICLR 2019 ]
Transferir el aprendizaje con NEURAL AUTOML | [ NIPS 2018 ]
Aprendizaje de arquitecturas transferibles para reconocimiento de imágenes escalables | [2018/07]
MNASNET: Búsqueda de arquitectura neural consciente de la plataforma para dispositivos móviles | [2018/07]
Generación de arquitectura de red neuronal práctica en bloque | [ CVPR 2018 ]
Búsqueda eficiente de arquitectura neuronal a través de parámetros compartiendo | [ ICML 2018 ]
Búsqueda de arquitectura eficiente por transformación de red | [ AAAI 2018 ]
Algoritmo evolutivo:
Búsqueda de arquitectura neuronal única de ruta única con muestreo uniforme | [2019/04]
Detnas: búsqueda de arquitectura neural en detección de objetos | [2019/03]
El transformador evolucionado | [2019/01]
Diseño de redes neuronales a través de la neuroevolución | [ Nature Machine Intelligence 2019 ]
EAT-NAS: transferencia de arquitectura elástica para acelerar la búsqueda de arquitectura neuronal a gran escala | [2019/01]
Búsqueda eficiente de arquitectura neuronal multiobjetable a través de la evolución de Lamarckian | [ ICLR 2019 ]
SMBO:
MFAS: búsqueda de arquitectura de fusión multimodal | [ CVPR 2019 ]
DPP-NET: búsqueda progresiva consciente del dispositivo de arquitecturas neuronales óptimas de Pareto | [ ECCV 2018 ]
Búsqueda de arquitectura neuronal progresiva | [ ECCV 2018 ]
Búsqueda aleatoria:
Explorando redes neuronales con cable al azar para el reconocimiento de imágenes | [2019/04]
Buscando arquitecturas multiescala eficientes para una densa predicción de imágenes | [ NIPS 2018 ]
Hypernetwork:
Optimización bayesiana:
Poda de orden parcial
Destilación de conocimiento
Clasificación de imagen:
EficeTetnet: Repensar la escala del modelo para redes neuronales convolucionales | [ ICML 2019 ]
Buscando MobileNetv3 | [2019/05]
Segmentación semántica:
CGNET: una red guiada con contexto de peso ligero para la segmentación semántica | [2019/04]
ESPNETV2: una red neuronal convolucional de peso ligero, eficiente y de propósito general | [2018/11]
ESPNet: pirámide espacial eficiente de convoluciones dilatadas para la segmentación semántica | [ ECCV 2018 ]
Bisenet: red de segmentación bilateral para segmentación semántica en tiempo real | [ ECCV 2018 ]
ERFNET: Convnet factorizado residual eficiente para la segmentación semántica en tiempo real | [ T-its 2017 ]
Detección de objetos:
ThunderNet: Hacia la detección de objetos genéricos en tiempo real | [2019/03]
Agrupación de la red piramidal para la detección de objetos | [2018/09]
Tiny-DSOD: detección de objetos livianos para usos restringidos por recursos | [ BMVC 2018 ]
Pelee: un sistema de detección de objetos en tiempo real en dispositivos móviles | [ Neurips 2018 ]
Red de bloque de campo receptivo para detección de objetos preciso y rápido | [ ECCV 2018 ]
FSSD: Detector multibox de Fusion Fusion Single Shot | [2017/12]
Características Redes piramidales para la detección de objetos | [ CVPR 2017 ]
Poda:
La hipótesis de la boleta de lotería: encontrar redes neuronales dispersas y entrenables | [ ICLR 2019 ]
Repensar el valor de la poda de red | [ ICLR 2019 ]
Redes neuronales delgadas | [ ICLR 2019 ]
AMC: Automl para compresión y aceleración del modelo en dispositivos móviles | [ ECCV 2018 ]
Aprender redes convolucionales eficientes a través de la adelgazamiento de la red | [ ICCV 2017 ]
Poda de canales para acelerar redes neuronales muy profundas | [ ICCV 2017 ]
Poda redes neuronales convolucionales para inferencia eficiente de recursos | [ ICLR 2017 ]
Filtros de poda para convnets eficientes | [ ICLR 2017 ]
Cuantización:
Comprensión del estimador directo en la activación de entrenamiento redes neuronales cuantificadas | [ ICLR 2019 ]
Cuantización y capacitación de redes neuronales para una inferencia eficiente entera-aritmética exclusiva | [ CVPR 2018 ]
Cuantización de redes convolucionales profundas para una inferencia eficiente: un documento técnico | [2018/06]
PACT: activación de recorte parametrizado para redes neuronales cuantificadas | [2018/05]
Cuantización posterior al entrenamiento de 4 bits de redes de convolución para el despliegue rápido | [ ICML 2018 ]
WRPN: redes de precisión de amplio reducido | [ ICLR 2018 ]
Cuantización de red incremental: hacia CNN sin pérdidas con pesos de baja precisión | [ ICLR 2017 ]
DOREFA-NET: Entrenamiento de redes neuronales convolucionales de bajo ancho de bits con gradientes de bajo ancho de bits | [2016/06]
Estimación o propagación de gradientes a través de neuronas estocásticas para el cálculo condicional | [2013/08]
Destilación de conocimiento
Aprendiz: Uso de técnicas de destilación de conocimiento para mejorar la precisión de la red de baja precisión | [ ICLR 2018 ]
Compresión modelo a través de la destilación y cuantificación | [ ICLR 2018 ]
Aceleración:
Tuning Hyperparameters sin estudiantes de posgrado: optimización bayesiana escalable y robusta con libélula | [2019/03]
Optimización bayesiana de alta dimensión eficiente con aditividad y cuadratura de características de Fourier | [ Neurips 2018 ]
Google Vizier: un servicio para la optimización de la caja negra | [ Sigkdd 2017 ]
Sobre la optimización de hiperparameter de algoritmos de aprendizaje automático: teoría y práctica | [ Neurocomputación 2020 ]
Ajuste de hiperparámetro en el motor de aprendizaje automático en la nube utilizando la optimización bayesiana
Descripción general de la optimización bayesiana
Optimización bayesiana
Analizador Netscope CNN | [Cafe]
SKSQ96/Pytorch-Summary | [Pytorch]
Lyken17/pytorch-opcounter | [Pytorch]
Sovrasov/flops-counter.pytorch | [Pytorch]