Список высококачественных (новейших) автоматических работ и легких моделей, включая 1.) Поиск нейронной архитектуры , 2.) Легкие структуры , 3.) Сжатие модели, квантование и ускорение , 4.) Оптимизация гиперпараметрических , 5.) Автоматическая разработка .
Это репо направлена на предоставление информации для исследований Automl (особенно для легких моделей). Добро пожаловать в PR работы (документы, репозитории), которые пропускают репо.
Градиент:
Когда NAS встречает надежность: в поисках надежных архитектур против состязательных атак | [ CVPR 2020 ]
Поиск надежной нейронной архитектуры в четыре часа графического процессора | [ CVPR 2019 ]
Как можно скорее: Поиск архитектуры, отжиг и черновик | [2019/04]
NAS с одним путем: проектирование аппаратных конфнетов менее чем за 4 часа | [2019/04]
Автоматический сверток Нейронный архитектура Поиск классификации изображений в разных сценах | [ IEEE Access 2019 ]
SharpDarts: быстрее и более точный дифференцируемый поиск архитектуры | [2019/03]
Обучение неявно повторяющееся CNN с помощью обмена параметрами | [ ICLR 2019 ]
Вероятностный поиск нейронной архитектуры | [2019/02]
Auto-Deeplab: иерархическая нейронная архитектура Поиск сегментации семантического изображения | [2019/01]
SNAS: Стохастический поиск нейронной архитектуры | [ ICLR 2019 ]
FBNet: Эффективный дизайн конверта с аппаратным обеспечением с помощью дифференцируемого поиска нейронной архитектуры | [2018/12]
Оптимизация нейронной архитектуры | [ NIPS 2018 ]
Дартс: дифференцируемый поиск архитектуры | [2018/06]
Подкрепление обучения:
Шаблонный автоматический поиск архитектуры компактной семантической сегментации | [2019/04]
Понимание методов поиска нейронной архитектуры | [2019/03]
Быстрый, точный и легкий супер-разрешение с поиском нейронной архитектуры | [2019/01]
Многоцелевая усиленная эволюция в поиске мобильной нейронной архитектуры | [2019/01]
Proxylessnas: прямой поиск нейронной архитектуры по целевой задаче и оборудованию | [ ICLR 2019 ]
Трансферный обучение с нейронным автоматом | [ NIPS 2018 ]
Передаваемые архитектуры обучения для масштабируемого распознавания изображений | [2018/07]
MNASNET: Поиск нейронной архитектуры платформы для мобильных устройств | [2018/07]
Практическая блок-схема генерации архитектуры нейронной сети | [ CVPR 2018 ]
Эффективный поиск нейронной архитектуры с помощью обмена параметрами | [ ICML 2018 ]
Эффективный поиск архитектуры с помощью сетевого преобразования | [ AAAI 2018 ]
Эволюционный алгоритм:
Одиночный поиск нервного архитектуры с одним путем с равномерной выборкой | [2019/04]
Detnas: Поиск нейронной архитектуры по обнаружению объектов | [2019/03]
Развитый трансформатор | [2019/01]
Проектирование нейронных сетей через нейроэволюцию | [ Nature Machine Intelligence 2019 ]
EAT-NAS: упругая архитектура передача для ускорения крупномасштабного поиска нейронной архитектуры | [2019/01]
Эффективный многообъясняющий поиск нейронной архитектуры через Lamarckian Evolution | [ ICLR 2019 ]
SMBO:
MFA: мультимодальный поиск архитектуры фьюжн | [ CVPR 2019 ]
DPP-NET: Прогрессивный поиск устройства для прогрессивного поиска в парето-оптимальной нейронной архитектуре | [ ECCV 2018 ]
Прогрессивный поиск нейронной архитектуры | [ ECCV 2018 ]
Случайный поиск:
Изучение случайно проводных нейронных сетей для распознавания изображений | [2019/04]
Поиск эффективных многомасштабных архитектур для плотного прогнозирования изображений | [ NIPS 2018 ]
Гипернета:
Байесовская оптимизация:
Частичный заказ обрезка
Знания дистилляция
Классификация изображений:
Эффективная сеть: переосмысление масштабирования модели для сверточных нейронных сетей | [ ICML 2019 ]
Поиск MobilEnetV3 | [2019/05]
Семантическая сегментация:
CGNET: легкий контекст, управляемая сетью для семантической сегментации | [2019/04]
ESPNetV2: легкая, энергоэффективная и общеобразовательная сверточная нейронная сеть | [2018/11]
ESPNET: Эффективная пространственная пирамида расширенных свертков для семантической сегментации | [ ECCV 2018 ]
Бисенет: двусторонняя сегментационная сеть для семантической сегментации в реальном времени | [ ECCV 2018 ]
ERFNet: Эффективная остаточная факторная конвнета для семантической сегментации в реальном времени | [ T-IT 2017 ]
Обнаружение объекта:
Thundernet: к обнаружению общего объекта в реальном времени | [2019/03]
Объединение пирамидной сети для обнаружения объектов | [2018/09]
Tiny-DSOD: Обнаружение легкого объекта для ограниченных ресурсов использования | [ BMVC 2018 ]
Пели: система обнаружения объектов в реальном времени на мобильных устройствах | [ Neurips 2018 ]
Восприимтивное полевое блочное сеть для точного и быстрого обнаружения объектов | [ ECCV 2018 ]
FSSD: функция Fusion Single Shot Multibox Detector | [2017/12]
Особенность пирамидных сетей для обнаружения объектов | [ CVPR 2017 ]
Обрезка:
Гипотеза лотерейного билета: поиск редких, обучаемых нейронных сетей | [ ICLR 2019 ]
Переосмысление значения сетевой обрезки | [ ICLR 2019 ]
Тень нейронные сети | [ ICLR 2019 ]
AMC: Automl для сжатия и ускорения модели на мобильных устройствах | [ ECCV 2018 ]
Эффективные сверточные сети с помощью сетевого похудения | [ ICCV 2017 ]
Обрезка канала для ускорения очень глубоких нейронных сетей | [ ICCV 2017 ]
Обрезка сверточных нейронных сетей для эффективного вывода ресурсов | [ ICLR 2017 ]
Обрезка фильтров для эффективных конфнетов | [ ICLR 2017 ]
Квантование:
Понимание прямой оценки в тренировочной активации квантованные нейронные сети | [ ICLR 2019 ]
Квантование и обучение нейронных сетей для эффективного целочисленного арифметического вывода | [ CVPR 2018 ]
Квантование глубоких сверточных сетей для эффективного вывода: Белый документ | [2018/06]
PACT: Активизированная активация обрезки для квантованных нейронных сетей | [2018/05]
4-битная квантование сетей сверток для быстрого развертывания | [ ICML 2018 ]
WRPN: широкие сети с уменьшенной режиссером | [ ICLR 2018 ]
Квантование сети: к CNN без потерь с весами с низким разрешением | [ ICLR 2017 ]
Dorefa-Net: Обучение с низкой прохождением с низкой битопроводом с нейронными сетями с низкими градиентами Bitwidth | [2016/06]
Оценка или распространение градиентов с помощью стохастических нейронов для условных вычислений | [2013/08]
Знания дистилляция
Ученик: Использование методов дистилляции знаний для повышения точности сети с низким уровнем определения | [ ICLR 2018 ]
Сжатие модели посредством дистилляции и квантования | [ ICLR 2018 ]
Ускорение:
Настройка гиперпараметров без студентов -выпускников: масштабируемая и надежная байесовская оптимизация с помощью Dragonfly | [2019/03]
Эффективная высокомерная байесовская оптимизация с аддитивностью и квадратурными функциями Фурье | [ Neurips 2018 ]
Google Vizier: служба для оптимизации черного ящика | [ Sigkdd 2017 ]
О оптимизации гиперпараметрических алгоритмов машинного обучения: теория и практика | [ Нейрокомпьютинг 2020 ]
Настройка гиперпараметра в двигателе облачного машинного обучения с использованием байесовской оптимизации
Обзор байесовской оптимизации
Байесовская оптимизация
Netscope CNN Analyzer | [Caffe]
SKSQ96/Pytorch-Summary | [Pytorch]
Lyken17/pytorch-opcounter | [Pytorch]
Sovrasov/Flops-counter.pytorch | [Pytorch]