Документация | Установка | ? Модель зоопарка | ? Обновить новости | ? Проблемы отчетности

? MMPretrain-это недавно обновленная структура с открытым исходным кодом для визуального предварительного обучения. Он намеревался предоставить несколько мощных предварительно обученных магистралей и поддерживать различные стратегии предварительного обучения.
Mmpretrain 1.0 Branch находится в суде, добро пожаловать, чтобы попробовать это и обсудить с нами! ?
Английский | 简体中文











MM SelfSup-это самоотверженный инструмент обучения с открытым исходным кодом, основанный на Pytorch. Это часть проекта OpenMMLAB.
Главная ветвь работает с Pytorch 1,8 или выше.
Методы все в одном
MM Selfsup предоставляет современные методы в самоотверженном обучении. Для всестороннего сравнения во всех критериях большинство методов предварительного обучения находятся под одной и той же обстановкой.
Модульный дизайн
MMShesshsup следует за аналогичной архитектурой кодов OpenMMLAB с модульным дизайном, который является гибким и удобным для пользователей для создания своих собственных алгоритмов.
Стандартизированные тесты
MM SelfSup стандартизирует контрольные показатели, включая логистическую регрессию, SVM / Low-Shot SVM из линейно исследованных функций, полупрофильной классификации, обнаружения объектов и семантической сегментации.
Совместимость
Поскольку MM SelfSup использует аналогичную конструкцию модульных и интерфейсов, как и в других проектах OpenMMLAB, он поддерживает плавную оценку по нисходящим задачам с другими проектами OpenMMLAB, такими как обнаружение объектов и сегментация.
Mmselfsup v1.0.0 был выпущен на основе main филиала. Пожалуйста, обратитесь к руководству по миграции для получения более подробной информации.
Mmselfsup v1.0.0 был выпущен в 06.06.2023.
PixMIM .DINO в projects/dino/ .Mmselfsup v1.0.0rc6 был выпущен в 10/02/2023.
MaskFeat с помощью видеобатта в projects/maskfeat_video/Mmselfsup v1.0.0rc5 был выпущен в 30/12/2022.
BEiT v2 , MixMIM , EVA .ShapeBias для анализа моделейПожалуйста, обратитесь к Changelog для получения подробной информации и истории выпуска.
Различия между mmselfsup 1.x и 0.x можно найти при миграции.
MM SelfSup зависит от Pytorch, MMCV, Mmengine и MMClassification.
Пожалуйста, обратитесь к установке для более подробной инструкции.
Для учебных пособий мы предоставляем руководства для пользователей для базового использования:
Предварительный
Down -Etream Задачи
Полезные инструменты
Также предоставляются усовершенствованные руководства и учебники Colab.
Пожалуйста, обратитесь к FAQ для часто задаваемых вопросов.
Пожалуйста, обратитесь к модели Zoo.md для полного набора предварительно обученных моделей и критериев.
Поддерживаемые алгоритмы:
В нашем плане есть больше алгоритмов.
| Тесты | Параметр |
|---|---|
| ImageNet Linear Classification (мульти-головка) | Goyal2019 |
| ImageNet Линейная классификация (последняя) | |
| ImageNet Полу-ступенчатая классификация | |
| Places205 Линейная классификация (мульти-головка) | Goyal2019 |
| INATURALIST2018 Линейная классификация (мульти-головка) | Goyal2019 |
| Pascal VOC07 SVM | Goyal2019 |
| Pascal VOC07 Low-Shot SVM | Goyal2019 |
| Pascal VOC07+12 обнаружение объекта | Моко |
| Обнаружение объекта COCO17 | Моко |
| Сегментация CityScapes | Ммсег |
| Паскаль VOC12 сегментация августа | Ммсег |
Мы ценим все вклады, улучшающие mmselfsup. Пожалуйста, обратитесь к гидам взносов для получения более подробной информации о внесении руководства.
MMShesshsup - это проект с открытым исходным кодом, который способствует исследователям и инженерам из различных колледжей и компаний. Мы ценим всех участников, которые реализуют свои методы или добавляют новые функции, а также пользователей, которые дают ценные отзывы. Мы желаем, чтобы инструментальный ящик и эталон могли служить растущему исследовательскому сообществу, предоставив гибкий инструментарий для повторного введения существующих методов и разработки собственных новых алгоритмов.
MM Selfsup происходит от OpenSelfsup, и мы ценим все ранние вклады, внесенные в Openselfsup. Несколько участников перечислены здесь: Xiaohang Zhan (@xiaohangzhan), Jiaho xie (@jiahao000), Enze Xie (@xieenze), Xiangxiang Chu (@cxxgtxy), Zijian He (@scnuealthy).
Если вы используете этот набор инструментов или эталон в своем исследовании, пожалуйста, укажите этот проект.
@misc { mmselfsup2021 ,
title = { {MMSelfSup}: OpenMMLab Self-Supervised Learning Toolbox and Benchmark } ,
author = { MMSelfSup Contributors } ,
howpublished = { url{https://github.com/open-mmlab/mmselfsup} } ,
year = { 2021 }
}Этот проект выпущен по лицензии Apache 2.0.