Documentação | Instalação | ? Model zoo | ? Atualizar notícias | ? Problemas de relatório

? O MMPretrain é uma estrutura de código aberto recém-atualizado para o pré-treinamento visual. Ele se propôs a fornecer vários backbones pré-treinados poderosos e suportar diferentes estratégias de pré-treinamento.
A filial do MMPRETRAIN 1.0 está em julgamento, seja bem -vindo a todos para tentar e discutir conosco! ?
Inglês | 简体中文











MMSelfSup é uma caixa de ferramentas de aprendizagem de representação auto-supervisionada de código aberto baseado em Pytorch. Faz parte do projeto OpenMmlab.
A filial principal trabalha com Pytorch 1.8 ou superior.
Métodos todos em um
O MMelfSup fornece métodos de última geração na aprendizagem auto-supervisionada. Para uma comparação abrangente em todos os benchmarks, a maioria dos métodos de pré-treinamento está na mesma configuração.
Design modular
O MMSelfSup segue uma arquitetura de código semelhante de projetos OpenMmlab com design modular, que é flexível e conveniente para os usuários criarem seus próprios algoritmos.
Benchmarks padronizados
O MMSelfSup padroniza os benchmarks, incluindo regressão logística, SVM / SVM de baixo tiro a partir de recursos linearmente sondados, classificação semi-supervisionada, detecção de objetos e segmentação semântica.
Compatibilidade
Como o MMSelfSup adota um design semelhante de modulares e interfaces como os de outros projetos OpenMmlab, ele suporta uma avaliação suave em tarefas a jusante com outros projetos OpenMMLab, como detecção e segmentação de objetos.
MMSelfSup v1.0.0 foi lançado com base no ramo main . Consulte o Guia de Migração para obter mais detalhes.
MMSelfSup v1.0.0 foi lançado em 04/04/2023.
PixMIM .DINO em projects/dino/ .MMSelfSup v1.0.0RC6 foi lançado em 10/02/2023.
MaskFeat com o DataSet de vídeo em projects/maskfeat_video/MMSelfSup v1.0.0RC5 foi lançado em 30/12/2022.
BEiT v2 , MixMIM , EVA .ShapeBias para Análise de ModeloConsulte o Changelog para obter detalhes e histórico de lançamento.
As diferenças entre MMelfSup 1.x e 0.x podem ser encontradas na migração.
MMSelfSup depende de Pytorch, MMCV, Mmengine e Mmclassification.
Consulte a instalação para obter uma instrução mais detalhada.
Para tutoriais, fornecemos guias de usuário para uso básico:
Pré
Defense as tarefas
Ferramentas úteis
Guias avançados e tutoriais do COLAB também são fornecidos.
Consulte as perguntas frequentes para perguntas frequentes.
Consulte o Model Zoo.md para um conjunto abrangente de modelos e benchmarks pré-treinados.
Algoritmos suportados:
Mais algoritmos estão em nosso plano.
| Benchmarks | Contexto |
|---|---|
| Classificação linear ImageNet (Multi-Head) | Goyal2019 |
| Classificação linear ImageNet (último) | |
| CLASSIFICAÇÃO SEMI-SUP IGAGENET | |
| Classificação linear POTES205 (Multi-Head) | Goyal2019 |
| Classificação linear inaturalist2018 (multi-cabeça) | Goyal2019 |
| Pascal voc07 svm | Goyal2019 |
| Pascal VOC07 SVM de baixo tiro | Goyal2019 |
| Pascal VOC07+12 Detecção de objeto | MOCO |
| Coco17 Detecção de objetos | MOCO |
| Segmentação da Cityscapes | Mmseg |
| Segmentação Pascal Voc12 Aug | Mmseg |
Agradecemos todas as contribuições que melhoram o MMelfSup. Consulte os guias de contribuição para obter mais detalhes sobre a diretriz contribuinte.
O MMelfSup é um projeto de código aberto que é contribuído por pesquisadores e engenheiros de várias faculdades e empresas. Agradecemos todos os colaboradores que implementam seus métodos ou adicionam novos recursos, bem como usuários que fornecem feedbacks valiosos. Desejamos que a caixa de ferramentas e a referência possam servir à crescente comunidade de pesquisa, fornecendo um kit de ferramentas flexível para reimplementar os métodos existentes e desenvolver seus novos algoritmos.
MMelfSup se origina do OpenSelfSup, e agradecemos todas as contribuições iniciais feitas para o OpenSelfSup. Alguns colaboradores estão listados aqui: Xiaohang Zhan (@xiaohangzhan), jiahao xie (@jiahao000), enze xie (@xieenze), xiangxiang chu (@cxxgtxy), zijian He (@ScnuHealthy).
Se você usar esta caixa de ferramentas ou referência em sua pesquisa, cite este projeto.
@misc { mmselfsup2021 ,
title = { {MMSelfSup}: OpenMMLab Self-Supervised Learning Toolbox and Benchmark } ,
author = { MMSelfSup Contributors } ,
howpublished = { url{https://github.com/open-mmlab/mmselfsup} } ,
year = { 2021 }
}Este projeto é lançado sob a licença Apache 2.0.