Documentación | Instalación | ? Zoológico modelo | ? ACTUALIZACIÓN Noticias | ? Problemas de informes

? MMPretrain es un marco de código abierto recientemente actualizado para la pre-entrenamiento visual. Se ha dispuesto a proporcionar múltiples columnas de capacitación previas y respaldar diferentes estrategias de pre-entrenamiento.
¡La sucursal de MMPretrain 1.0 está en juicio, bienvenido cada uno para probarlo y discutir con nosotros! ?
Inglés | 简体中文











MMSelfSup es una caja de herramientas de aprendizaje de representación auto-supervisada de código abierto basada en Pytorch. Es parte del proyecto OpenMMLab.
La rama maestra trabaja con Pytorch 1.8 o superior.
Métodos todo en uno
MMSelfSup proporciona métodos de vanguardia en el aprendizaje auto-supervisado. Para una comparación integral en todos los puntos de referencia, la mayoría de los métodos previos a la capacitación están en la misma configuración.
Diseño modular
MMSelfSup sigue una arquitectura de código similar de proyectos OpenMMLab con diseño modular, que es flexible y conveniente para que los usuarios construyan sus propios algoritmos.
Puntos de referencia estandarizados
MMSelfSup estandariza los puntos de referencia que incluyen regresión logística, SVM / SVM de bajo disparo de características linealmente sondeadas, clasificación semi-supervisada, detección de objetos y segmentación semántica.
Compatibilidad
Dado que MMSelfsup adopta un diseño similar de modulares e interfaces como las de otros proyectos OpenMMLab, admite una evaluación sin problemas en tareas aguas abajo con otros proyectos OpenMMLab como la detección de objetos y la segmentación.
MMSelfsup V1.0.0 se lanzó en base a la rama main . Consulte la Guía de migración para obtener más detalles.
MMSelfSUP V1.0.0 se lanzó en el 06/06/2023.
PixMIM .DINO en projects/dino/ .MMSelfSUP V1.0.0RC6 se lanzó en el 10/02/2023.
MaskFeat con un conjunto de datos de video en projects/maskfeat_video/MMSelfSUP V1.0.0RC5 se lanzó en el 30/12/2022.
BEiT v2 , MixMIM , EVA .ShapeBias para el análisis del modeloConsulte ChangeLog para obtener detalles e historial de lanzamiento.
Se pueden encontrar diferencias entre MMSelfsup 1.x y 0.x en la migración.
MMSelfSup depende de Pytorch, MMCV, MMEngine y MMClassification.
Consulte la instalación para obtener una instrucción más detallada.
Para los tutoriales, proporcionamos guías de usuario para el uso básico:
Predicha
Tareas de Downetrream
Herramientas útiles
También se proporcionan guías avanzadas y tutoriales de Colab.
Consulte las preguntas frecuentes para ver las preguntas frecuentes.
Consulte Model Zoo.md para obtener un conjunto integral de modelos y puntos de referencia previamente capacitados.
Algoritmos compatibles:
Más algoritmos están en nuestro plan.
| Puntos de referencia | Configuración |
|---|---|
| Clasificación lineal de ImageNet (múltiple cabeza) | Goyal2019 |
| Clasificación lineal de Imagenet (último) | |
| Clasificación semi-súbica de Imagenet | |
| Clasificación lineal de lugares205 (múltiples cabezas) | Goyal2019 |
| Inaturalist2018 Clasificación lineal (múltiple cabeza) | Goyal2019 |
| Pascal VOC07 SVM | Goyal2019 |
| Pascal VOC07 SVM de bajo disparo | Goyal2019 |
| Pascal VOC07+12 objetos Detección | Moco |
| Detección de objetos de COCO17 | Moco |
| Segmentación de paisajes urbanos | Mmseg |
| Pascal VOC12 Aug segmentación | Mmseg |
Apreciamos todas las contribuciones mejorando MMSelfsup. Consulte las guías de contribución para obtener más detalles sobre la guía contribuyente.
MMSelfSup es un proyecto de código abierto que contribuyen a investigadores e ingenieros de varias universidades y empresas. Apreciamos a todos los contribuyentes que implementan sus métodos o agregan nuevas características, así como a los usuarios que otorgan comentarios valiosos. Deseamos que la caja de herramientas y el punto de referencia puedan servir a la creciente comunidad de investigación al proporcionar un conjunto de herramientas flexible para reimplinar los métodos existentes y desarrollar sus propios algoritmos nuevos.
MMSelfsup se origina en OpenSelfsup, y apreciamos todas las primeras contribuciones hechas a OpenSelfsup. Aquí se enumeran algunos contribuyentes: Xiaohang Zhan (@xiaohangzhan), Jiahao xie (@jiahao000), Enze xie (@xieenze), xiangxiang chu (@cxxgtxy), zijian he (@scnuhealy).
Si usa esta caja de herramientas o un punto de referencia en su investigación, cite este proyecto.
@misc { mmselfsup2021 ,
title = { {MMSelfSup}: OpenMMLab Self-Supervised Learning Toolbox and Benchmark } ,
author = { MMSelfSup Contributors } ,
howpublished = { url{https://github.com/open-mmlab/mmselfsup} } ,
year = { 2021 }
}Este proyecto se publica bajo la licencia Apache 2.0.