Documentation | Installation | ? Modèle Zoo | ? Mettre à jour les nouvelles | ? Reporter des problèmes

? MMPretrain est un cadre open-source nouvellement mis à niveau pour la pré-formation visuelle. Il a décidé de fournir plusieurs colorations pré-formées puissantes et de soutenir différentes stratégies de pré-formation.
La branche MMPretrain 1.0 est en procès, bienvenue à l'essai et à discuter avec nous! ?
Anglais | 简体中文











MMelSup est une boîte à outils d'apprentissage de représentation auto-supervisée open source basée sur Pytorch. Cela fait partie du projet OpenMMLAB.
La branche principale fonctionne avec Pytorch 1,8 ou plus.
Méthodes tout en un
MMelSup fournit des méthodes de pointe dans l'apprentissage auto-supervisé. Pour une comparaison complète dans toutes les références, la plupart des méthodes de pré-formation sont dans le même cadre.
Conception modulaire
MMelSup suit une architecture de code similaire des projets OpenMMLab avec une conception modulaire, qui est flexible et pratique pour les utilisateurs pour créer leurs propres algorithmes.
Benchmarks standardisés
MMELFSUP standardise les repères, y compris la régression logistique, SVM / SVM à faible tir à partir de caractéristiques sondées linéairement, de classification semi-supervisée, de détection d'objets et de segmentation sémantique.
Compatibilité
Étant donné que MMelSup adopte une conception similaire de modulaires et d'interfaces à celles des autres projets OpenMMLAB, il prend en charge une évaluation en douceur sur les tâches en aval avec d'autres projets OpenMMLAB comme la détection et la segmentation des objets.
MMELFSUP V1.0.0 a été publié en fonction de la branche main . Veuillez vous référer au guide de migration pour plus de détails.
MMelSup v1.0.0 a été publié au 06/04/2023.
PixMIM .DINO dans projects/dino/ .MMelSup v1.0.0rc6 est sorti en 10/02/2023.
MaskFeat avec un ensemble de données vidéo dans projects/maskfeat_video/MMelSup v1.0.0rc5 est sorti au 30/12/2022.
BEiT v2 , MixMIM , EVA .ShapeBias pour l'analyse du modèleVeuillez vous référer à Changelog pour plus de détails et l'historique de la publication.
Les différences entre MMElfsup 1.x et 0.x peuvent être trouvées dans la migration.
MMelSup dépend du pytorch, du MMCV, du MMENNINE et du MMCLASSIFICATION.
Veuillez vous référer à l'installation pour une instruction plus détaillée.
Pour les tutoriels, nous fournissons des guides utilisateur pour l'utilisation de base:
Présager
Tâches de downeam
Outils utiles
Des guides avancés et des tutoriels Colab sont également fournis.
Veuillez vous référer à la FAQ pour les questions fréquemment posées.
Veuillez vous référer à Model Zoo.md pour un ensemble complet de modèles et de repères pré-formés.
Algorithmes pris en charge:
Plus d'algorithmes sont dans notre plan.
| Repères | Paramètre |
|---|---|
| Classification linéaire ImageNet (multi-têtes) | Goyal2019 |
| Classification linéaire ImageNet (dernier) | |
| Classification semi-up Imagenet | |
| Places205 Classification linéaire (multi-têtes) | Goyal2019 |
| Classification linéaire inaturalist2018 (multi-têtes) | Goyal2019 |
| Pascal voc07 svm | Goyal2019 |
| Pascal voc07 svm à faible tir | Goyal2019 |
| Pascal Voc07 + 12 Détection d'objet | Moco |
| Détection d'objet COCO17 | Moco |
| Segmentation des paysages urbains | Mmseg |
| PASCAL VOC12 AUG Segmentation | Mmseg |
Nous apprécions toutes les contributions améliorant MMelSup. Veuillez vous référer aux guides de contribution pour plus de détails sur la directive contributive.
MMelSup est un projet open source qui est apporté par des chercheurs et des ingénieurs de divers collèges et entreprises. Nous apprécions tous les contributeurs qui mettent en œuvre leurs méthodes ou ajoutent de nouvelles fonctionnalités, ainsi que des utilisateurs qui donnent des commentaires précieux. Nous souhaitons que la boîte à outils et la référence puissent servir la communauté de recherche croissante en fournissant une boîte à outils flexible pour réimplémenter les méthodes existantes et développer leurs propres nouveaux algorithmes.
MMelSup provient d'OpenSelSup, et nous apprécions toutes les premières contributions faites à OpenSelfSup. Quelques contributeurs sont répertoriés ici: Xiaohang Zhan (@xiaohangzhan), Jiahao Xie (@ jahahao000), Enze Xie (@xieenze), Xiangxiang Chu (@cxxgtxy), Zijian He (@scnuhealthy).
Si vous utilisez cette boîte à outils ou cette référence dans votre recherche, veuillez citer ce projet.
@misc { mmselfsup2021 ,
title = { {MMSelfSup}: OpenMMLab Self-Supervised Learning Toolbox and Benchmark } ,
author = { MMSelfSup Contributors } ,
howpublished = { url{https://github.com/open-mmlab/mmselfsup} } ,
year = { 2021 }
}Ce projet est publié sous la licence Apache 2.0.