Dokumentation | Installation | Modellzoo | "Update News | Meldungsprobleme

? MMPRETRAIN ist ein neu verbessertes Open-Source-Framework für die visuelle Vorinstallation. Es hat sich vorgestellt, mehrere leistungsstarke vorgeborene Rückgressgrenzen bereitzustellen und verschiedene Strategien vor der Ausbildung zu unterstützen.
MMPRETRAIN 1.0 Branch ist vor Gericht, begrüßen Sie alle, um es zu versuchen und mit uns zu diskutieren! ?
Englisch | 简体中文











MMELLSUP ist eine Open-Source-Selpe-Supervised Repräsentation-Lern-Toolbox, die auf Pytorch basiert. Es ist Teil des OpenMMLAB -Projekts.
Der Master -Zweig arbeitet mit Pytorch 1,8 oder höher.
Methoden alle in einem
MMELLSUP bietet hochmoderne Methoden im selbstüberwachenden Lernen. Für einen umfassenden Vergleich in allen Benchmarks stehen die meisten Voraussetzungsmethoden unter derselben Umgebung.
Modulares Design
MMELLSUP verfolgt eine ähnliche Codearchitektur von OpenMMLAB -Projekten mit modularem Design, das für Benutzer flexibel und bequem ist, um ihre eigenen Algorithmen zu erstellen.
Standardisierte Benchmarks
MMELLSUP standardisiert die Benchmarks, einschließlich logistischer Regression, SVM / Low-Shot-SVM aus linear untersuchten Merkmalen, halbüberwachter Klassifizierung, Objekterkennung und semantischer Segmentierung.
Kompatibilität
Da MMELSUP ein ähnliches Design von Modulars und Schnittstellen wie solche in anderen OpenMMLAB -Projekten einsetzt, unterstützt es eine reibungslose Bewertung bei nachgeschalteten Aufgaben mit anderen OpenMMLAB -Projekten wie Objekterkennung und Segmentierung.
MMELSUP V1.0.0 wurde basierend auf main veröffentlicht. Weitere Informationen finden Sie im Migrationshandbuch.
MmselfSup v1.0.0 wurde am 06.04.2023 veröffentlicht.
PixMIM .DINO in projects/dino/ .MMELSEP V1.0.0RC6 wurde im 10.10.2023 veröffentlicht.
MaskFeat mit Video -Datensatz in projects/maskfeat_video/MMELSEP V1.0.0RC5 wurde in 30/12/2022 veröffentlicht.
BEiT v2 , MixMIM , EVA .ShapeBias für die ModellanalyseWeitere Informationen und Veröffentlichungsgeschichte finden Sie in ChangeLog.
Unterschiede zwischen MMMELSUP 1.x und 0.x finden Sie in der Migration.
MMELLSUP hängt von Pytorch, MMCV, Mmengine und MMClassifizierung ab.
Weitere detailliertere Anweisungen finden Sie in der Installation.
Für Tutorials bieten wir Benutzerführer für die grundlegende Nutzung an:
Vorrain
DownTream -Aufgaben
Nützliche Werkzeuge
Advanced Guides und Colab Tutorials werden ebenfalls bereitgestellt.
Weitere Fragen finden Sie in FAQ für häufig gestellte Fragen.
In der Model Zoo.MD finden Sie eine umfassende Reihe von vorgeborenen Modellen und Benchmarks.
Unterstützte Algorithmen:
Weitere Algorithmen sind in unserem Plan.
| Benchmarks | Einstellung |
|---|---|
| Lineare Klassifizierung imagNet (Multi-Head) | Goyal2019 |
| Lineare Klassifizierung imagNet (zuletzt) | |
| ImageNet Semi-SUP-Klassifizierung | |
| Places205 Lineare Klassifizierung (Mehrköpfe) | Goyal2019 |
| Inaturalist2018 Lineare Klassifizierung (Mehrköpfe) | Goyal2019 |
| Pascal VOC07 SVM | Goyal2019 |
| Pascal VOC07 Low-Shot SVM | Goyal2019 |
| Pascal VOC07+12 Objekterkennung | Moco |
| Coco17 -Objekterkennung | Moco |
| Segmentierung der Stadtlandschaften | Mmseg |
| Pascal VOC12 Aug -Segmentierung | Mmseg |
Wir schätzen alle Beiträge, die MmselfSup verbessern. Weitere Informationen zum beitragenden Richtlinie finden Sie unter Beitragsanleitungen.
MMELSUP ist ein Open -Source -Projekt, das von Forschern und Ingenieuren verschiedener Hochschulen und Unternehmen beigetragen wird. Wir schätzen alle Mitwirkenden, die ihre Methoden implementieren oder neue Funktionen hinzufügen, sowie Benutzer, die wertvolle Feedbacks geben. Wir wünschen uns, dass die Toolbox und der Benchmark der wachsenden Forschungsgemeinschaft dienen könnten, indem sie ein flexibles Toolkit zur Neuauflage bestehender Methoden bereitstellen und ihre eigenen neuen Algorithmen entwickeln.
MmselfSup stammt aus OpenSelfsup und wir schätzen alle frühen Beiträge für OpenSelfsup. Ein paar Mitwirkende sind hier aufgeführt: Xiaohang Zhan (@xiaoHangzhan), Jiahao Xie (@jiahao000), Enze Xie (@xieenze), Xiangxiang Chu (@cxxgtxy), Zijian He (@Scnuhealthy).
Wenn Sie diese Toolbox oder Benchmark in Ihrer Forschung verwenden, zitieren Sie dieses Projekt bitte.
@misc { mmselfsup2021 ,
title = { {MMSelfSup}: OpenMMLab Self-Supervised Learning Toolbox and Benchmark } ,
author = { MMSelfSup Contributors } ,
howpublished = { url{https://github.com/open-mmlab/mmselfsup} } ,
year = { 2021 }
}Dieses Projekt wird unter der Apache 2.0 -Lizenz veröffentlicht.