文檔|安裝| ?模型動物園| ?更新新聞|報告問題

? MMMPRETRAIN是一個新升級的開源框架,用於視覺預訓練。它已著手提供多種強大的預訓練骨架,並支持不同的訓練前策略。
MMMPRETRETAIN 1.0分支正在審判中,歡迎每個嘗試嘗試並與我們討論! ?
英語| 簡體中文











MMSelfSup是基於Pytorch的開源自我監督表示工具箱。它是OpenMMLAB項目的一部分。
主分支與Pytorch 1.8或更高版本一起工作。
方法全部
MMSelfsup提供了自我監督學習的最先進方法。為了在所有基準測試中進行全面比較,大多數培訓方法都在相同的設置下。
模塊化設計
MMSelfSup遵循具有模塊化設計的OpenMMLAB項目的類似代碼體系結構,該項目靈活且方便用戶構建自己的算法。
標準化基準
MMSelfSup標準化基準,包括邏輯回歸,線性探測的特徵,半監督分類,對象檢測和語義分割的SVM / Low-Shot SVM。
相容性
由於MMSelfSUP採用與其他OpenMMLAB項目中的模塊化和接口相似的設計,因此它通過其他OpenMMLAB項目(例如對象檢測和細分)來支持對下游任務的平滑評估。
MMSelfSup v1.0.0是根據main分支發布的。請參閱遷移指南以獲取更多詳細信息。
MMSelfsup v1.0.0於2010年6月4日發布。
PixMIM 。projects/dino/ DINOMMSelfSUP v1.0.0.0rc6於2023年10月2日發布。
MaskFeat projects/maskfeat_video/MMSelfsup v1.0.0.0rc5於2012年12月30日發布。
BEiT v2 , MixMIM , EVA 。ShapeBias用於模型分析有關詳細信息和發布歷史記錄,請參考ChangElog。
MMSelfSUP 1.x和0.x之間的差異可以在遷移中發現。
MMSelfSUP取決於Pytorch,MMCV,MMENGINE和MMClassification。
請參閱安裝以獲取更多詳細的說明。
對於教程,我們為基本用法提供用戶指南:
預認證
下部任務
有用的工具
還提供了高級指南和COLAB教程。
請參閱常見問題解答以獲取常見問題。
請參閱Model Zoo.md,以獲取一套全面的預培訓模型和基準。
支持的算法:
我們的計劃中有更多算法。
| 基準 | 環境 |
|---|---|
| 成像網線性分類(多頭) | Goyal2019 |
| Imagenet線性分類(最後) | |
| ImageNet半SUP分類 | |
| place205線性分類(多頭) | Goyal2019 |
| inaturalist2018線性分類(多頭) | Goyal2019 |
| Pascal VOC07 SVM | Goyal2019 |
| Pascal VOC07低射擊SVM | Goyal2019 |
| Pascal VOC07+12對象檢測 | moco |
| 可可17對象檢測 | moco |
| 城市景觀細分 | mmseg |
| Pascal VOC12 8月分段 | mmseg |
我們感謝所有改善MMSelfsup的貢獻。有關貢獻指南的更多詳細信息,請參考貢獻指南。
MMSelfSup是一個開源項目,由來自各種大學和公司的研究人員和工程師貢獻。我們感謝所有實施方法或添加新功能的貢獻者以及提供寶貴反饋的用戶。我們希望工具箱和基準可以通過提供靈活的工具包來重新實現現有方法並開發自己的新算法來為不斷增長的研究社區提供服務。
MMSelfsup源自OpenSelfSup,我們感謝對OpenSefSup的所有早期貢獻。這裡列出了一些貢獻者:Xiaohang Zhan(@xiaohangzhan),Jiahao Xie(@Jiahao000),Enze Xie(@xieenze),Xiangxiang Chu(@cxxgtxy),Zijian He(@scnuhealthyy)。
如果您在研究中使用此工具箱或基準測試,請引用此項目。
@misc { mmselfsup2021 ,
title = { {MMSelfSup}: OpenMMLab Self-Supervised Learning Toolbox and Benchmark } ,
author = { MMSelfSup Contributors } ,
howpublished = { url{https://github.com/open-mmlab/mmselfsup} } ,
year = { 2021 }
}該項目以Apache 2.0許可發布。