CVNETS ist ein Computer-Vision-Toolkit, mit dem Forscher und Ingenieure Standard- und neuartige mobile und nicht mobile Computer-Vision-Modelle für eine Vielzahl von Aufgaben schulen können, einschließlich der Objektklassifizierung, der Objekterkennung, der semantischen Segmentierung und der Fundamentmodelle (z. B. Clip).
Wir empfehlen, Python 3.10+ und Pytorch (Version> = v1.12.0) zu verwenden.
Anweisungen unten verwenden Sie Conda. Wenn Sie nicht konda installiert sind, können Sie sich ansehen, wie Sie Conda installieren.
# Clone the repo
git clone [email protected]:apple/ml-cvnets.git
cd ml-cvnets
# Create a virtual env. We use Conda
conda create -n cvnets python=3.10.8
conda activate cvnets
# install requirements and CVNets package
pip install -r requirements.txt -c constraints.txt
pip install --editable . Um eine Liste der verfügbaren Modelle und Benchmarks anzuzeigen, lesen Sie bitte den Ordner für Modellzoo und Beispiele.
Dieser Code wird von Sachin entwickelt und wird nun von Sachin, Maxwell Horton, Mohammad Sekhavat und Yanzi Jin aufrechterhalten.
Im Folgenden finden Sie die Liste der Veröffentlichungen von Apple, die CVNETs verwendet:
Wir begrüßen PRs aus der Community! Informationen zu CVNETs finden Sie in unserem beitragenden Dokument.
Bitte denken Sie daran, unserem Verhaltenskodex zu folgen.
Lizenzdetails finden Sie unter Lizenz.
Wenn Sie unsere Arbeit nützlich finden, zitieren Sie bitte das folgende Papier:
@inproceedings{mehta2022mobilevit,
title={MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer},
author={Sachin Mehta and Mohammad Rastegari},
booktitle={International Conference on Learning Representations},
year={2022}
}
@inproceedings{mehta2022cvnets,
author = {Mehta, Sachin and Abdolhosseini, Farzad and Rastegari, Mohammad},
title = {CVNets: High Performance Library for Computer Vision},
year = {2022},
booktitle = {Proceedings of the 30th ACM International Conference on Multimedia},
series = {MM '22}
}