CVNETS est une boîte à outils de vision par ordinateur qui permet aux chercheurs et aux ingénieurs de former des modèles de vision informatique mobiles et non mobiles et non mobiles pour la variété des tâches, y compris la classification des objets, la détection d'objets, la segmentation sémantique et les modèles de fondation (par exemple, CLIP).
Nous vous recommandons d'utiliser Python 3.10+ et Pytorch (version> = v1.12.0)
Les instructions ci-dessous utilisent conda, si vous n'avez pas installé conda, vous pouvez consulter comment installer conda.
# Clone the repo
git clone [email protected]:apple/ml-cvnets.git
cd ml-cvnets
# Create a virtual env. We use Conda
conda create -n cvnets python=3.10.8
conda activate cvnets
# install requirements and CVNets package
pip install -r requirements.txt -c constraints.txt
pip install --editable . Pour voir une liste des modèles disponibles et des références, veuillez vous référer au dossier Model Zoo et Exemples.
Ce code est développé par Sachin et est maintenant entretenu par Sachin, Maxwell Horton, Mohammad Sekhavat et Yanzi Jin.
Vous trouverez ci-dessous la liste des publications d'Apple qui utilise CVNETS:
Nous accueillons les PR de la communauté! Vous pouvez trouver des informations sur la contribution aux CVNets dans notre document contribuant.
N'oubliez pas de suivre notre code de conduite.
Pour les détails de la licence, voir la licence.
Si vous trouvez notre travail utile, veuillez citer l'article suivant:
@inproceedings{mehta2022mobilevit,
title={MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer},
author={Sachin Mehta and Mohammad Rastegari},
booktitle={International Conference on Learning Representations},
year={2022}
}
@inproceedings{mehta2022cvnets,
author = {Mehta, Sachin and Abdolhosseini, Farzad and Rastegari, Mohammad},
title = {CVNets: High Performance Library for Computer Vision},
year = {2022},
booktitle = {Proceedings of the 30th ACM International Conference on Multimedia},
series = {MM '22}
}