CVNets es un kit de herramientas de visión por computadora que permite a los investigadores e ingenieros capacitar a modelos de visión informática móviles y no móviles estándar y novedosos para una variedad de tareas, incluida la clasificación de objetos, la detección de objetos, la segmentación semántica y los modelos de base (p. Ej., Clip).
Recomendamos usar Python 3.10+ y Pytorch (versión> = v1.12.0)
Las instrucciones a continuación usan Conda, si no tiene Conda instalada, puede consultar cómo instalar Conda.
# Clone the repo
git clone [email protected]:apple/ml-cvnets.git
cd ml-cvnets
# Create a virtual env. We use Conda
conda create -n cvnets python=3.10.8
conda activate cvnets
# install requirements and CVNets package
pip install -r requirements.txt -c constraints.txt
pip install --editable . Para ver una lista de modelos y puntos de referencia disponibles, consulte la carpeta del zoológico y los ejemplos del modelo.
Este código es desarrollado por Sachin, y ahora es mantenido por Sachin, Maxwell Horton, Mohammad Sekhavat y Yanzi Jin.
A continuación se muestra la lista de publicaciones de Apple que usa CVNets:
¡Damos la bienvenida a PRS de la comunidad! Puede encontrar información sobre cómo contribuir a CVNets en nuestro documento contribuyente.
Recuerde seguir nuestro código de conducta.
Para detalles de la licencia, consulte la licencia.
Si encuentra útil nuestro trabajo, cite el siguiente documento:
@inproceedings{mehta2022mobilevit,
title={MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer},
author={Sachin Mehta and Mohammad Rastegari},
booktitle={International Conference on Learning Representations},
year={2022}
}
@inproceedings{mehta2022cvnets,
author = {Mehta, Sachin and Abdolhosseini, Farzad and Rastegari, Mohammad},
title = {CVNets: High Performance Library for Computer Vision},
year = {2022},
booktitle = {Proceedings of the 30th ACM International Conference on Multimedia},
series = {MM '22}
}