O CVNets é um kit de ferramentas de visão computacional que permite que pesquisadores e engenheiros treinem modelos de visão computacional padrão e novos e não móveis para variedade de tarefas, incluindo classificação de objetos, detecção de objetos, segmentação semântica e modelos de fundação (por exemplo, clipe).
Recomendamos usar o Python 3.10+ e o pytorch (versão> = v1.12.0)
Instruções abaixo Use o CONDA, se você não tiver o CONDA instalado, pode conferir como instalar o CONDA.
# Clone the repo
git clone [email protected]:apple/ml-cvnets.git
cd ml-cvnets
# Create a virtual env. We use Conda
conda create -n cvnets python=3.10.8
conda activate cvnets
# install requirements and CVNets package
pip install -r requirements.txt -c constraints.txt
pip install --editable . Para ver uma lista de modelos e benchmarks disponíveis, consulte a pasta Model Zoo e Exemplos.
Este código é desenvolvido por Sachin e agora é mantido por Sachin, Maxwell Horton, Mohammad Sekhavat e Yanzi Jin.
Abaixo está a lista de publicações da Apple que usa CVNets:
Congratulamo -nos com os PRs da comunidade! Você pode encontrar informações sobre como contribuir com CVNets em nosso documento contribuinte.
Lembre -se de seguir nosso código de conduta.
Para detalhes da licença, consulte a licença.
Se você achar útil nosso trabalho, cite o seguinte artigo:
@inproceedings{mehta2022mobilevit,
title={MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer},
author={Sachin Mehta and Mohammad Rastegari},
booktitle={International Conference on Learning Representations},
year={2022}
}
@inproceedings{mehta2022cvnets,
author = {Mehta, Sachin and Abdolhosseini, Farzad and Rastegari, Mohammad},
title = {CVNets: High Performance Library for Computer Vision},
year = {2022},
booktitle = {Proceedings of the 30th ACM International Conference on Multimedia},
series = {MM '22}
}