Torchrec est une bibliothèque de domaines Pytorch conçue pour fournir des primitives de rareté et de parallélisme communes nécessaires aux systèmes de recommandation à grande échelle (Recsys). Torchrec permet l'entraînement et l'inférence de modèles avec de grandes tables d'incorporation étouffées sur de nombreux GPU et puissent de nombreux modèles de production RecSys à Meta .
Torchrec a été utilisé pour accélérer les progrès des systèmes de recommandation, quelques exemples:
Pour commencer à apprendre sur Torchrec, consultez:
Consultez la section de démarrage dans la documentation pour les façons recommandées de configurer Torchrec.
Généralement, il n'est pas nécessaire de construire à partir de la source . Pour la plupart des cas d'utilisation, suivez la section ci-dessus pour configurer Torchrec. Cependant, pour construire à partir de la source et pour obtenir les derniers modifications, procédez comme suit:
Installez Pytorch. Voir la documentation Pytorch.
CUDA 12.4
pip install torch --index-url https://download.pytorch.org/whl/nightly/cu124
CUDA 12.1
pip install torch --index-url https://download.pytorch.org/whl/nightly/cu121
CUDA 11.8
pip install torch --index-url https://download.pytorch.org/whl/nightly/cu118
CPU
pip install torch --index-url https://download.pytorch.org/whl/nightly/cpu
Clone Torchrec.
git clone --recursive https://github.com/pytorch/torchrec
cd torchrec
Installez FBGEMM.
CUDA 12.4
pip install fbgemm-gpu --index-url https://download.pytorch.org/whl/nightly/cu124
CUDA 12.1
pip install fbgemm-gpu --index-url https://download.pytorch.org/whl/nightly/cu121
CUDA 11.8
pip install fbgemm-gpu --index-url https://download.pytorch.org/whl/nightly/cu118
CPU
pip install fbgemm-gpu --index-url https://download.pytorch.org/whl/nightly/cpu
Installer d'autres exigences.
pip install -r requirements.txt
Installez Torchrec.
python setup.py install develop
Testez l'installation (utilisez Torchx-nightly pour 3.11; pour 3,12, Torchx ne fonctionne actuellement pas).
GPU mode
torchx run -s local_cwd dist.ddp -j 1x2 --gpu 2 --script test_installation.py
CPU Mode
torchx run -s local_cwd dist.ddp -j 1x2 --script test_installation.py -- --cpu_only
Voir Torchx pour plus d'informations sur le lancement de travaux distribués et distribusants.
Si vous souhaitez exécuter un exemple plus complexe, veuillez jeter un œil à l'exemple Torchrec DLRM.
Voir contribution.md pour plus de détails sur la contribution à Torchrec!
Si vous utilisez Torchrec, veuillez vous référer à l'entrée Bibtex pour citer ce travail:
@inproceedings{10.1145/3523227.3547387,
author = {Ivchenko, Dmytro and Van Der Staay, Dennis and Taylor, Colin and Liu, Xing and Feng, Will and Kindi, Rahul and Sudarshan, Anirudh and Sefati, Shahin},
title = {TorchRec: a PyTorch Domain Library for Recommendation Systems},
year = {2022},
isbn = {9781450392785},
publisher = {Association for Computing Machinery},
address = {New York, NY, USA},
url = {https://doi.org/10.1145/3523227.3547387},
doi = {10.1145/3523227.3547387},
abstract = {Recommendation Systems (RecSys) comprise a large footprint of production-deployed AI today. The neural network-based recommender systems differ from deep learning models in other domains in using high-cardinality categorical sparse features that require large embedding tables to be trained. In this talk we introduce TorchRec, a PyTorch domain library for Recommendation Systems. This new library provides common sparsity and parallelism primitives, enabling researchers to build state-of-the-art personalization models and deploy them in production. In this talk we cover the building blocks of the TorchRec library including modeling primitives such as embedding bags and jagged tensors, optimized recommender system kernels powered by FBGEMM, a flexible sharder that supports a veriety of strategies for partitioning embedding tables, a planner that automatically generates optimized and performant sharding plans, support for GPU inference and common modeling modules for building recommender system models. TorchRec library is currently used to train large-scale recommender models at Meta. We will present how TorchRec helped Meta’s recommender system platform to transition from CPU asynchronous training to accelerator-based full-sync training.},
booktitle = {Proceedings of the 16th ACM Conference on Recommender Systems},
pages = {482–483},
numpages = {2},
keywords = {information retrieval, recommender systems},
location = {Seattle, WA, USA},
series = {RecSys '22}
}
Torchrec est sous licence BSD, comme le montre le fichier de licence.