
Transformers de pointe, brique en brique
Les transformateurs organisés sont une bibliothèque de transformateurs pour Pytorch. Il fournit des modèles de pointe qui sont composés d'un ensemble de composants réutilisables. Les caractéristiques remarquables du transformateur organisé sont:
bitsandbytes et chaque modèle peut utiliser le dispositif meta Pytorch pour éviter les allocations et l'initialisation inutiles.Les transformateurs organisés ont été testés en production par explosion et seront utilisés comme implémentation de transformateur par défaut dans Spacy 3.7.
Modèles pris en charge uniquement en encodeur:
Modèles pris en charge uniquement du décodeur:
Emballages de générateurs:
Tous les types de modèles peuvent être chargés à partir de HuggingFace Hub.
L'intégration de Spacy pour les transformateurs organisée est fournie par le package spacy-curated-transformers .
pip install curated-transformersLa version Linux par défaut de Pytorch est construite avec le support CUDA 11.7. Vous devez installer explicitement une construction CUDA dans les cas suivants:
Dans les deux cas, vous pouvez installer Pytorch avec:
pip install torch --index-url https://download.pytorch.org/whl/cu118>>> import torch
>>> from curated_transformers.generation import AutoGenerator, GreedyGeneratorConfig
>>> generator = AutoGenerator.from_hf_hub( name = " tiiuae/falcon-7b-instruct " , device = torch.device( " cuda " ))
>>> generator([ " What is Python in one sentence? " , " What is Rust in one sentence? " ], GreedyGeneratorConfig())
['Python is a high-level programming language that is easy to learn and widely used for web development, data analysis, and automation.',
'Rust is a programming language that is designed to be a safe, concurrent, and efficient replacement for C++.'] Vous pouvez trouver plus d'exemples d'utilisation dans la documentation. Vous pouvez également trouver des exemples de programmes qui utilisent des transformateurs organisés dans le répertoire examples .
Vous pouvez en savoir plus sur la façon d'utiliser les transformateurs organisés ici:
curated-transformers prennent en charge la quantification dynamique 8 bits et 4 bits des modèles en tirant parti de la bibliothèque bitsandbytes .
Utilisez la variante de quantification pour installer automatiquement les dépendances nécessaires:
pip install curated-transformers[quantization]