
Hochmoderne Transformatoren, Ziegel für Ziegelstein
Kuratierte Transformers ist eine Transformatorbibliothek für Pytorch. Es bietet modernste Modelle, die aus einer Reihe wiederverwendbarer Komponenten bestehen. Die herausragenden Merkmale des kuratierten Transformators sind:
bitsandbytes -Bibliothek und jedes Modell kann das Pytorch- meta Gerät verwenden, um unnötige Zuweisungen und Initialisierung zu vermeiden.Kuratierte Transformatoren wurden durch Explosion produziert und werden als Standardtransformator-Implementierung in Spacy 3.7 verwendet.
Unterstützte Encoder-Modelle nur:
Unterstützte Decoder-Modelle nur:
Generatorverpackungen:
Alle Arten von Modellen können vom Hubface -Hub geladen werden.
Die Integration der Spact-Integration für kuratierte Transformatoren wird durch das Paket spacy-curated-transformers bereitgestellt.
pip install curated-transformersDer Standard -Linux -Build von Pytorch wurde mit CUDA 11.7 -Unterstützung erstellt. Sie sollten in den folgenden Fällen ausdrücklich einen CUDA -Build installieren:
In beiden Fällen können Sie PyTorch mit:
pip install torch --index-url https://download.pytorch.org/whl/cu118>>> import torch
>>> from curated_transformers.generation import AutoGenerator, GreedyGeneratorConfig
>>> generator = AutoGenerator.from_hf_hub( name = " tiiuae/falcon-7b-instruct " , device = torch.device( " cuda " ))
>>> generator([ " What is Python in one sentence? " , " What is Rust in one sentence? " ], GreedyGeneratorConfig())
['Python is a high-level programming language that is easy to learn and widely used for web development, data analysis, and automation.',
'Rust is a programming language that is designed to be a safe, concurrent, and efficient replacement for C++.'] In der Dokumentation finden Sie weitere Nutzungsbeispiele. Sie können auch Beispielprogramme finden, die kuratierte Transformatoren im examples verwenden.
Weitere Informationen zur Verwendung von kuratierten Transformatoren finden Sie hier:
curated-transformers unterstützen dynamische 8-Bit- und 4-Bit-Quantisierung von Modellen, indem die bitsandbytes -Bibliothek genutzt wird.
Verwenden Sie die Quantisierungsvariante, um die erforderlichen Abhängigkeiten automatisch zu installieren:
pip install curated-transformers[quantization]