Fantastisches Huggingface
Dies ist eine Liste einiger wunderbarer Open-Source-Projekte und -Anwendungen, die in umarmende Gesichtsbibliotheken integriert sind.
Wie man beiträgt
? Offizielle Bibliotheken
Erstanbieter cooles Sachen mit ❤️ von? Umarmtes Gesicht.
- Transformers-Stand der Technik natürliche Sprachverarbeitung für JAX, Pytorch und TensorFlow.
- Datensätze-Der größte Hub von NLP-Datensätzen für ML-Modelle mit schnellen, benutzerfreundlichen und effizienten Datenmanipulationstools.
- Tokenizer-schnelle hochmoderne Tokenizer, die für Forschung und Produktion optimiert wurden.
- KnockKnock - Melden Sie sich, wenn Ihr Training mit nur zwei zusätzlichen Codezeilen endet.
- Beschleunigen-eine einfache Möglichkeit, Pytorch-Modelle mit Multi-GPU, TPU, gemischter Präzision zu trainieren und zu verwenden.
- AUTONLP-Trainieren Sie hochmoderne Modelle für natürliche Sprachverarbeitungsmodelle und stellen Sie sie automatisch in einer skalierbaren Umgebung ein.
- NN_PRUNINING - Beschneiden Sie ein Modell, während Sie Fülle oder Training haben.
- Huggingface_Hub - Client -Bibliothek zum Herunterladen und Veröffentlichen von Modellen und anderen Dateien auf dem Hubgingface.co -Hub.
- Tune - Ein Benchmark für den Vergleich von Modellen auf Transformatorbasis.
? ? Tutorials
Erfahren Sie, wie Sie Schritt-für-Schritt-Gesichts-Toolkits verwenden.
- Offizieller Kurs (vom Umarmungsgesicht) - Die offizielle Kurserie von? Umarmtes Gesicht.
- Transformers-Tutorials (von @nielsrogge)-Tutorials zum Anwenden mehrerer Modelle auf realen Datensätzen.
? NLP -Toolkits
NLP -Toolkits, die auf Transformatoren basieren. Schweizer Armee!
- Allennlp (von AI2) - Eine Open -Source -NLP -Forschungsbibliothek.
- Graph4NLP - Ermöglichen Sie eine einfache Verwendung von Grafiknetzwerken für NLP.
- Blitztransformatoren - Transformatoren mit Pytorch -Blitzschnittstelle.
- Adaptertransformatoren-Erweiterung der Transformers Library, die Adapter in hochmoderne Sprachmodelle integriert.
- OBSEI - Ein Tool mit niedrigem Coden -AI -Workflow -Automatisierung und verschiedene NLP -Aufgaben in der Workflow -Pipeline durchführt.
- Trapper (von OBS)-Stand der Technik NLP durch Transformatormodelle in einem modularen Design und konsistenten APIs.
- Flair-Ein sehr einfacher Rahmen für hochmodernes NLP.
? Textdarstellung
Umwandlung eines Satzes in einen Vektor.
- Satztransformatoren (von UKPLAB) - weit verbreitete Encoder -Computer -Vektor -Darstellungen für Sätze, Absätze und Bilder.
- WHITENINGBERT (von Microsoft) - Ein einfacher unbeaufsichtigter Satzeinbettungsansatz mit Whitening.
- SIMCSE (aus Princeton)-hochmodernes Satz, der sich mit kontrastivem Lernen einbettet.
- Denphrasen (aus Princeton) - Lerndichte Darstellungen von Phrasen in Maßstab.
Inferenzmotoren
Hoch optimierte Inferenzmotoren implementieren Transformatoren-kompatible APIs.
- Turbotransformatoren (von Tencent) - Eine Inferenzmotor für Transformatoren mit schnellem C ++ - API.
- FasterTransformer (von NVIDIA) - Ein Skript und ein Rezept zum Ausführen der hochoptimierten transformatorbasierten Encoder- und Decoder -Komponente auf NVIDIA -GPUs.
- LightSeq (aus Bytedance) - Eine Hochleistungs -Inferenzbibliothek für die in CUDA implementierte Sequenzverarbeitung und -generation.
- FASTSEQ (von Microsoft) - Effiziente Implementierung der beliebten Sequenzmodelle (z. B. Bart, Prophetnet) für die Textgenerierung, Zusammenfassung, Übersetzungsaufgaben usw.
? Modellskalierbarkeit
Parallelisierungsmodelle über mehrere GPUs.
- Parallelformers (von Tunib) - Eine Bibliothek für Modellparallelbereitstellung.
- OSLO (von Tunib) - Eine Bibliothek, die verschiedene Funktionen unterstützt, mit denen Sie groß angelegte Modelle trainieren können.
- TEEPSPEED (von Microsoft) - DeepSpeed -Null - skaliert jede Modellgröße mit Null bis gar nicht Änderungen am Modell. Integriert in den HF -Trainer.
- Fairscale (von Facebook) - implementiert auch das Protokoll von Zero. Integriert in den HF -Trainer.
- Colosssalai (von HPCaitech) - Ein einheitliches Deep -Lern -System für groß angelegte paralleles Training (1D, 2D, 2,5D, 3D und Sequenzparallelität und Nullprotokoll).
- Modellkomprimierung/Beschleunigung
Komprimierung oder Beschleunigung von Modellen für eine verbesserte Inferenzgeschwindigkeit.
- Torchdistill-Pytorch-basiertes modulares, konfigurationsorientiertes Framework für Wissensdestillation.
- TextBrewer (von HFL)-Stand der Kunstdestillationsmethoden zur Komprimierung von Sprachmodellen.
- Bert-of-theseus (von Microsoft)-Komprimierende Bert durch schrittweise Ersetzen der Komponenten des ursprünglichen Bert.
? ️ Gegnerangriff
Durchführung von kontroversem Angriff, um die Robustheit der Modells zu testen.
- Textangriff (von UVA) - Ein Python -Framework für kontroverse Angriffe, Datenerweiterung und Modelltraining in NLP.
- Textflint (von Fudan) - Ein einheitliches mehrsprachiges Bewertungs -Toolkit für NLP.
- OpenAtTack (von Thu) - Ein Open -Source -textuelles kontroverses Angriffs -Toolkit.
? Stilübertragung
Übertragen Sie den Textstil! Jetzt wissen Sie, warum es Transformator heißt?
- STYLEFORMER - Ein transfer -Framework für neuronale Sprachstil, um Text reibungslos zwischen den Stilen zu übertragen.
- Consert - Ein kontrastives Rahmen für die Übertragung der selbstbewerteten Satzdarstellung.
? Stimmungsanalyse
Analyse des Gefühls und der Emotionen des Menschen.
- Konv -Emotion - Implementierung verschiedener Architekturen zur Emotionserkennung in Gesprächen.
? Grammatikfehlerkorrektur
Du hast einen Tippfehler gemacht! Lass es mich korrigieren.
- Gramformer - Ein Framework zum Erkennen, Hervorheben und Korrigieren von grammatikalischen Fehlern im natürlichen Sprachtext.
? Übersetzung
Übersetzung zwischen verschiedenen Sprachen.
- DL-Translate-Eine tief lernbasierte Übersetzungsbibliothek basierend auf HF-Transformatoren.
- Easynmt (von UKPLAB)-Einfach zu bedienende, hochmoderne Übersetzungsbibliothek und Docker-Bilder basierend auf HF-Transformatoren.
Wissen und Entität
Lernkenntnisse, Bergbauunternehmen, Verbinden der Welt.
- Rein (aus Princeton) - Entität und Beziehungsextraktion aus dem Text.
? Rede
Sprachverarbeitung durch HF -Bibliotheken. Rede brauchen!
- S3PRL-Eine selbstbewertete Sprache vor dem Training und Repräsentation Lerntoolkit.
- Sprachbrain - ein Pytorch -basierter Sprach -Toolkit.
? Multimodalität
Die Welt aus verschiedenen Modalitäten verstehen.
- VILT (von Kakao)-ein Vision-and-Sprach-Transformator ohne Faltung oder Region.
? Verstärkungslernen
Kombinieren Sie RL Magic mit NLP!
- TRL - Feinabstimmungstransformatoren mithilfe der proximalen Richtlinienoptimierung (PPO), um sich an die menschlichen Präferenzen auszurichten.
❓ Frage Beantwortung
Suche nach Antworten? Transformatoren zur Rettung!
- Haystack (von DeepSet)-End-to-End-Framework für die Entwicklung und Bereitstellung von Fragen-Beantwortungssystemen in freier Wildbahn.
? Empfehlungssysteme
Ich denke, das ist genau richtig für dich!
- Transformers4REC (von NVIDIA) - Eine flexible und effiziente Bibliothek, die von Transformatoren für sequentielle und Sitzungsbasierte Empfehlungen betrieben wird.
⚖️ Bewertung
Bewertung von Modellausgaben und Datenqualität, die von HF -Datensätzen betrieben werden!
- Jury (von OBS)-Einfach zu verwendende Tool zur Bewertung von NLP-Modellausgaben, spesifisch für NLG (Natural Language Generation) und verschiedene automatisierte Text-zu-Text-Metriken anbietet.
- Spotlight - Erforschen Sie interaktiv Ihr HF -Datensatz mit einer Codezeile. Verwenden Sie Modellergebnisse (z. B. Einbetten, Vorhersagen), um kritische Datensegmente und Modellversagensmodi zu verstehen.
? Neuronale Suche
Suche, aber mit der Macht der neuronalen Netze!
- Jina Integration - Jina Integration von umarmenden Gesichtsbeschleunigungs -API.
- Weaviate Integration (Text2VEC) (QA) - WEAVIATE -Integration von umarmenden Gesichtstransformatoren.
- COLBERT (aus Stanford) - Ein schnelles und genaues Abrufmodell, das skalierbare Bert -basierte Suche über große Textsammlungen in zehn Millisekunden ermöglicht.
☁ Wolke
Wolke erleichtert dein Leben!
- Amazon Sagemaker - erleichtert es als je zuvor, umarmende Gesichtstransformatormodelle in Amazon Sagemaker zu trainieren.
Hardware
Die Infrastruktur ermöglicht es der Magie.
- Qualcomm - Zusammenarbeit zum Aktivieren von Transformatoren in Snapdragon.
- Intel - Zusammenarbeit mit Intel für Konfigurationsoptionen.