M ulti- m odal m ultimt ags l Earning
pip install m3tl
Dies ist ein Projekt, bei dem Transformers (basierend auf Huggingface-Transformatoren) als Basismodell verwendet werden, um multimodales Multitasking-Lernen durchzuführen.
Multi-Task Learning (MTL) gewinnt immer mehr Aufmerksamkeit, insbesondere im Deep Learning-Ära. Es wird in NLP, CV, Empfehlung usw. häufig verwendet. MTL beinhaltet jedoch in der Regel komplizierte Datenvorverarbeitung, Aufgabenverwaltung und Aufgabeninteraktion. Andere Open-Source-Projekte wie Tencentnlp und Pytext unterstützen MTL, aber auf naive Weise und es ist nicht einfach, komplizierten MTL-Algorithmus zu implementieren. In diesem Projekt versuchen wir, das Schreiben von MTL-Modell so einfach wie ein einzelnes Task-Lernmodell zu gestalten und MTL weiter auf multimodales Multitasking-Lernen auszudehnen. Dazu geben wir dem Benutzer dem mtl -bezogenen programmierbaren Modul aus:
Neben programmierbaren Modulen bieten wir auch verschiedene integrierte SOTA-MTL-Algorithmen an.
Mit einem Wort können Sie dieses Projekt verwenden, um:
Und da wir Transformatoren als Basismodell verwenden, erhalten Sie alle Vorteile, die Sie von Transformatoren erhalten können!
params = Params()
for problem_type in params.list_available_problem_types():
print('`{problem_type}`: {desc}'.format(
desc=params.problem_type_desc[problem_type], problem_type=problem_type))
`cls`: Classification
`multi_cls`: Multi-Label Classification
`seq_tag`: Sequence Labeling
`masklm`: Masked Language Model
`pretrain`: NSP+MLM(Deprecated)
`regression`: Regression
`vector_fit`: Vector Fitting
`premask_mlm`: Pre-masked Masked Language Model
`contrastive_learning`: Contrastive Learning
Bitte beachten Sie die Tutorials.