m ulti- m odal m ulti- ไม่ ถาม l ที่มีรายได้
pip install m3tl
นี่คือโครงการที่ใช้หม้อแปลง (ขึ้นอยู่กับ Transformers HuggingFace) เป็นแบบจำลองพื้นฐานใน การเรียนรู้หลายแบบหลายรูปแบบ
Multi-Task Learning (MTL) ได้รับความสนใจมากขึ้นเรื่อย ๆ โดยเฉพาะในยุคการเรียนรู้ลึก มีการใช้กันอย่างแพร่หลายใน NLP, CV, คำแนะนำ ฯลฯ อย่างไรก็ตาม MTL มักจะเกี่ยวข้องกับการประมวลผลข้อมูลที่ซับซ้อนการจัดการงานและการทำงานร่วมกัน โครงการโอเพ่นซอร์สอื่น ๆ เช่น TencentNlp และ PyText รองรับ MTL แต่ในทางที่ไร้เดียงสาและไม่ตรงไปตรงมาที่จะใช้อัลกอริทึม MTL ที่ซับซ้อน ในโครงการนี้เราพยายามที่จะทำให้โมเดล MTL เป็นเรื่องง่ายเหมือนรูปแบบการเรียนรู้งานเดียวและขยาย MTL ไปสู่การเรียนรู้หลายแบบหลายรูปแบบ ในการทำเช่นนั้นเราได้เปิดเผยโมดูลที่เกี่ยวข้องกับโปรแกรม MTL ต่อไปนี้ให้กับผู้ใช้:
นอกเหนือจากโมดูลที่ตั้งโปรแกรมได้แล้วเรายังให้บริการอัลกอริทึม SOTA MTL ในตัวที่หลากหลาย
คุณสามารถใช้โครงการนี้เพื่อ:
และเนื่องจากเราใช้ Transformers เป็นรุ่นพื้นฐานคุณจะได้รับประโยชน์ทั้งหมดที่คุณจะได้รับจาก Transformers!
params = Params()
for problem_type in params.list_available_problem_types():
print('`{problem_type}`: {desc}'.format(
desc=params.problem_type_desc[problem_type], problem_type=problem_type))
`cls`: Classification
`multi_cls`: Multi-Label Classification
`seq_tag`: Sequence Labeling
`masklm`: Masked Language Model
`pretrain`: NSP+MLM(Deprecated)
`regression`: Regression
`vector_fit`: Vector Fitting
`premask_mlm`: Pre-masked Masked Language Model
`contrastive_learning`: Contrastive Learning
โปรดดูบทเรียน