
โครงการนี้รวมงาน NLP ที่หลากหลายที่นำมาใช้ตามห้องสมุด Transformers
HuggingFace Transformers เป็นเฟรมเวิร์กโอเพ่นซอร์สที่ดีมากซึ่งรองรับรุ่นหม้อแปลงโหลด/ฝึกอบรมที่สะดวกมาก คุณสามารถดูวิธีการติดตั้งและการโทรระดับเริ่มต้นของไลบรารีได้ที่นี่ ห้องสมุดยังสามารถรองรับผู้ใช้เพื่อปรับแต่งรุ่นที่สะดวกมาก
ในโครงการนี้เราได้รวมงาน NLP กระแสหลักไว้ด้วยกัน คุณสามารถค้นหางานที่เกี่ยวข้องและแทนที่训练数据集ในรหัส你自己任务下的数据集เพื่อฝึกอบรมแบบจำลองที่ตรงกับงานของคุณเอง
งาน NLP ที่ดำเนินการมีดังนี้ (อัปเดต):
คำนวณความคล้ายคลึงกันระหว่างข้อความและส่วนใหญ่จะใช้สำหรับ:
搜索召回文本检索蕴含识别และงานอื่น ๆ
| แบบอย่าง | พอร์ทัล |
|---|---|
| 【การกำกับดูแล】ภาพรวม | [ที่นี่] |
| 【การกำกับดูแล】 pointwise (หอเดี่ยว) | [ที่นี่] |
| 【การกำกับดูแล】 DSSM (Twin Towers) | [ที่นี่] |
| 【การกำกับดูแล】ประโยคเบิร์ต (Twin Towers) | [ที่นี่] |
| 【ไม่ได้รับการดูแล】 simcse | [ที่นี่] |
แยกข้อมูลเป้าหมายจากย่อหน้าข้อความที่กำหนดซึ่งส่วนใหญ่ใช้สำหรับงาน
命名实体识别(NER),实体关系抽取(RE)ฯลฯ
| แบบอย่าง | พอร์ทัล |
|---|---|
| การสกัดข้อมูลจักรวาล (UIE) | [ที่นี่] |
ด้วยการออกแบบเทมเพลตที่รวดเร็วเราสามารถบรรลุผลลัพธ์ที่ดีขึ้นในรูปแบบที่ผ่านการฝึกฝนโดยใช้ข้อมูลจำนวนน้อยและส่วนใหญ่จะใช้สำหรับ:
Few-Shot,Zero-Shotและงานอื่น ๆ
| แบบอย่าง | พอร์ทัล |
|---|---|
| PET (ขึ้นอยู่กับวิธีการกำหนดรูปแบบ Propt ด้วยตนเอง) ด้วยตนเอง) | [ที่นี่] |
| P-tuning (วิธีการสำหรับเครื่องเพื่อเรียนรู้รูปแบบ Propt โดยอัตโนมัติ) | [ที่นี่] |
จัดประเภทข้อความที่กำหนดซึ่งส่วนใหญ่ใช้สำหรับ:
情感识别文章分类识别และงานอื่น ๆ
| แบบอย่าง | พอร์ทัล |
|---|---|
| bert-cls (ตัวแยกประเภทที่ใช้ Bert) | [ที่นี่] |
RLHF (การเรียนรู้การเสริมแรงจากข้อเสนอแนะของมนุษย์) ใช้การเรียนรู้การเสริมแรง (RL) เพื่ออัปเดตโมเดลการสร้างภาษา (LM) ผ่านข้อเสนอแนะของมนุษย์ดังนั้นจึงบรรลุผลลัพธ์การสร้างที่ดีขึ้น (ตัวอย่างตัวแทน: chatgpt); มักจะมีสองขั้นตอน: การฝึกอบรม
奖励模型(Reward Model)และการฝึกอบรม强化学习(Reinforcement Learning)
| แบบอย่าง | พอร์ทัล |
|---|---|
| RLHF (การฝึกอบรมแบบจำลองรางวัล, การอัปเดต PPO GPT2) | [ที่นี่] |
การสร้างข้อความ (NLG) มักจะใช้สำหรับ:
小说续写,智能问答,对话机器人และงานอื่น ๆ
| แบบอย่าง | พอร์ทัล |
|---|---|
| รุ่นถาม-ตอบภาษาจีน (อิง T5) | [ที่นี่] |
| โมเดลการเติม (อิง T5) | [ที่นี่] |
การสร้างรูปแบบพรอมต์แบบศูนย์ขนาดใหญ่ (LLM) ที่จำเป็นในการแก้ปัญหาหลายงาน
| แบบอย่าง | พอร์ทัล |
|---|---|
| การจำแนกประเภทข้อความ (อิง chatglm-6b) | [ที่นี่] |
| การจับคู่ข้อความ (chatglm-6b-based) | [ที่นี่] |
| การแยกข้อมูล (chatglm-6b-based) | [ที่นี่] |
| การทดสอบบุคลิกภาพแบบจำลองขนาดใหญ่ (LLMS MBTI) | [ที่นี่] |
การฝึกอบรมแบบจำลองขนาดใหญ่นั้นเกี่ยวข้องกับมันครอบคลุมการฝึกอบรมก่อนการสอนการปรับแต่งแบบจำลองรางวัลและการเรียนรู้การเสริมแรง
| แบบอย่าง | พอร์ทัล |
|---|---|
| chatglm-6b finetune | [ที่นี่] |
| ฝึกอบรมรุ่นใหญ่ตั้งแต่เริ่มต้น | [ที่นี่] |
คอลเลกชันเครื่องมือทั่วไปบางอย่าง
| ชื่อเครื่องมือ | พอร์ทัล |
|---|---|
| Tokenizer Viewer | [ที่นี่] |