基於transformers的自然語言處理(NLP)入門
Natural Language Processing with transformers. 本項目面向的對像是:
- NLP初學者、transformer初學者
- 有一定的python、pytorch編程基礎
- 對前沿的transformer模型感興趣
- 了解和知道簡單的深度學習模型
本項目的願景是:
希望結合形像生動的原理講解和多個動手實踐項目,幫助初學者快速入門深度學習時代的NLP。
本項目的主要參考資料是:
- Huggingface/Transformers代碼庫
- 多個優秀的Transformer講解和分享
項目成員:
- erenup(多多筆記),北京大學,負責人
- 張帆,Datawhale,天津大學,篇章4
- 張賢,哈爾濱工業大學,篇章2
- 李濼秋,浙江大學,篇章3
- 蔡杰,北京大學,篇章4
- hlzhang,麥吉爾大學,篇章4
- 台運鵬篇章2
- 張紅旭篇章2
本項目總結和學習了多篇優秀文檔和分享,在各個章節均有標註來源,如有侵權,請及時聯繫項目成員,謝謝。去Github點完Star再學習事半功倍哦?,謝謝。
項目內容
篇章1-前言
- 1.0-本地閱讀和代碼運行環境配置.md
- 1.1-Transformers在NLP中的興起
篇章2-Transformer相關原理
- 2.1-圖解attention
- 2.2-圖解transformer
- 2.2.1-Pytorch編寫Transformer.md
- 2.2.2-Pytorch編寫Transformer-選讀.md
- 2.3-圖解BERT
- 2.4-圖解GPT
- 2.5-篇章小測
篇章3-編寫一個Transformer模型:BERT
- 3.1-如何實現一個BERT
- 3.2-如何應用一個BERT
- 3.3-篇章小測
篇章4-使用Transformers解決NLP任務
- 4.0-前言
- 4.1-文本分類
- 4.2-序列標註
- 4.3-問答任務-抽取式問答
- 4.4-問答任務-多選問答
- 4.5-生成任務-語言模型
- 4.6-生成任務-機器翻譯
- 4.7-生成任務-摘要生成
- 4.8-篇章小測