トランスベースの自然言語処理(NLP)を始めましょう
変圧器による自然言語処理。このプロジェクトのオブジェクトは次のとおりです。
- NLP初心者、トランスの初心者
- PythonとPytorchの特定の基本的なプログラミングがあります
- 最先端の変圧器モデルに興味があります
- 簡単な深い学習モデルを理解し、知っています
このプロジェクトのビジョンは次のとおりです。
原則と複数の実践的な実践的なプロジェクトの鮮明な説明を組み合わせて、初心者が深い学習時代にNLPを迅速に始めるのを支援したいと考えています。
このプロジェクトの主な参考資料は次のとおりです。
- Huggingface/Transformersコードライブラリ
- 多くの優れた変圧器が説明し、共有しています
プロジェクトメンバー:
- Erenup(Duoduo Notes)、北京大学、担当者
- Zhang Fan、Datawhale、Tianjin University、第4章
- Zhang Xian、Harbin Institute of Technology、第2章
- Li Liqiu、Zhijiang University、第3章
- Cai Jie、北京大学、第4章
- Hlzhang、McGill University、第4章
- 台湾Yunpeng第2章
- Zhang Hongxuの第2章
このプロジェクトは、多くの優れた文書と共有を要約して研究し、各章で情報源をマークしました。侵害がある場合は、時間内にプロジェクトメンバーに連絡してください。ありがとう。 Githubにアクセスして星をクリックして、半分の努力で詳細を学びますか?ありがとう。
プロジェクトコンテンツ
第1章 - 序文
- 1.0ローカルリーディングおよびコード実行環境Configuration.md
- 1.1- NLPの変圧器の上昇
第2章関連するトランスの原則
- 2.1イロラストの注意
- 2.2-グラフィックトランス
- 2.2.1-Pytorch Writing Transformer.md
- 2.2.2-Pytorch Writing Transformer-OptionalReading.md
- 2.3イロシル化されたバート
- 2.4グラフィックGPT
- 2.5章テスト
第3章 - 変圧器モデルの書き込み:Bert
- 3.1バートを実装する
- 3.2バートを適用するために
- 3.3章テスト
第4章 - 変圧器を使用して、NLPタスクを解決します
- 4.0-前語
- 4.1テキスト分類
- 4.2シーケンス標識
- 4.3-Q&Aタスク抽出Q&A
- 4.4-Q&aタスクマルチプライスの選択の質問と回答
- 4.5世代のタスク言語モデル
- 4.6ジェネートタスクマシン翻訳
- 4.7世代のタスクスマリー生成
- 4.8章テスト