
このプロジェクトは、Transformers Libraryに基づいて実装されたさまざまなNLPタスクを統合します。
Huggingface Transformersは、非常に便利なロード/トレーニングトランスモデルをサポートする非常に優れたオープンソースフレームワークです。ここでライブラリのインストール方法とエントリーレベルの呼び出しを見ることができます。ライブラリは、ユーザーをサポートして、モデルを非常に便利に微調整することもできます。
このプロジェクトでは、いくつかの主流のNLPタスクを統合しました。対応するタスクを見つけて、コードの训练数据集你自己任务下的数据集置き換えて、独自のタスクに一致するモデルをトレーニングできます。
実装されたNLPタスクは次のとおりです(更新):
テキスト間の類似性を計算し、主に使用されます:
搜索召回、文本检索、蕴含识别、その他のタスク。
| モデル | ポータル |
|---|---|
| 【監督】概要 | [ここ] |
| 【監督】ポイントワイズ(シングルタワー) | [ここ] |
| 【監督】DSSM(ツインタワー) | [ここ] |
| 【監督】文章(ツインタワー) | [ここ] |
| cor教師なし】simcse | [ここ] |
特定のテキスト段落からターゲット情報を抽出します。これは、主に名前付きエンティティ認識(NER)、
实体关系抽取(RE)など命名实体识别(NER)タスクに使用されます。
| モデル | ポータル |
|---|---|
| 宇宙情報抽出(UIE) | [ここ] |
プロンプトテンプレートを設計することにより、少量のデータを使用して、前処理モデルでより良い結果を得ることができ、ほとんどが
Few-Shot、Zero-Shot、その他のタスクに使用されます。
| モデル | ポータル |
|---|---|
| PET(プロップパターンを手動で定義する方法に基づく) | [ここ] |
| p-tuning(プロップパターンを自動的に学習するマシンの方法) | [ここ] |
特定のテキストを分類します。これは、主に
情感识别、文章分类识别、その他のタスクに使用されます。
| モデル | ポータル |
|---|---|
| bert-cls(bertベースの分類子) | [ここ] |
RLHF(人間のフィードバックからの強化学習)は、強化学習(RL)を使用して、人間のフィードバックを通じて言語生成モデル(LM)を更新し、それによってより良い生成結果を達成します(代表例:ChatGPT)。通常、2つの段階が含まれます。
奖励模型(Reward Model)トレーニングと强化学习(Reinforcement Learning)トレーニング。
| モデル | ポータル |
|---|---|
| RLHF(報酬モデルトレーニング、PPO更新GPT2) | [ここ] |
テキスト生成(NLG)、通常使用されます:
小说续写、智能问答、对话机器人、その他のタスク。
| モデル | ポータル |
|---|---|
| 中国のQ&Aモデル(T5ベース) | [ここ] |
| 充填モデル(T5ベース) | [ここ] |
複数のタスクを解決するために必要な大きなモデル(LLM)ゼロショットプロンプトパターンを構築します。
| モデル | ポータル |
|---|---|
| テキスト分類(chatglm-6bベース) | [ここ] |
| テキストマッチング(chatglm-6bベース) | [ここ] |
| 情報抽出(ChatGlm-6Bベース) | [ここ] |
| ビッグモデルパーソナリティテスト(LLMS MBTI) | [ここ] |
大規模なモデルトレーニングはそれに関連しており、トレーニング前、指導の微調整、報酬モデル、および強化学習をカバーしています。
| モデル | ポータル |
|---|---|
| Chatglm-6b Finetune | [ここ] |
| 大規模なモデルをゼロからトレーニングします | [ここ] |
いくつかの一般的なツールコレクション。
| ツール名 | ポータル |
|---|---|
| トークンザービューア | [ここ] |