クロスドメイン言語モデリングを使用したクロスドメインNER、ACL 2019ペーパーのコード。
NERはNLPの基本的なタスクです。ラベル付きのリソースの制限により、クロスドメインNERは挑戦的な作業でした。以前の作業のほとんどは、ソースドメインとターゲットドメインの両方にラベル付けされたデータを使用して、監視されたシナリオに集中しています。このような設定の欠点は、ラベルが付いていないドメインのためにトレーニングできないことです。
この問題に対処し、CrossドメインLMをNERドメイン適応のためのブリッジクロスドメインとして使用します。新しいパラメーター生成ネットワークを設計することにより、クロスタスクとクロスドメイン転送を実行します。
CBS Scitech News Datasetの実験では、モデルが監視されていないドメインの適応を効果的に可能にすることができることを示していますが、完全に異なるエンティティタイプを持つドメイン間の監視されたドメイン適応を導き出すこともできます(つまり、ニュース対バイオメディカル)。
単一タスクモデル(紙のSTM )の素朴なベースラインは、ほとんどNCRF ++に続きました。
詳細については、私たちの論文を参照してください。
クロスドメイン言語モデリングを使用したクロスドメインner
チェン・ジア、Xiaobo Liang、Yue Zhang*
(*対応する著者)
ACL 2019
Python 2 or 3
PyTorch 0.3
1つのGPUのメモリは、モデルに適合するために8GB以上である必要があります。
グローブ100次元ワードベクトル(ここから引用)。
CONLL-2003英語NERデータ。
RETURESドメインRAWデータは、CONLL-2003データセットとともにリリースされます。
Scitech Newsドメイン生データのダウンロード。
ロイターニュースドメイン生データのダウンロード。
supervised_domain_adaptation 、 unsupervised_domain_adaptation 、 combined_SDA_and_UDA次のコマンドを使用して実行することができます。
python main.py --config train.NER.config
ファイルtrain.NER.configには、NCRF ++に続くデータセットパスとモデルハイパーパラメーターが含まれています。
データまたはコードを使用する場合は、次のように論文を引用してください。
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDAの教師されたシナリオと監視されていないシナリオを組み合わせます。supervised_domain_adaptationの以前の監視されたシナリオ。unsupervised_domain_adaptationの以前の監視なしシナリオ。