Cross Domain_NER
1.0.0
使用跨域语言建模,ACL 2019论文代码的跨域NER。
NER是NLP的基本任务。由于标记的资源的限制,跨域NER一直是一项具有挑战性的任务。以前的大多数工作都集中在监督场景上,利用用于源和目标域的标记数据。这种设置的缺点是他们无法训练没有标记数据的域。
我们使用跨域LM作为NER域适应性的桥梁交叉域解决了这个问题。通过设计新型参数生成网络来执行交叉任务和跨域转移。
CBS Scitech新闻数据集的实验表明,我们的模型可以有效地允许无监督的域适应,同时也可以在具有完全不同实体类型的域之间引导监督域的适应性(即新闻与生物医学)。
单个任务模型的天真基线(纸上的STM )主要遵循NCRF ++。
有关更多详细信息,请参阅我们的论文:
使用跨域语言建模的跨域NER
Chen Jia,Xiaobo Liang和Yue Zhang*
(*通讯作者)
ACL 2019
Python 2 or 3
PyTorch 0.3
一个GPU的内存应不少于8GB,以适合该模型。
手套100维单词向量(从这里引用)。
CONLL-2003英语NER数据。
retures域原始数据与CONLL-2003数据集一起释放。
Scitech新闻域原始数据下载。
路透社新闻领域原始数据下载。
supervised_domain_adaptation , unsupervised_domain_adaptation和combined_SDA_and_UDA可以使用以下命令使其运行。
python main.py --config train.NER.config
文件train.NER.config在NCRF ++之后包含数据集路径和模型超参数。
如果您使用我们的数据或代码,请引用我们的论文如下:
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDA中结合监督场景和无监督的方案。supervised_domain_adaptation中的先前监督场景;unsupervised_domain_adaptation中的以前的无监督场景;