Междоменное NER Использование моделирования междоменного языка, код для ACL 2019 Paper.
NER - фундаментальная задача в NLP. Из-за ограничения маркированных ресурсов, Cross Domain Ner был сложной задачей. Большая часть предыдущей работы концентрируется на сценарии надзора, используя помеченные данные как для источника, так и для целевых доменов. Недостатком такой настройки является то, что они не могут тренироваться для доменов, которые не имеют помеченных данных.
Мы решаем эту проблему, используя междоменную LM в качестве кросс-доменов моста для адаптации домена NER. Выполнение перекрестной задачи и перекрестной передачи путем разработки новой сети генерации параметров .
Эксперименты по набору данных новостей CBS SCITECH показывают, что наша модель может эффективно разрешать неконтролируемую адаптацию доменов, а также может получить адаптацию контролируемой домены между доменами с совершенно разными типами сущностей (IE News против Biomedical).
Наивная базовая линия модели единой задачи ( STM в бумаге) в основном следовала NCRF ++.
Для получения более подробной информации, пожалуйста, обратитесь к нашей статье:
Поперечное моделирование по междоменному языку
Чен Цзя, Сяобо Лян и Юэ Чжан*
(* Автор -корреспондент)
ACL 2019
Python 2 or 3
PyTorch 0.3
Память одного графического процессора должна быть не менее 8 ГБ, чтобы соответствовать модели.
Перчатки 100-мерные векторы слов (цитируйте отсюда ).
CONLL-2003 Английские данные NER.
Отстаивает Domain Raw Data выпускается вместе с набором данных CONLL-2003.
Scitech News Domain Raw Data Download.
REUTERS NEWS DOMEN DATA DATA скачать.
supervised_domain_adaptation , unsupervised_domain_adaptation и combined_SDA_and_UDA может использовать следующую команду, чтобы она запустила.
python main.py --config train.NER.config
File train.NER.config содержит путь набора данных и гиперпараметры модели после NCRF ++.
Если вы используете наши данные или код, пожалуйста, укажите нашу статью следующим образом:
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDA .supervised_domain_adaptationunsupervised_domain_adaptation ;