크로스 도메인 언어 모델링, ACL 2019 용지 코드를 사용한 크로스 도메인 NER.
NER은 NLP의 기본 작업입니다. 라벨이 붙은 자원의 제한으로 인해 Cross-Domain NER은 어려운 작업이었습니다. 대부분의 이전 작업은 감독 된 시나리오에 중점을 두어 소스 및 대상 도메인 모두에 대해 레이블이 붙은 데이터를 사용합니다. 그러한 설정의 단점은 데이터가 표시되지 않은 도메인을 훈련시킬 수 없다는 것입니다.
우리는 Cross-Domain LM을 NER 도메인 적응을위한 브리지 크로스 도메인으로 사용 하여이 문제를 해결합니다. 새로운 매개 변수 생성 네트워크를 설계하여 크로스 작업 및 크로스 도메인 전송을 수행합니다.
CBS Scitech News Dataset 에 대한 실험에 따르면 우리 모델은 감독되지 않은 도메인 적응을 효과적으로 허용 할 수 있으며, 완전히 다른 엔터티 유형을 갖는 도메인간에 감독 된 도메인 적응을 도출 할 수도 있습니다 (즉, 뉴스 대 생물 의학).
단일 작업 모델 (종이의 STM )의 순진한 기준선은 대부분 NCRF ++를 따랐습니다.
자세한 내용은 논문을 참조하십시오.
크로스 도메인 언어 모델링을 사용하는 크로스 도메인 NER
Chen Jia, Xiaobo Liang 및 Yue Zhang*
(* 해당 저자)
ACL 2019
Python 2 or 3
PyTorch 0.3
하나의 GPU의 메모리는 모델에 맞게 8GB 이상이어야합니다.
장갑 100 차원 단어 벡터 ( 여기 에서 인용).
Conll-2003 English NER 데이터.
도메인 원시 데이터는 Conll-2003 데이터 세트와 함께 해제됩니다.
Scitech News 도메인 원시 데이터 다운로드.
로이터 뉴스 도메인 원시 데이터 다운로드.
supervised_domain_adaptation , unsupervised_domain_adaptation 및 combined_SDA_and_UDA 다음 명령을 사용하여 실행할 수 있습니다.
python main.py --config train.NER.config
File train.NER.config 에는 NCRF ++에 따른 데이터 세트 경로와 모델 하이퍼 파라미터가 포함되어 있습니다.
당사의 데이터 또는 코드를 사용하는 경우 다음과 같이 논문을 인용하십시오.
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDA 의 감독 시나리오와 감독되지 않은 시나리오를 결합합니다.supervised_domain_adaptation 의 이전 감독 시나리오;unsupervised_domain_adaptation 의 이전 비 감독 시나리오;