NER de dominio cruzado utilizando modelado de lenguaje de dominio cruzado, código para el documento de ACL 2019.
NER es una tarea fundamental en PNL. Debido a la limitación de los recursos etiquetados, el NER de dominio cruzado ha sido una tarea desafiante. La mayoría del trabajo anterior se concentra en el escenario supervisado, haciendo uso de datos etiquetados para dominios de origen y objetivo. Una desventaja de tal configuración es que no pueden entrenar para dominios que no tienen datos etiquetados.
Abordamos este problema, utilizando LM de dominio cruzado como un puente cruzado para la adaptación del dominio NER. Realización de tareas cruzadas y transferencia de dominio cruzado mediante el diseño de una nueva red de generación de parámetros .
Los experimentos en el conjunto de datos de noticias de CBS Scitech muestran que nuestro modelo puede permitir efectivamente la adaptación del dominio no supervisada, al tiempo que puede derivar la adaptación de dominio supervisada entre dominios con tipos de entidades completamente diferentes (es decir, noticias versus biomédicas).
La línea de base ingenua del modelo de tarea única ( STM en papel) siguió principalmente a NCRF ++.
Para más detalles, consulte nuestro documento:
NER de dominio cruzado con modelado de lenguaje de dominio cruzado
Chen Jia, Xiaobo Liang y Yue Zhang*
(* Autor correspondiente)
ACL 2019
Python 2 or 3
PyTorch 0.3
La memoria de una GPU no debe ser menos de 8 GB para adaptarse al modelo.
Glove Vectores de palabras de 100 dimensiones (cita desde aquí ).
Conll-2003 Datos de inglés en inglés.
Redures Domain RAW Datos se lanzan junto con el conjunto de datos Conll-2003.
Descarga de datos sin procesar del dominio de noticias Scitech.
Descarga de datos sin procesar del dominio de noticias de Reuters.
supervised_domain_adaptation , unsupervised_domain_adaptation y combined_SDA_and_UDA puede usar el siguiente comando para que se ejecute.
python main.py --config train.NER.config
El archivo train.NER.config contiene la ruta del conjunto de datos y los hiperparámetros del modelo después de NCRF ++.
Si usa nuestros datos o código, cite nuestro documento de la siguiente manera:
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDA .supervised_domain_adaptation ;unsupervised_domain_adaptation ;