Ner inter-domaine à l'aide de la modélisation du langage inter-domaine, code pour le papier ACL 2019.
NER est une tâche fondamentale dans la PNL. En raison de la limitation des ressources étiquetées, le Ner inter-domaine a été une tâche difficile. La plupart des travaux antérieurs se concentrent sur le scénario supervisé, utilisant des données étiquetées pour les domaines source et cible. Un inconvénient d'un tel paramètre est qu'ils ne peuvent pas s'entraîner pour des domaines qui n'ont pas de données étiquetées.
Nous abordons ce problème, en utilisant le Domain Cross-Domain comme un domaine croisé de pont pour l'adaptation du domaine NER. Effectuer un transfert de tâches et de domaines croisés en concevant un nouveau réseau de génération de paramètres .
Les expériences sur le jeu de données CBS Scitech News montrent que notre modèle peut permettre efficacement l'adaptation du domaine non supervisé, tout en dérivant l'adaptation du domaine supervisé entre les domaines avec des types d'entités complètement différents (IE News vs Biomedical).
La ligne de base naïve du modèle unique ( STM dans le papier) a principalement suivi NCRF ++.
Pour plus de détails, veuillez consulter notre article:
Ner inter-domaine en utilisant la modélisation du langage inter-domaine
Chen Jia, Xiaobo Liang et Yue Zhang *
(* Auteur correspondant)
ACL 2019
Python 2 or 3
PyTorch 0.3
La mémoire d'un GPU ne doit pas être inférieure à 8 Go pour s'adapter au modèle.
GLANT VECTEURS DE MOTS DE LA DIMENDENCE (citez d' ici ).
Conll-2003 données anglaises NER.
Rétraction Les données brutes du domaine sont publiées avec l'ensemble de données CONLL-2003.
Scitech News Domain Raw Data Download.
Reuters News Domain Raw Data Download.
supervised_domain_adaptation , unsupervised_domain_adaptation et combined_SDA_and_UDA peut utiliser la commande suivante pour la faire s'exécuter.
python main.py --config train.NER.config
Le fichier train.NER.config contient un chemin de données et des hyperparamètres de modèle suivant NCRF ++.
Si vous utilisez nos données ou notre code, veuillez citer notre article comme suit:
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDA .supervised_domain_adaptation ;unsupervised_domain_adaptation ;