Cross-Domain-Ner mit Cross-Domain-Sprachmodellierung, Code für ACL 2019 Papier.
NER ist eine grundlegende Aufgabe in NLP. Aufgrund der Begrenzung markierter Ressourcen war Cross-Domain NER eine herausfordernde Aufgabe. Die meisten früheren Arbeiten konzentrieren sich auf das überwachte Szenario und verwenden markierte Daten sowohl für Quell- als auch für Zieldomänen. Ein Nachteil einer solchen Einstellung besteht darin, dass sie nicht für Domänen trainieren können, die keine markierten Daten haben.
Wir befassen dieses Problem und verwenden Cross-Domain LM als Brücken-Cross-Domains für die Anpassung der NER-Domänen. Durchführung von Cross-Task- und Cross-Domänen-Transfer durch Gestaltung eines neuartigen Netzwerks für Parametergenerierung .
Experimente zu CBS Scitech News -Datensatz zeigen, dass unser Modell effektiv eine unbeaufsichtigte Anpassung der Domänen ermöglichen und gleichzeitig die Anpassung der Domänen zwischen Domänen mit völlig unterschiedlichen Entitätstypen abgeleitet und auch die überbiente Domänenanpassungen abgeben kann (dh News vs. Biomedical).
Die naive Grundlinie des Einzelaufgabenmodells ( STM in Papier) folgte meist NCRF ++.
Weitere Informationen finden Sie in unserem Artikel:
Cross-Domänen-Ner mit Cross-Domain-Sprachmodellierung
Chen Jia, Xiaobo Liang und Yue Zhang*
(* Entsprechender Autor)
ACL 2019
Python 2 or 3
PyTorch 0.3
Der Gedächtnis einer GPU sollte nicht weniger als 8 GB für das Modell anpassen.
Handschuh 100-dimensionswort Vektoren (von hier aus zitieren).
CONLL-2003 ENGLISH NER DATEN.
Retures Domain-Rohdaten werden zusammen mit dem Conll-2003-Datensatz veröffentlicht.
Scitech News Domain Rohdaten Download.
Reuters News Domain Rohdaten Download.
supervised_domain_adaptation , unsupervised_domain_adaptation und combined_SDA_and_UDA können den folgenden Befehl verwenden, um es auszuführen.
python main.py --config train.NER.config
Die Datei train.NER.config enthält Datensatzpfad- und Modellhyperparameter nach NCRF ++.
Wenn Sie unsere Daten oder unseren Code verwenden, zitieren Sie bitte unser Papier wie folgt:
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDA .supervised_domain_adaptation ;unsupervised_domain_adaptation ;