ข้ามโดเมนโดยใช้การสร้างแบบจำลองภาษาข้ามโดเมนรหัสสำหรับกระดาษ ACL 2019
ner เป็นงานพื้นฐานใน NLP เนื่องจากข้อ จำกัด ของทรัพยากรที่มีป้ายกำกับ Cross-Domain Ner จึงเป็นงานที่ท้าทาย งานก่อนหน้านี้ส่วนใหญ่มุ่งเน้นไปที่สถานการณ์ภายใต้การดูแลใช้ประโยชน์จากข้อมูลที่ติดฉลากสำหรับโดเมนทั้งแหล่งที่มาและเป้าหมาย ข้อเสียของการตั้งค่าดังกล่าวคือพวกเขาไม่สามารถฝึกอบรมสำหรับโดเมนที่ไม่มีข้อมูลที่มีป้ายกำกับ
เราแก้ไขปัญหานี้โดยใช้ Cross-Domain LM เป็นสะพานข้ามโดเมนสำหรับการปรับโดเมน NER การถ่ายโอนข้ามงานและการถ่ายโอนข้ามโดเมนโดยการออกแบบ เครือข่ายการสร้างพารามิเตอร์ ใหม่
การทดลองเกี่ยวกับ ชุดข้อมูลข่าว CBS Scitech แสดงให้เห็นว่าแบบจำลองของเราสามารถอนุญาตให้ปรับตัวโดเมนที่ไม่ได้รับการดูแลได้อย่างมีประสิทธิภาพในขณะที่ยังสามารถรับการปรับตัวของโดเมนภายใต้การดูแลระหว่างโดเมนที่มีประเภทเอนทิตีที่แตกต่างกันอย่างสิ้นเชิง (เช่นข่าวเทียบกับชีวการแพทย์)
พื้นฐานที่ไร้เดียงสาของโมเดลงานเดียว ( STM ในกระดาษ) ส่วนใหญ่เป็นไปตาม NCRF ++
สำหรับรายละเอียดเพิ่มเติมโปรดดูเอกสารของเรา:
ข้ามโดเมนโดยใช้การสร้างแบบจำลองภาษาข้ามโดเมน
Chen Jia, Xiaobo Liang และ Yue Zhang*
(* ผู้เขียนที่เกี่ยวข้อง)
ACL 2019
Python 2 or 3
PyTorch 0.3
หน่วยความจำของ GPU หนึ่งตัวไม่ควรน้อยกว่า 8GB เพื่อให้พอดีกับรุ่น
ถุงมือ 100 มิติคำเวกเตอร์ (อ้างอิงจาก ที่นี่ )
Conll-2003 ข้อมูลภาษาอังกฤษ
RETURE DOMAIN RAW DATA จะถูกปล่อยออกมาพร้อมกับชุดข้อมูล CONLL-2003
Scitech News Domain Data Raw Data
การดาวน์โหลดข้อมูลดิบของสำนักข่าวรอยเตอร์
supervised_domain_adaptation , unsupervised_domain_adaptation และ combined_SDA_and_UDA สามารถใช้คำสั่งต่อไปนี้เพื่อให้ทำงานได้
python main.py --config train.NER.config
ไฟล์ train.NER.config มีพา ธ ชุดข้อมูลและโมเดล hyperparameters ตาม NCRF ++
หากคุณใช้ข้อมูลหรือรหัสของเราโปรดอ้างอิงบทความของเราดังนี้:
@inproceedings{jia2019cross,
title={Cross-domain ner using cross-domain language modeling},
author={Jia, Chen and Liang, Xiaobo and Zhang, Yue},
booktitle={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
pages={2464--2474},
year={2019}
organization={Association for Computational Linguistics}
}
combined_SDA_and_UDAsupervised_domain_adaptation ;unsupervised_domain_adaptation ;