Fantastische Beziehungsextraktion

Eine kuratierte Liste großartiger Ressourcen, die sich der Beziehungsextraktion widmen, inspiriert von Awesome-NLP und Awesome-Deep-Vision.
Beitrag : Bitte zögern Sie nicht, Pull -Anfragen zu stellen.
Inhalt
- Forschungstrends und Umfragen
- Papiere
- Überlebte Ansätze
- Entfernte Überwachungsansätze
- GNN-basierte Modelle
- Sprachmodelle
- Encoderdarstellung aus Transformator
- Decoderdarstellung aus Transformator
- Wissensgrafikbasierte Ansätze
- Wenige Lernansätze
- Datensätze
- Videos und Vorträge
- Systeme
- Frameworks
Forschungstrends und Umfragen
- NLP -Fortschritt: Beziehungsextraktion
- Genannte Entitätserkennung und Beziehungsextraktion: Stand der Technik (Nasar et al., 2021)
- Eine Übersicht über tiefe Lernmethoden zur Beziehungsextraktion (Kumar, 2017)
- Eine Umfrage zur Beziehungsextraktion (Bach und Badaskar, 2017)
- Beziehungsextraktion: Eine Umfrage (Pawar et al., 2017)
- Eine Überprüfung zur Entitätsbeziehungsextraktion (Zhang et al., 2017)
- Überprüfung der Beziehungenextraktionsmethoden: Was ist neu da draußen? (Konstantinova et al., 2014)
- 100 bester Github: Beziehungsextraktion
Papiere
Überlebte Ansätze
CNN-basierte Modelle
- Faltung Neurales Netzwerk für die Beziehungsextraktion [Papier] [Code] [Überprüfung]
- Chunyang Liu, Wenbo Sun, Wenhan Chao und Wanxiang Che
- ADMA 2013
- Beziehungklassifizierung über Faltungsstufe Deep Neural Network [Papier] [Code] [Überprüfung]
- Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou und Jun Zhao
- Coling 2014
- Beziehungsextraktion: Perspektive aus Faltungsnetzwerken [Papier] [Code] [Überprüfung]
- Thien Huu Nguyen und Ralph Grishman
- NAACL 2015
- Klassifizierung von Beziehungen durch Rangliste mit Faltungsnetzwerken [Papier] [Code]
- Cicero Nogueira dos Santos, Bing Xiang und Bowen Zhou
- ACL 2015
- Aufmerksamkeitsbasiertes Faltungsnetzwerk für die semantische Beziehungsextraktion [Papier] [Code]
- Yatian Shen und Xuanjing Huang
- Coling 2016
- Beziehungklassifizierung über Multi-Level-Aufmerksamkeit CNNs [Papier] [Code]
- Linlin Wang, Zhu Cao, Gerard de Melo und Zhiyuan Liu
- ACL 2016
- MIT bei Semeval-2017 Aufgabe 10: Beziehungsextraktion mit Faltungsnetzwerken [Papier]
- Ji Young Lee, Franck Dernoncourt und Peter Szolovits
- Semeval 2017
RNN-basierte Modelle
- Beziehungklassifizierung über wiederkehrendes neuronales Netzwerk [Papier]
- Dongxu Zhang und Dong Wang
- Arxiv 2015
- Bidirektionale Langzeit-Kurzzeitgedächtnisnetzwerke für die Beziehungsklassifizierung [Papier]
- Shu Zhang, Dequan Zheng, Xinchen Hu und Ming Yang
- Paclic 2015
- End-to-End-Beziehungsextraktion unter Verwendung von LSTMS auf Sequenzen und Baumstruktur [Papier]
- Makoto Miwa und Mohit Bansal
- ACL 2016
- Aufmerksamkeitsbasierte bidirektionale Langzeit-Kurzzeit-Speicher-Netzwerke für die Beziehungsklassifizierung [Papier] [Code]
- Peng Zhou, Wei Shi, Jun Tian, Zhenyu Qi, Bingchen Li, Hongwei Hao und Bo Xu
- ACL 2016
- Semantische Beziehung Klassifizierung über hierarchische wiederkehrende neuronale Netze mit Aufmerksamkeit [Papier]
- Minguang Xiao und Cong Liu
- Coling 2016
- Semantische Beziehungsklassifizierung über bidirektionale LSTM-Netzwerke mit Entitätsbewusstsein unter Verwendung von Latent Entity Typing [Papier] [Code]
- Joohong Lee, Sangwoo Seo und Yong Suk Choi
- Arxiv 2019
Abhängigen basierte Modelle
- Semantische Kompositionalität durch rekursive Matrix-Vektorräume [Papier] [Code]
- Richard Socker, Brody Huval, Christopher D. Manning und Andrew Y. Ng
- EMNLP-Conll 2012
- Faktorbasierte Kompositionsbettungsmodelle für Kompositionen [Papier]
- Mo Yu, Matthw R. Gormley und Mark Dredze
- NIPS Workshop zum Lernen von Semantik 2014
- Ein abhängig basierendes neuronales Netzwerk für die Beziehungsklassifizierung [Papier]
- Yang Liu, Furu Wei, Sujian Li, Heng Ji, Ming Zhou und Houfg Wang
- ACL 2015
- Klassifizieren von Beziehungen über lange kurzfristige Speichernetzwerke auf dem kürzesten Abhängigkeitspfad [Papier] [Code]
- Xu Yan, Lili Mou, Ge Li, Yunchuan Chen, Hao Peng und Zhi Jin
- EMNLP 2015
- Semantische Beziehungsklassifizierung über Faltungsnetzwerke mit einfacher negativer Abtastung [Papier]
- Kun Xu, Yansong Feng, Songfang Huang und Dongyaner Zhao
- EMNLP 2015
- Verbesserte Beziehungsklassifizierung durch tiefe wiederkehrende neuronale Netze mit Datenvergrößerung [Papier]
- Yan Xu, Ran Jia, Lili Mou, Ge Li, Yunchuan Chen, Yangyang Lu und Zhi Jin
- Coling 2016
- Bidirektional rezidivierende Faltungsnetzwerk für die Beziehungsklassifizierung [Papier]
- Rui Cai, Xiaodong Zhang und Houfg Wang
- ACL 2016
- Neuronale Beziehungsextraktion durch Rauschenreduzierung und Übertragungslernen von Innen- und Vernunft [Papier]
- Tianyi Liu, Xinsong Zhang, Wanhao Zhou, Weijia Jia
- EMNLP 2018
GNN-basierte Modelle
- Übereinstimmung mit den Leerzeichen: Verteilungsähnlichkeit für das Lernen von Beziehungen [Papier]
- Livio Baldini Soares, Nicholas Fitzgerald, Jeffrey Ling, Tom Kwiatkowski
- ACL 2019
- Beziehung der Beziehungen: Ein neues Paradigma des Problems zur Beziehungsextraktion [Papier]
- Zhijing Jin, Yongyi Yang, Xipeng Qiu, Zheng Zhang
- EMNLP 2020
- GDPNET: Latente Multi-View-Diagramm für die Beziehungsextraktion [Papier] [Code]
- Fuzhao Xue, Aixin Sun, Hao Zhang, Eng Siong Chng
- AAAI 21
- Recon: Beziehungsextraktion unter Verwendung des Wissensgrafikkontexts in einem Diagramm neuronales Netzwerk [Parer] [Code]
- Anson Bastos, Abhishek Nadgeri, Kuldeep Singh, Isaiah Onando Mulang ', Saeeedeh Shekarpour, Johannes Hoffart, Manohar Kaul
- Www'21
Entfernte Überwachungsansätze
- Distanzaufsicht für die Beziehungsextraktion ohne markierte Daten [Papier] [Überprüfung]
- Mike Mintz, Steven Bills, Rion Snow und Dan Jurafsky
- ACL 2009
- Wissensbasierte schwache Überwachung zur Informationsextraktion überlappender Beziehungen [Papier] [Code]
- Raphael Hoffmann, Congle Zhang, Xiao Ling, Luke Zettlemoyer und Daniel S. Weld
- ACL 2011
- Multi-Instanz-Multi-Label-Lernen für die Beziehungsextraktion [Papier] [Code]
- Mihai Surdeanu, Julie Tibshirani, Ramesh Nallapati und Christopher D. Manning
- EMNLP-Conll 2012
- Distanzaufsicht für die Beziehungsextraktion durch stückweise Faltungsfaltungsnetzwerke [Papier] [Überprüfung] [Code]
- Daojian Zeng, Kang Liu, Yubo Chen und Jun Zhao
- EMNLP 2015
- Beziehungsextraktion mit Multi-Instanz-Multi-Label-Faltungsnetzwerken [Papier] [Überprüfung] [Code]
- Xiaotian Jiang, Quan Wang, Peng Li, Bin Wang
- Coling 2016
- Einbeziehung von Beziehungswegen in die Extraktion der neuronalen Beziehung [Papier] [Überprüfung]
- Wenyuan Zeng, Yankai Lin, Zhiyuan Liu und Maosong Sun
- EMNLP 2017
- Neuronale Beziehungsextraktion mit selektiver Aufmerksamkeit über Instanzen [Papier] [Code]
- Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan und Maosong Sun
- ACL 2017
- Lernen lokaler und globaler Kontexte unter Verwendung eines faltungsfreien Netzwerkmodells für die Beziehungsklassifizierung im biomedizinischen Text [Papier] [Code] [Code]
- Desh Raj, Sunil Kumar Sahu und Ashish Anan
- Conll 2017
- Hierarchische Beziehungsextraktion mit grob-bis-optimistischer Aufmerksamkeit [Papier] [Code]
- Xu Han, Pengfei Yu ∗, Zhiyuan Liu, Maosong Sun, Peng Li
- EMNLP 2018
- Wohnsitz: Verbesserung der weit verbreiteten neuronalen Beziehungsextraktion unter Verwendung von Seiteninformationen [Papier] [Code]
- Shikhar Vashishth, Rishabh Joshi, Sai Suman Prayaga, Chiranjib Bhattacharyya und Partha Talukdar
- EMNLP 2018
- Distanzüberwachungsbeziehungsextraktion mit Intra-Bag- und Inter-Bag-Aufmerksamkeit [Papier] [Code]
- Zhi-Xiu Ye, Zhen-Hua Ling
- Naacl 2019
Sprachmodelle
Encoderdarstellung aus Transformator
- Anreicherung des vorgeborenen Sprachmodells mit Entitätsinformationen für die Relation Classification [Papier]
- Shanchan Wu, Yifan er
- Arxiv 2019
- Lukas: Deep Contextualisierte Entitätsdarstellungen mit Entitätsbewusstsein [Papier] [Code]
- Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, Yuji Matsumoto
- EMNLP 2020
- Spanbert: Verbesserung der Vorausbildung durch Darstellung und Vorhersage von Spannweiten [Papier] [Code]
- Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer und Omer Levy
- TACL 2020 (Transaktionen des Assoziation für Computer -Linguistik)
- Effiziente Extraktion der Fernbeziehung mit DG-Spanbert [Papier]
- Jun Chen, Robert Hoehndorf, Mohamed Elhosesiny, Xiangliang Zhang
Decoderdarstellung aus Transformator
- Verbesserung der Beziehungsextraktion durch vorbereitete Sprachdarstellungen [Papier] [Überprüfung] [Code]
- Christoph Alt, Marc Hübner, Leonhard Hennig
- AKBC 19
Wissensgrafikbasierte Ansätze
- KGPOOL: Auswahl der Dynamischen Wissensgrafikkontext für die Beziehungsextraktion [Papier] [Code]
- Abhishek Nadgeri, Anson Bastos, Kuldeep Singh, Isaiah Onando Mulang, Johannes Hoffart, Saeeedeh Shekarpour und Vijay Saraswat
- ACL 2021 (Ergebnisse)
Wenige Lernansätze
- Wenige Rel: Ein groß angelegter Datensatz für die Klassifizierungsdatensatz von wenigen Schäden mit hochmoderner Bewertung [Papier] [Website] [Code]
- Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, Maosong Sun
- EMNLP 2018
Verschiedenes
- Gemeinsame Beziehungen mit Klassenbindungen über ein effektives tiefes Ranking [Papier] extrahieren
- Hai ye, Wenhan Chao, Zhunchen Luo und Zhoujun Li
- ACL 2017
- End-to-End-Extraktion der neuronalen Beziehung mit der globalen Optimierung [Papier]
- Meishan Zhang, Yue Zhang und Guohong Fu
- EMNLP 2017
- Gegentes Training für die Beziehungsextraktion [Papier]
- Yi Wu, David Bamman und Stuart Russell
- EMNLP 2017
- Ein neuronales Gelenkmodell für Entität und Beziehungsextraktion aus biomedizinischem Text [Papier]
- Fei Li, Meishan Zhang, Guohong Fu und Donghong Ji
- BMC Bioinformatics 2017
- Gelenke Extraktion von Entitäten und Beziehungen mit Verstärkungslernen und tiefem Lernen [Papier]
- Yuntian Feng, Hongjun Zhang, Hao und Gang Chen
- Journal of Computational Intelligence and Neuroscience 2017
- TDEER: Ein effizientes Übersetzungsschema für die gemeinsame Extraktion von Entitäten und Beziehungen [Papier] [Code]
- Xianming Li, Xiaotian Luo, Chenghao Dong, Daichuan Yang, Beidi Luan und Zhen HE
- EMNLP 2021
Zurück nach oben
Datensätze
- Semeval-2010 Aufgabe 8 [Papier] [Download]
- Mehrwegklassifizierung semantischer Beziehungen zwischen Nominalspaaren
- New York Times (NYT) Corpus [Papier] [Download]
- Dieser Datensatz wurde generiert, indem die Freenbase -Beziehungen mit dem NYT Corpus ausgerichtet wurden, wobei Sätze aus den Jahren 2005-2006 als Trainingskorpus und Sätze aus dem Jahr 2007 als Testkorpus verwendet wurden.
- WegeRel: Wenig-Shot-Relation-Klassifizierungsdatensatz [Papier] [Website]
- Dieser Datensatz ist ein überwachter Datensatz für die Klassifizierungsklassifizierung von wenigen Schäden. Der Korpus ist Wikipedia und die Wissensbasis zum Annotieren des Korpus ist Wikidata.
- Tacred: Der Datensatz der TAC -Beziehungxtraktion [Papier] [Website] [Download]
- Ist ein groß angelegter Datensatz für die Beziehungsextraktion mit aufgebautem Newswire und Web Text aus dem Corpus, das in den jährlichen Herausforderungen der TAC Knowledge Base Population (TAC KBP) verwendet wird.
- ACE05: [Website] [Download-Info]
- Dieser Datensatz repräsentiert Texte, die aus einer Vielzahl von Quellen extrahiert wurden: Broadcast Conversation, Broadcast News, Newsgroups, Weblogs. Die 6 Beziehungstypen zwischen 7 Typen auf Einheiten: Akilität (FAC), Geo-PoliticalEntity (GPE), Standort (LOC), Organisation (ORG), Person (Per), Fahrzeug (Veh), Waffe (WEA).
- Semeval-2018 Aufgabe 7 [Papier] [Website] [Download]
- Der Korpus wird aus Abstracts und Einführung wissenschaftlicher Arbeiten gesammelt, und es gibt insgesamt sechs Arten von semantischen Beziehungen. Es gibt drei Unteraufgaben davon: Subtask 1.1 und Subtask 1.2 sind die Beziehungsklassifizierung zu sauberen bzw. lauten Daten; Subtask 2 ist die Standard -Beziehungsextraktion.
Für hochmoderne Ergebnisse finden Sie NLPPROGRESS.com zur Relationsextraktion
Zurück nach oben
Videos und Vorträge
- Stanford University: CS124, Dan Jurafsky
- (Video) Woche 5: Beziehungsextraktion und Frage
- Washington University: CSE517, Luke Zettlemoyer
- (Folie) Beziehungsextraktion 1
- (Folie) Beziehungsextraktion 2
- New York University: CSCI-GA.2590, Ralph Grishman
- (Folie) Beziehungsextraktion: Regelbasierte Ansätze
- Michigan University: Coursera, Dragomir R. Radev
- (Video) Vorlesung 48: Beziehungsextraktion
- Virginia University: CS6501-NLP, Kai-Wei Chang
- (Folie) Vorlesung 24: Beziehungsextraktion
Zurück nach oben
Systeme
- Deepdive
- Stanford Relation Extraktor
Zurück nach oben
Frameworks
- OpenNre [GitHub] [Papier]
- Ist ein Open-Source- und Extensible-Toolkit, das einen einheitlichen Rahmen für die Implementierung von Neuralmodellen für die Beziehungsextraktion (RE) zwischen benannten Unternehmen bietet. Es ist für verschiedene Szenarien für RE ausgelegt, einschließlich RE-Ebene, RE-Ebene, RE-Ebene und nur wenige Schotten. Es bietet verschiedene funktionale RE -Module, die sowohl auf Tensorflow als auch auf Pytorch basieren, um eine ausreichende Modularität und Erweiterung aufrechtzuerhalten, sodass es einfach ist, neue Modelle in das Framework einzubeziehen.
- AREKIT [GitHub] [Forschungsanwendbares Papier]
- Ist ein Open-Source- und Extensible-Toolkit, das sich auf die Datenvorbereitung der Daten zur Extraktion auf Dokumentenebene konzentriert. Es ergänzt die OpenNRE-Funktionalität, wie in Bezug auf letztere die Einstellung auf Dokumentebene nicht weit verbreitet (2.4 [Papier]). Die Kernfunktionalität umfasst (1) API für die Dokumentpräsentation mit EL (Entity Linking, IE-Objekt-Synonymie) Unterstützung für die Vorbereitung der Satzebene (als Kontexte genannt) (2) API für Kontexte Extraktion (3) Beziehungen, die von Satzebene auf Dokumentenebene übertragen werden.
- Dere [Github] [Papier]
- Ist ein Open-Source-Framework für de Claritive R- Leistung und ermöglicht daher, Ihre eigene Aufgabe zu deklarieren (unter Verwendung von XML-Schemata) und manuell implementierte Modelle dafür anwenden (unter Verwendung einer bereitgestellten API). Die Aufgabenerklärung baut über die Spannweiten und Beziehungen zwischen Spannweiten auf. In Bezug auf letztere schlagen die Autoren Frames vor, bei denen jeder Rahmen von: (1) Trigger (Spannweite) und (2) n -Slots yelds yelds yelds, wobei jeder Steckplatz auf Rahmen oder Spannweite verweist. Der Rahmen stellt keine theoretischen Einschränkungen des Fensters auf, aus dem Frames extrahiert werden. Daher kann dieses Konzept für die Aufgaben auf Satzebene, Dokumentenebene und Multi-Dokument-RE-Ebenen abdecken.
Zurück nach oben
Lizenz
Soweit gesetzlich möglich, hat Joohong Lee auf alle Urheberrechte und verwandte oder benachbarte Rechte für diese Arbeit verzichtet.