Extraction de relations impressionnantes

Une liste organisée de ressources impressionnantes dédiées à l'extraction de relations, inspirée par une NLP impressionnante et une vision impressionnante.
Contribution : N'hésitez pas à faire des demandes de traction .
Contenu
- Tendances et enquêtes de recherche
- Papiers
- Approches supervisées
- Approches de supervision distantes
- Modèles basés sur GNN
- Modèles de langue
- Représentation de l'encodeur de Transformer
- Représentation du décodeur de Transformer
- Approches basées sur les graphiques de connaissances
- Approches d'apprentissage à quelques coups
- Ensembles de données
- Vidéos et conférences
- Systèmes
- Frameworks
Tendances et enquêtes de recherche
- Progrès des PNL: extraction relationnelle
- Reconnaissance de l'entité nommée et extraction de relation: à la pointe de la technologie (Nasar et al., 2021)
- Une enquête sur les méthodes d'apprentissage en profondeur pour l'extraction des relations (Kumar, 2017)
- Une enquête sur l'extraction des relations (Bach et Badaskar, 2017)
- Extraction des relations: une enquête (Pawar et al., 2017)
- Une revue sur l'extraction des relations d'entité (Zhang et al., 2017)
- Examen des méthodes d'extraction des relations: Quoi de neuf? (Konstantinova et al., 2014)
- 100 meilleurs github: extraction de relation
Papiers
Approches supervisées
Modèles basés sur CNN
- Réseau neuronal de convolution pour l'extraction des relations [Papier] [Code] [Revue]
- Chunyang Liu, Wenbo Sun, Wenhan Chao et Wanxiang Che
- AMMA 2013
- Classification des relations via un réseau neuronal profond convolutionnel [document] [Code] [Revue]
- Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou et Jun Zhao
- Coling 2014
- Extraction de relation: perspective des réseaux de neurones convolutionnels [document] [Code] [Revue]
- Thien Huu Nguyen et Ralph Grishman
- NAACL 2015
- Classifier les relations en se classant avec des réseaux de neurones convolutionnels [document] [Code]
- Cicéron Nogueira dos Santos, Bing Xiang et Bowen Zhou
- ACL 2015
- Réseau neuronal convolutionnel basé sur l'attention pour l'extraction de la relation sémantique [Papier] [Code]
- Yatian Shen et Xuanjing Huang
- Coling 2016
- Classification des relations via l'attention à plusieurs niveaux CNNS [papier] [Code]
- Linlin Wang, Zhu Cao, Gerard de Melo et Zhiyuan Liu
- ACL 2016
- MIT à SEMEVAL-2017 Tâche 10: Extraction de relation avec les réseaux de neurones convolutionnels [Papier]
- Ji Young Lee, Franck Dernoncourt et Peter Szolovits
- Semeval 2017
Modèles basés sur RNN
- Classification des relations via un réseau neuronal récurrent [document]
- Dongxu Zhang et Dong Wang
- Arxiv 2015
- Réseaux de mémoire bidirectionnels à court terme pour la classification des relations [document]
- Shu Zhang, Dequan Zheng, Xinchen Hu et Ming Yang
- Paclic 2015
- Extraction de relation de bout en bout à l'aide de LSTM sur les séquences et la structure des arbres [papier]
- Makoto Miwa et Mohit Bansal
- ACL 2016
- Réseaux de mémoire bidirectionnels à court terme basés sur l'attention pour la classification des relations [Papier] [Code]
- Peng Zhou, Wei Shi, Jun Tian, Zhenyu Qi, Bingchen Li, Hongwei Hao et Bo Xu
- ACL 2016
- Classification des relations sémantiques via un réseau neuronal récurrent hiérarchique avec attention [papier]
- Minguang Xiao et Cong Liu
- Coling 2016
- Classification des relations sémantiques via des réseaux LSTM bidirectionnels avec une attention consacrée à l'entité utilisant la porte d'entité latente [papier] [Code]
- Joohong Lee, Sangwoo Seo et Yong Suk Choi
- Arxiv 2019
Modèles basés sur la dépendance
- Compositionnalité sémantique à travers des espaces de vecteur matriciel récursif [papier] [code]
- Richard Socher, Brody Huval, Christopher D. Manning et Andrew Y. Ng
- EMNLP-Conll 2012
- Modèles d'incorporation de composition basés sur des facteurs [Papier]
- Mo Yu, Matthw R. Gormley et Mark Dredze
- Atelier NIPS sur l'apprentissage de la sémantique 2014
- Un réseau neuronal basé sur la dépendance pour la classification des relations [document]
- Yang Liu, Furu Wei, Sujian Li, Heng Ji, Ming Zhou et Houfeng Wang
- ACL 2015
- Classifier les relations via des réseaux de mémoire à court terme le long du chemin de dépendance le plus court [Paper] [Code]
- Xu Yan, Lili Mou, Ge Li, Yunchuan Chen, Hao Peng et Zhi Jin
- EMNLP 2015
- Classification des relations sémantiques via des réseaux de neurones convolutionnels avec un échantillonnage négatif simple [papier]
- Kun Xu, Yansong Feng, Songfang Huang et Dongyan Zhao
- EMNLP 2015
- Classification des relations améliorées par des réseaux de neurones récurrents profonds avec augmentation des données [document]
- Yan Xu, Ran Jia, Lili Mou, Ge Li, Yunchuan Chen, Yangyang Lu et Zhi Jin
- Coling 2016
- Réseau neuronal convolutionnel récurrent bidirectionnel pour la classification des relations [document]
- Rui Cai, Xiaodong Zhang et Houfeng Wang
- ACL 2016
- Extraction de la relation neuronale via la réduction du bruit et l'apprentissage du transfert intérieur [papier]
- Tianyi Liu, Xinsong Zhang, Wanhao Zhou, Weijia Jia
- EMNLP 2018
Modèles basés sur GNN
- Faire correspondre les blancs: similitude distributionnelle pour l'apprentissage des relations [papier]
- Livio Baldini Soares, Nicholas Fitzgerald, Jeffrey Ling, Tom Kwiatkowski
- ACL 2019
- Relation des relations: un nouveau paradigme du problème d'extraction des relations [document]
- Zhijing Jin, Yongyi Yang, Xipeng Qiu, Zheng Zhang
- EMNLP 2020
- GDPNET: affiner le graphique multi-visualités latentes pour l'extraction de relation [Paper] [Code]
- Fuzhao Xue, Aixin Sun, Hao Zhang, Eng Siong Chng
- Aaai 21
- Recon: Extraction de relation utilisant le contexte du graphique de connaissances dans un réseau de neurones graphiques [PARER] [Code]
- Anson Bastos, Abhishek Nadgeri, Kuldeep Singh, Isaiah Onando Mulang ', Saeedeh Shekarpour, Johannes Hoffart, Manohar Kaul
- Www'21
Approches de supervision distantes
- Supervision lointaine pour l'extraction des relations sans données étiquetées [document] [revue]
- Mike Mintz, Steven Bills, Rion Snow et Dan Jurafsky
- ACL 2009
- Supervision faible basée sur les connaissances pour l'extraction de l'information des relations de chevauchement [document] [Code]
- Raphael Hoffmann, Congle Zhang, Xiao Ling, Luke Zettlemoyer et Daniel S. Weld
- ACL 2011
- Apprentissage multi-instance multi-étiquettes pour l'extraction de relation [Papier] [Code]
- Mihai Surdeanu, Julie Tibshirani, Ramesh Nallapati et Christopher D. Manning
- EMNLP-Conll 2012
- Supervision lointaine pour l'extraction des relations via des réseaux de neurones convolutionnels par morceaux [document] [Revue] [Code]
- Daojian Zeng, Kang Liu, Yubo Chen et Jun Zhao
- EMNLP 2015
- Extraction de relation avec les réseaux de neurones convolutionnels multi-instances multiples [document] [Revue] [Code]
- Xiaotian Jiang, Quan Wang, Peng Li, Bin Wang
- Coling 2016
- Incorporer des chemins de relation dans l'extraction des relations neuronales [document] [revue]
- Wenyuan Zeng, Yankai Lin, Zhiyuan Liu et Maosong Sun
- EMNLP 2017
- Extraction de relation neuronale avec l'attention sélective dans les instances [papier] [code]
- Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan et Maosong Sun
- ACL 2017
- Apprendre des contextes locaux et globaux à l'aide d'un modèle de réseau récurrent convolutionnel pour la classification des relations dans le texte biomédical [Paper] [Code] [Code]
- Desh Raj, Sunil Kumar Sahu et Ashish Anan
- Conll 2017
- Extraction de relation hiérarchique avec l'attention grossière à la fin [Papier] [Code]
- Xu Han, Pengfei Yu ∗, Zhiyuan Liu, Maosong Sun, Peng Li
- EMNLP 2018
- Résider: Amélioration de l'extraction de relation neuronale à sumission éloignée à l'aide d'informations latérales [papier] [Code]
- Shikhar Vashishth, Rishabh Joshi, Sai Suman Prayaga, Chiranjib Bhattacharyya et Partha Talukdar
- EMNLP 2018
- Extraction de la relation de supervision distante avec les attentions intra-sac et inter-sac [papier] [code]
- Zhi-xiu Ye, Zhen-Hua Ling
- NAACL 2019
Modèles de langue
Représentation de l'encodeur de Transformer
- Enrichir le modèle de langage pré-formé avec des informations d'entité pour la classification des relations [document]
- Shanchan wu, yifan he
- Arxiv 2019
- LUKE: Représentations d'entités contextualisées profondes avec l'auto-atténuer de l'auto-atténuer de l'entité [Document] [Code]
- Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, Yuji Matsumoto
- EMNLP 2020
- Spanbert: Amélioration de la pré-formation en représentant et en prédisant les portées [papier] [Code]
- Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer et Omer Levy
- TACL 2020 (Transactions de l'Association for Computational Linguistics)
- Extraction efficace des relations à longue distance avec DG-Spanbert [Paper]
- Jun Chen, Robert Hoehndorf, Mohamed Elhoseiny, Xiangliang Zhang
Représentation du décodeur de Transformer
- Amélioration de l'extraction de la relation par les représentations du langage pré-entraînées [document] [Revue] [Code]
- Christoph Alt, Marc Hübner, Leonhard Hennig
- AKBC 19
Approches basées sur les graphiques de connaissances
- KGPOOL: Sélection de contexte de graphe de connaissances dynamique pour l'extraction de la relation [Paper] [Code]
- Abhishek Nadgeri, Anson Bastos, Kuldeep Singh, Isaiah Onando Mulang, Johannes Hoffart, Saeedeh Shekarpour et Vijay Saraswat
- ACL 2021 (résultats)
Approches d'apprentissage à quelques coups
- FewRel: un ensemble de données de classification de relations à quelques coups supervisés à grande échelle avec une évaluation de pointe [Papier] [Site Web] [Code]
- Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, Maosong Sun
- EMNLP 2018
Divers
- Extraction conjointe des relations avec les liens de classe via un classement profond efficace [papier]
- Hai Ye, Wenhan Chao, Zhunchen Luo et Zhoujun Li
- ACL 2017
- Extraction de relation neuronale de bout en bout avec l'optimisation globale [document]
- Meishan Zhang, Yue Zhang et Guohong Fu
- EMNLP 2017
- Formation contradictoire pour l'extraction des relations [papier]
- Yi Wu, David Bamman et Stuart Russell
- EMNLP 2017
- Un modèle conjoint neural pour l'extraction des entités et des relations à partir de texte biomédical [papier]
- Fei Li, Meishan Zhang, Guohong Fu et Donghong Ji
- BMC Bioinformatics 2017
- Extraction conjointe des entités et des relations utilisant l'apprentissage du renforcement et l'apprentissage en profondeur [document]
- Yuntian Feng, Hongjun Zhang, Wenning Hao et Gang Chen
- Journal of Computational Intelligence and Neuroscience 2017
- TDEER: Un schéma de décodage de traduction efficace pour l'extraction conjointe des entités et des relations [document] [code]
- Xianming Li, Xiaotian Luo, Chenghao Dong, Daichuan Yang, Beidi Luan et Zhen He
- EMNLP 2021
Retour en haut
Ensembles de données
- SEMEVAL-2010 Tâche 8 [Paper] [Téléchargement]
- Classification multi-voies des relations sémantiques entre des paires de nominaux
- New York Times (NYT) Corpus [Paper] [Téléchargement]
- Cet ensemble de données a été généré en alignant les relations de base de base avec le corpus NYT, avec des phrases des années 2005-2006 utilisées comme corpus de formation et des phrases de 2007 utilisées comme corpus de test.
- FewRel: ensemble de données de classification de la relation à quelques coups [Papier] [Site Web]
- Cet ensemble de données est un ensemble de données de classification de relation à quelques coups supervisés. Le corpus est Wikipedia et la base de connaissances utilisée pour annoter le corpus est Wikidata.
- Tacred: l'ensemble de données d'extraction des relations TAC [Papier] [Site Web] [Téléchargement]
- Est un ensemble de données d'extraction de relations à grande échelle avec le texte de la nouvelle et le texte Web du corpus utilisé dans les défis annuels de la population de base de connaissances TAC (TAC KBP).
- ACE05: [Site Web] [Téléchargement-Info]
- Cet ensemble de données représente des textes extraits de diverses sources: conversation diffusée, nouvelles de diffusion, groupes de discussion, blogs. Les 6 types de relations entre 7 types sur les entités: acabilité (FAC), géopolitique (GPE), emplacement (LOC), organisation (ORG), personne (PER), véhicule (véhicule), arme (WEA).
- SEMEVAL-2018 Tâche 7 [Papier] [Site Web] [Téléchargement]
- Le corpus est collecté à partir de résumés et d'introductions d'articles scientifiques, et il existe six types de relations sémantiques au total. Il y en a trois sous-tâches: la sous-tâche 1.1 et la sous-tâche 1.2 sont respectivement la classification des relations sur les données propres et bruyantes; La sous-tâche 2 est l'extraction de relation standard.
Pour les résultats de l'état de l'art, consultez nlpprogress.com sur l'extraction des relations
Retour en haut
Vidéos et conférences
- Université de Stanford: CS124, Dan Jurafsky
- (Vidéo) Semaine 5: Extraction et question des relations
- Université de Washington: CSE517, Luke Zettlemoyer
- (Diapositive) Extraction de relation 1
- (Diapositive) Extraction de relation 2
- Université de New York: CSCI-GA.2590, Ralph Grishman
- (Diapositive) Extraction de relation: approches basées sur des règles
- Université du Michigan: Coursera, Dragomir R. Radev
- (Vidéo) Conférence 48: Extraction de relation
- Université de Virginie: CS6501-NLP, Kai-Wei Chang
- (Diapositive) Conférence 24: Extraction de relation
Retour en haut
Systèmes
- Profonde
- Extracteur de relation Stanford
Retour en haut
Frameworks
- Opennre [github] [papier]
- Est une boîte à outils open-source et extensible qui fournit un cadre unifié pour mettre en œuvre des modèles neuronaux pour l'extraction (Re) des relations entre les entités nommées. Il est conçu pour divers scénarios pour RE, notamment le niveau de phrase, le RE au niveau du sac, le RE au niveau du document et le RE à quelques coups. Il fournit divers modules RE fonctionnels basés à la fois sur TensorFlow et Pytorch pour maintenir une modularité et une extensibilité suffisantes, ce qui facilite l'intégration de nouveaux modèles dans le cadre.
- Arekit [github] [papier applicable à la recherche]
- Est une boîte à outils open source et extensible axée sur la préparation des données pour l'organisation d'extraction de relations au niveau du document. Il complète la fonctionnalité OpenNRE, comme en termes de ce dernier, le paramètre RE au niveau du document n'est pas largement exploré (2.4 [papier]). La fonctionnalité principale comprend (1) API pour la présentation de documents avec EL (liaison entité, IE Object Synonymy) Prise en charge des relations au niveau des phrases Préparation des relations (surnommées contextes) (2) API pour l'extraction des contextes (3) Relations transférant à partir de modules au niveau du document, etc.
- Dere [github] [papier]
- Est un cadre open source pour la r elate de clartivité e xtraction, et permet donc de déclarer votre propre tâche (en utilisant des schémas XML) et d'appliquer des modèles implémentés manuellement à elle (en utilisant une API fournie). La déclaration des tâches s'appuie sur les portées et les relations entre les portées . En termes de ces derniers, les auteurs proposent des cadres , où chaque trame yelds de: (1) déclenchent (Span) et (2) n -slots, où chaque emplacement peut se référer à la trame ou à la portée . Le cadre ne pose aucune restriction théorique à la fenêtre à partir de laquelle les trames sont extraites. Ainsi, ce concept peut couvrir les tâches au niveau de la phrase, au niveau du document et multi-documents.
Retour en haut
Licence
Dans la mesure du possible en vertu de la loi, Joohong Lee a renoncé à tous les droits d'auteur et aux droits connexes ou voisins de ce travail.