Extracción de relación impresionante

Una lista curada de recursos increíbles dedicados a la extracción de relaciones, inspirada en Awesome-NLP y la increíble visión de profundidad.
Contribuir : no dude en hacer solicitudes de extracción .
Contenido
- Tendencias y encuestas de investigación
- Papeles
- Enfoques supervisados
- Enfoques de supervisión distante
- Modelos basados en GNN
- Modelos de idiomas
- Representación del codificador de Transformer
- Representación del decodificador de Transformer
- Enfoques basados en gráficos de conocimiento
- Enfoques de aprendizaje de pocos disparos
- Conjuntos de datos
- Videos y conferencias
- Sistemas
- Marcos
Tendencias y encuestas de investigación
- Progreso de PNL: extracción de relaciones
- Reconocimiento de entidades nombrado y extracción de relaciones: estado del arte (Nasar et al., 2021)
- Una encuesta de métodos de aprendizaje profundo para la extracción de relaciones (Kumar, 2017)
- Una encuesta sobre extracción de relaciones (Bach y Badaskar, 2017)
- Extracción de relaciones: una encuesta (Pawar et al., 2017)
- Una revisión sobre la extracción de relaciones de entidad (Zhang et al., 2017)
- Revisión de los métodos de extracción de relaciones: ¿Qué hay de nuevo en existencia? (Konstantinova et al., 2014)
- 100 Mejor Github: extracción de relaciones
Papeles
Enfoques supervisados
Modelos basados en CNN
- Convolución Red neuronal para la extracción de relaciones [documento] [Código] [Revisión]
- Chunyang Liu, Wenbo Sun, Wenhan Chao y Wanxiang Che
- ADMA 2013
- Clasificación de relaciones a través de la red neuronal profunda convolucional [documento] [Código] [revisión]
- Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou y Jun Zhao
- Coling 2014
- Extracción de la relación: perspectiva de las redes neuronales convolucionales [documento] [código] [revisión]
- Thien Huu Nguyen y Ralph Grishman
- NAACL 2015
- Clasificación de las relaciones clasificando con redes neuronales convolucionales [documento] [código]
- Cicero Nogueira dos Santos, Bing Xiang y Bowen Zhou
- ACL 2015
- Red neuronal convolucional basada en la atención para la extracción de relaciones semánticas [documento] [Código]
- Yatian Shen y Xuanjing Huang
- Coling 2016
- Clasificación de relaciones a través de CNNS de atención múltiple [documento] [Código]
- Linlin Wang, Zhu Cao, Gerard de Melo y Zhiyuan Liu
- ACL 2016
- MIT en Semeval-2017 Tarea 10: Extracción de relaciones con redes neuronales convolucionales [documento]
- Ji Young Lee, Franck Dernoncourt y Peter Szolovits
- Semeval 2017
Modelos basados en RNN
- Clasificación de relaciones a través de la red neuronal recurrente [documento]
- Dongxu Zhang y Dong Wang
- arxiv 2015
- Redes de memoria a corto plazo bidireccionales para la clasificación de relaciones [documento]
- Shu Zhang, Dequan Zheng, Xinchen Hu y Ming Yang
- Paclic 2015
- Extracción de relación de extremo a extremo usando LSTM en secuencias y estructura de árbol [papel]
- Makoto Miwa y Mohit Bansal
- ACL 2016
- Redes de memoria a largo plazo a largo plazo basadas en la atención para la clasificación de relaciones [documento] [Código]
- Peng Zhou, Wei Shi, Jun Tian, Zhenyu Qi, Bingchen Li, Hongwei Hao y Bo Xu
- ACL 2016
- Clasificación de relaciones semánticas a través de una red neuronal recurrente jerárquica con atención [documento]
- Minguang Xiao y Cong Liu
- Coling 2016
- Clasificación de la relación semántica a través de redes LSTM bidireccionales con atención consciente de la entidad utilizando una entidad latente [documento] [código]
- Joohong Lee, Sangwoo Seo y Yong Suk Choi
- arxiv 2019
Modelos basados en dependencia
- Compositalidad semántica a través de espacios de vector matriz recursivos [documento] [código]
- Richard Socher, Brody Huval, Christopher D. Manning y Andrew Y. Ng
- EMNLP-Conll 2012
- Modelos de incrustación de composición basados en factores [papel]
- Mo Yu, Matthw R. Gormley y Mark Dredze
- Taller NIPS sobre Semántica de Aprendizaje 2014
- Una red neuronal basada en dependencia para la clasificación de relaciones [documento]
- Yang Liu, Furu Wei, Sujian Li, Heng Ji, Ming Zhou y Houfeng Wang
- ACL 2015
- Clasificación de las relaciones a través de redes de memoria a corto plazo a lo largo de la ruta de dependencia más corta [documento] [código]
- Xu Yan, Lili Mou, Ge Li, Yunchuan Chen, Hao Peng y Zhi Jin
- EMNLP 2015
- Clasificación de relaciones semánticas a través de redes neuronales convolucionales con muestreo negativo simple [documento]
- Kun Xu, Yansong Feng, Songfang Huang y Dongyan Zhao
- EMNLP 2015
- Clasificación de relación mejorada por redes neuronales recurrentes profundas con aumento de datos [documento]
- Yan Xu, corrió Jia, Lili Mou, Ge Li, Yunchuan Chen, Yangyang Lu y Zhi Jin
- Coling 2016
- Red neuronal convolucional recurrente bidireccional para la clasificación de relaciones [documento]
- Rui Cai, Xiaodong Zhang y Houfeng Wang
- ACL 2016
- Extracción de relación neuronal a través de la reducción del ruido de la oración interna y el aprendizaje de la transferencia [documento]
- Tianyi Liu, Xinsong Zhang, Wanhao Zhou, Weijia Jia
- EMNLP 2018
Modelos basados en GNN
- Combinar los espacios en blanco: similitud distributiva para el aprendizaje de relaciones [papel]
- Livio Baldini Soares, Nicholas Fitzgerald, Jeffrey Ling, Tom Kwiatkowski
- ACL 2019
- Relación de las relaciones: un nuevo paradigma del problema de extracción de relación [documento]
- Zhijing Jin, Yongyi Yang, Xipeng Qiu, Zheng Zhang
- EMNLP 2020
- GDPNET: refinar gráfico de visión múltiple latente para la extracción de relaciones [papel] [código]
- Fuzhao Xue, Aixin Sun, Hao Zhang, Eng Siong Chng
- Aaai 21
- Recon: extracción de relación utilizando el contexto del gráfico de conocimiento en una red neuronal gráfica [Parer] [código]
- Anson Bastos, Abhishek Nadgeri, Kuldeep Singh, Isaiah Onando Mulang ', Saeedeh Shekarpour, Johannes Hoffart, Manohar Kaul
- Www'21
Enfoques de supervisión distante
- Supervisión distante para la extracción de relaciones sin datos etiquetados [documento] [revisión]
- Mike Mintz, Steven Bills, Rion Snow y Dan Jurafsky
- ACL 2009
- Supervisión débil basada en el conocimiento para la extracción de información de las relaciones superpuestas [documento] [Código]
- Raphael Hoffmann, Congle Zhang, Xiao Ling, Luke Zettlemoyer y Daniel S. Weld
- ACL 2011
- Aprendizaje de múltiples etiquetas de múltiples instancias para la extracción de relaciones [documento] [Código]
- Mihai Surdeanu, Julie Tibshirani, Ramesh Nallapati y Christopher D. Manning
- EMNLP-Conll 2012
- Supervisión distante para la extracción de relaciones a través de redes neuronales convolucionales por partes [documento] [revisión] [Código]
- Daojian Zeng, Kang Liu, Yubo Chen y Jun Zhao
- EMNLP 2015
- Extracción de relación con redes neuronales convolucionales multi-instancias de múltiples marcas [documento] [revisión] [Código]
- Xiaotian Jiang, Quan Wang, Peng Li, Bin Wang
- Coling 2016
- Incorporación de rutas de relación en la extracción de relación neuronal [documento] [revisión]
- Wenyuan Zeng, Yankai Lin, Zhiyuan Liu y Maosong Sun
- EMNLP 2017
- Extracción de relación neuronal con atención selectiva sobre instancias [documento] [código]
- Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan y Maosong Sun
- ACL 2017
- Aprender contextos locales y globales utilizando un modelo de red recurrente convolucional para la clasificación de relaciones en texto biomédico [documento] [código] [código]
- Desh Raj, Sunil Kumar Sahu y Ashish Anan
- Conll 2017
- Extracción de relación jerárquica con atención gruesa a fino [documento] [código]
- Xu Han, Pengfei Yu ∗, Zhiyuan Liu, Maosong Sun, Peng Li
- EMNLP 2018
- Residir: Mejora de la extracción de relación neuronal con respaldo a distancia utilizando la información lateral [documento] [código]
- Shikhar Vashishth, Rishabh Joshi, Sai Suman Prayaga, Chiranjib Bhattacharyya y Partha Talukdar
- EMNLP 2018
- Extracción de relación de supervisión distante con atenciones intra-bag e interbag [documento] [código]
- Zhi-xiu ye, zhen-hua ling
- NAACL 2019
Modelos de idiomas
Representación del codificador de Transformer
- Enriquecer el modelo de lenguaje previamente capacitado con información de entidad para la clasificación de relaciones [documento]
- Shanchan wu, yifan él
- arxiv 2019
- Lucas: representaciones de entidad contextualizadas profundas con autoatención consciente de la entidad [documento] [Código]
- Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, Yuji Matsumoto
- EMNLP 2020
- Spanbert: Mejora de la capacitación previa representando y prediciendo los tramos [documento] [Código]
- Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer y Omer Levy
- TACL 2020 (Transacciones de la Asociación para Lingüística Computacional)
- Extracción eficiente de relación a larga distancia con DG-Spanbert [papel]
- Jun Chen, Robert Hoehndorf, Mohamed Elhoseiny, Xiangliang Zhang
Representación del decodificador de Transformer
- Mejora de la extracción de la relación por representaciones del lenguaje previamente provocados [documento] [revisión] [Código]
- Christoph Alt, Marc Hübner, Leonhard Hennig
- AKBC 19
Enfoques basados en gráficos de conocimiento
- KGPOOL: Selección de contexto del gráfico de conocimiento dinámico para la extracción de relaciones [documento] [código]
- Abhishek Nadgeri, Anson Bastos, Kuldeep Singh, Isaiah Onando Mulang, Johannes Hoffart, Saeedeh Shekarpour y Vijay Saraswat
- ACL 2021 (hallazgos)
Enfoques de aprendizaje de pocos disparos
- BEYREL: un conjunto de datos de clasificación de relaciones de pocos disparos supervisados a gran escala con evaluación de vanguardia [documento] [Sitio web] [Código]
- Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, Maosong Sun
- EMNLP 2018
Misceláneas
- Extraer conjuntamente las relaciones con lazos de clase a través de una clasificación profunda efectiva [papel]
- Hai Ye, Wenhan Chao, Zhunchen Luo y Zhoujun Li
- ACL 2017
- Extracción de relación neuronal de extremo a extremo con optimización global [documento]
- Meishan Zhang, Yue Zhang y Guohong Fu
- EMNLP 2017
- Entrenamiento adversario para la extracción de relaciones [documento]
- Yi Wu, David Bamman y Stuart Russell
- EMNLP 2017
- Un modelo articular neural para la extracción de entidad y relación del texto biomédico [documento]
- Fei Li, Meishan Zhang, Guohong Fu y Dongghong Ji
- BMC Bioinformatics 2017
- Extracción conjunta de entidades y relaciones utilizando aprendizaje de refuerzo y aprendizaje profundo [documento]
- Yuntian Feng, Hongjun Zhang, Wenning Hao y Gang Chen
- Journal of Computational Intelligence and Neuroscience 2017
- Tdeer: un esquema de decodificación de traducción eficiente para la extracción conjunta de entidades y relaciones [documento] [código]
- Xianming Li, Xiaotian Luo, Chenghao Dong, Daichuan Yang, Beidi Luan y Zhen He
- EMNLP 2021
Volver arriba
Conjuntos de datos
- Semeval-2010 Tarea 8 [Paper] [Descargar]
- Clasificación múltiple de relaciones semánticas entre pares de nominales
- New York Times (NYT) Corpus [Paper] [Descargar]
- Este conjunto de datos se generó alineando las relaciones de la base libre con el NYT Corpus, con oraciones de los años 2005-2006 utilizadas como Corpus de capacitación y oraciones de 2007 utilizadas como Corpus de Pruebas.
- BEYREL: conjunto de datos de clasificación de relaciones de pocos disparos [documento] [Sitio web]
- Este conjunto de datos es un conjunto de datos de clasificación de relaciones de pocos disparos supervisados. El corpus es Wikipedia y la base de conocimiento utilizada para anotar el corpus es wikidata.
- Tacred: el conjunto de datos de extracción de relación TAC [documento] [Sitio web] [Descargar]
- Es un conjunto de datos de extracción de relaciones a gran escala con el texto de Newswire y Web del Corpus utilizado en los desafíos anuales de la población de la base de conocimiento TAC (TAC KBP).
- ACE05: [Sitio web] [Descargar-Info]
- Este conjunto de datos representa textos extraídos de una variedad de fuentes: conversación de transmisión, noticias de transmisión, grupos de noticias, weblogs. Los 6 tipos de relaciones entre 7 tipos en entidades: acilidad (FAC), geopolítica (GPE), ubicación (LOC), organización (org), persona (per), vehículo (vehículo), arma (WEA).
- Semeval-2018 Tarea 7 [Documento] [Sitio web] [Descargar]
- El corpus se recolecta de resúmenes y introducciones de artículos científicos, y hay seis tipos de relaciones semánticas en total. Hay tres subtareas: la subtarea 1.1 y la subtarea 1.2 son la clasificación de relaciones en datos limpios y ruidosos, respectivamente; La subtarea 2 es la extracción de relación estándar.
Para obtener resultados de última generación, consulte nlpprogress.com sobre la extracción de relaciones
Volver arriba
Videos y conferencias
- Universidad de Stanford: CS124, Dan Jurafsky
- (Video) Semana 5: Extracción de relaciones y preguntas
- Universidad de Washington: CSE517, Luke Zettlemoyer
- (Diapositiva) extracción de relación 1
- (Diapositiva) extracción de relación 2
- Universidad de Nueva York: CSCI-GA.2590, Ralph Grishman
- (Diapositiva) extracción de relación: enfoques basados en reglas
- Universidad de Michigan: Coursera, Dragomir R. Radev
- (Video) Conferencia 48: Extracción de relaciones
- Universidad de Virginia: CS6501-NLP, Kai-Wei Chang
- (Diapositiva) Conferencia 24: Extracción de relaciones
Volver arriba
Sistemas
- Profundo
- Extractor de relación de Stanford
Volver arriba
Marcos
- OpenNre [GitHub] [Paper]
- Es un conjunto de herramientas de código abierto y extensible que proporciona un marco unificado para implementar modelos neuronales para la extracción de relaciones (re) entre entidades nombradas. Está diseñado para varios escenarios para RE, incluidos RE a nivel de oración, RE a nivel de bolsa, RE a nivel de documento y pocos disparos. Proporciona varios módulos RE funcionales basados en TensorFlow y Pytorch para mantener suficiente modularidad y extensibilidad, lo que hace que sea fácil incorporar nuevos modelos en el marco.
- Arekit [github] [papel aplicable de investigación]
- Es un conjunto de herramientas de código abierto y extensible centrado en la preparación de datos para la organización de extracción de relaciones a nivel de documento. Complementa la funcionalidad OpenNRE, como en términos de este último, la configuración de RE a nivel de documento no se explora ampliamente (2.4 [papel]). La funcionalidad central incluye (1) API para la presentación del documento con El (enlace de entidad, sinonimato de objetos, es decir, el soporte para la preparación de las relaciones con el nivel de oración (denominado contextos) (2) API para la extracción de contextos (3) Relaciones que se transfieren desde el nivel de oración a nivel de documento, etc., etc. Proporciona redes neuronales (como OpenNre) y los módulos Bert, ambos aplicables para la tarea de actitud de sentencia.
- Dere [Github] [Paper]
- Es un marco de código abierto para la ejecución de la rentabilidad de claritivo y, por lo tanto, permite declarar su propia tarea (usando esquemas XML) y aplicar modelos implementados manualmente (usando una API proporcionada). La declaración de tareas se basa en la parte superior de los tramos y las relaciones entre los tramos . En términos de este último, los autores proponen marcos , donde cada cuadro grita de: (1) disparador (span) y (2) n -slots, donde cada ranura puede referirse al marco o el tramo . El marco no plantea restricciones teóricas a la ventana desde la cual se extraen los marcos. Por lo tanto, este concepto puede cubrir las tareas a nivel de oración, nivel de documento y documentos múltiples.
Volver arriba
Licencia
En la medida de lo posible según la ley, Joohong Lee ha renunciado a todos los derechos de autor y derechos relacionados o vecinos sobre este trabajo.