Impresionante similitud textual semántica: una lista curada de similitud de textura semántica/oración (STS) en modelos de idiomas grandes y el campo NLP
Este repositorio, llamado Awesome Semantic Textual Simility , contiene una colección de recursos y documentos sobre similitud de textual (STS) semántica/oración en modelos de idiomas grandes y PNL .
" Si no puedes medirlo, no puedes mejorarlo ". - El físico británico William Thomson
¡Bienvenido a compartir sus documentos, pensamientos e ideas enviando un problema!

Similitud textual de la oración: descripción general de la evolución del modelo
Shuyue Jia, Laboratorio de Computación confiable, Universidad de Boston
[Enlace]
Oct 2023
Consulte aquí y aquí para descargar todas las bases de datos de referencia a continuación.
STS12 :
Semeval-2012 Tarea 6: un piloto sobre similitud textual semántica
Eneko Agirre, Daniel Cer, Mona Diab, Aitor Gonzalez-Agarre
Semeval 2012, [Paper] [Descargar]
07 de junio de 2012
STS13 :
*Tarea compartida SEM 2013: similitud textual semántica
Eneko Agirre, Daniel Cer, Mona Diab, Aitor Gonzalez-Agarre, Weiwei Guo
*SEM 2013, [Paper] [Descargar]
13 de junio de 2013
STS14 :
Semeval-2014 Tarea 10: Similitud textual semilingüe semántica
Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer, Mona Diab, Aitor Gonzalez-Agurre, Weiwei Guo, Rada Mihalcea, German Rigau, Janyce Wiebe
Semeval 2014, [documento] [Descargar]
23 de agosto de 2014
STS15 :
Semeval-2015 Tarea 2: Similitud textual semántica, inglés, español y piloto sobre interpretabilidad
Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer, Mona Diab, Aitor Gonzalez-Aguirre, Weiwei Guo, Iñigo López-Gazpio, Montse Maritxalar, Rada Mihalcea, German Rigau, Larraitz Uria, Janyce Wiebebe
Semeval 2015, [documento] [Descargar]
04 de junio de 2015
STS16 :
Semeval-2016 Tarea 1: Similitud textual semántica, evaluación monolingüe y interlingüística
Eneko Agirre, Carmen Banea, Daniel Cer, Mona Diab, Aitor González-Agarre, Rada Mihalcea, German Rigau, Janyce Wiebe
Semeval 2016, [documento] [Descargar]
16 de junio de 2016
STS Benchmark (STSB) :
Semeval-2017 Tarea 1: Similitud textual semántica Multilingüe y evaluación enfocada en cruz
Daniel Cer, Mona Diab, Eneko Agirre, Iñigo López-Gazpio, Lucia Specia
Semeval 2017, [documento] [Descargar]
03 de agosto de 2017
Una cura enferma para la evaluación de modelos semánticos de distribución compositiva
Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, Roberto Zamparelli
LREC 2014, [Paper] [Descargar]
26 de mayo de 2014
Glove: vectores globales para la representación de palabras
Jeffrey Pennington, Richard Scher, Christopher Manning
EMNLP 2014, [documento] [Github]
25 de octubre de 2014
Vectores de pensamiento de salto
Ryan Kiros, Yukun Zhu, Ruslan Salakhutdinov, Richard S. Zemel, Antonio Torralba, Raquel Urtasun, Sanja Fidler
Neurips 2015, [documento] [Github]
22 de junio de 2015
Aprendizaje supervisado de representaciones de oraciones universales a partir de datos de inferencia de lenguaje natural
Alexis Conneau, Douwe Kiela, Holger Schwenk, Loïc Barrault, Antoine Bordes
EMNLP 2017, [Paper] [Github]
07 de septiembre de 2017
BERT: pretruamiento de transformadores bidireccionales profundos para la comprensión del lenguaje
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
NAACL-HLT 2019, [Documento] [GitHub]
24 de mayo de 2019
Bertscore: Evaluación de la generación de texto con Bert
Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, Yoav Artzi
ICLR 2020, [documento] [GitHub]
24 de febrero de 2020
Bleurt: aprendiendo métricas robustas para la generación de texto
Thibault Sellam, Dipanjan Das, Ankur Parikh
ACL 2020, [documento] [Github]
05 de julio de 2020
Recuperación de pasaje denso para la respuesta de las preguntas de dominio abierto
Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, Wen-Tau Yih
EMNLP 2020, [Paper] [Github]
16 de noviembre de 2020
Codificador de oraciones universales
Daniel Cer, Yinfei Yang, Sheng-yi Kong, Nan Hua, Nicole Limtiaco, Rhomni St. John, Noah Constant, Mario Guajardo-Cespedes, Steve Yuan, Chris Tar, Yun-Hsuan Sung, Brian Strope, Ray Kurzweil
ARXIV 2018, [Documento] [GitHub]
12 de abril de 2018
Sentencia-Bert: incrustaciones de oraciones utilizando siamese Bert-Networks
Nils Reimers, Iryna Gurevych
EMNLP 2019, [Paper] [Github]
27 de agosto de 2019
Modelado de interacción de palabras por pares con redes neuronales profundas para medición de similitud semántica
Hua él, Jimmy Lin
NAACL 2016, [documento]
12 de junio de 2016
Combinación de texto como reconocimiento de imágenes
Liang Pang, Yanyan Lan, Jiafeng Guo, Jun Xu, Shengxian Wan, Xueqi Cheng
AAAI 2016, [Paper] [Github]
20 de febrero de 2016
Multigrancnn: una arquitectura para la coincidencia general de trozos de texto en múltiples niveles de granularidad
Myeongjun Jang, Deuk Sin Kwon, Thomas Lukasiewicz
IJCNLP 2015, [Documento]
26 de julio de 2015
Combinación de texto simple y efectiva con características de alineación más ricas
Runqi Yang, Jianhai Zhang, Xing Gao, Feng Ji, Haiqing Chen
ACL 2019, [documento] [Github]
01 de agosto de 2019
Matidez de oración semántica con información recurrente y co-atentiva densamente conectada
Seonhoon Kim, Inho Kang, Nojun Kwak
AAAI 2019, [Paper] [Github (no oficial)]
27 de enero de 2019
Redes de atención múltiples para modelar pares de oraciones
Chuanqi Tan, Furu Wei, Wenhui Wang, Weifeng LV, Ming Zhou
IJCAI 2018, [Paper] [Github]
13 de julio de 2018
Inferencia del lenguaje natural sobre el espacio de interacción
Yichen Gong, Heng Luo, Jian Zhang
EMNLP 2017, [Paper] [Github]
13 de septiembre de 2017
Red de alineación entre ponderación para el modelado de pares de oraciones
Gehui Shen, Yunlun Yang, Zhi-Hong Deng
EMNLP 2017, [documento]
07 de septiembre de 2017
Flujo de atención bidireccional para la comprensión de la máquina
Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, Hannaneh Hajishirzi
ICLR 2017, [Paper] [Página web] [GitHub]
24 de abril de 2017
Una oración de atentiva estructurada
Zhouhan Lin, Minwei Feng, Cicero Nogueira dos Santos, Mo Yu, Bing Xiang, Bowen Zhou, Yoshua Bengio
EMNLP 2017, [Paper] [Github]
09 de marzo de 2017
Aprendizaje de similitud de oraciones por descomposición léxica y composición
Zhiguo Wang, Haitao MI, Abraham Ittycheriah
Coling 2016, [documento] [Github]
11 de diciembre de 2016
Un modelo de atención descomponible para la inferencia del lenguaje natural
Ankur Parikh, Oscar Täckström, Dipanjan Das, Jakob Uszkoreit
EMNLP 2016, [Paper] [GitHub]
01 de noviembre de 2016
Razonamiento sobre la implicación con la atención neuronal
Tim Rocktäschel, Edward Grefenstette, Karl Moritz Hermann, Tomáš Kočiský, Phil Blunsom
ICLR 2016, [documento] [Github]
1 de marzo de 2016
Dls@cu: similitud de oraciones por alineación de palabras y composición vectorial semántica
Md Arafat Sultan, Steven Bethard, Tamara Sumner
Semeval 2015, [documento]
04 de junio de 2015
Volver a lo básico para la alineación monolingüe: explotando la similitud de palabras y la evidencia contextual
Md Arafat Sultan, Steven Bethard, Tamara Sumner
TACL 2014, [Documento]
01 de mayo de 2014
Mejorando la distancia de Word Mover aprovechando la matriz de autoatención
Hiroaki Yamagiwa, Sho Yokoi, Hidetoshi Shimodaira
EMNLP 2023 Hallazgos, [Documento] [GitHub]
02 de noviembre de 2023
Hacia la similitud textual semántica interpretable a través del aprendizaje de oraciones contrastante basado en el transporte óptimo
Seonghyeon Lee, Dongha Lee, Seongbo Jang, Hwanjo Yu
ACL 2022, [documento] [Github]
22 de mayo de 2022
Distancia del rotador de palabras
Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, Kentaro Inui
EMNLP 2020, [Paper] [Github]
16 de noviembre de 2020
Moverscore: Generación de texto que evalúa con incrustaciones contextualizadas y la distancia de la Migera de la Tierra
Wei Zhao, Maxime Peyrard, Fei Liu, Yang Gao, Christian M. Meyer, Steffen Eger
EMNLP 2019, [Paper] [Github]
03 de noviembre de 2019
Desde incrustaciones de palabras hasta distancias de documento
Matt Kusner, Yu Sun, Nicholas Kolkin, Kilian Weinberger
ICML 2015, [documento] [Github]
06 de julio de 2015
Incrustaciones de oraciones de caminata aleatoria sin supervisión: una línea de base fuerte pero simple
Kawin Ethayarajh
Repl4nlp 2018, [documento] [Github]
20 de julio de 2018
Un marco eficiente para las representaciones de oraciones de aprendizaje
Lajanugen Logeswaran, Honglak Lee
ICLR 2018, [documento] [GitHub]
30 de abril de 2018
Codificador de oraciones universales
Daniel Cer, Yinfei Yang, Sheng-yi Kong, Nan Hua, Nicole Limtiaco, Rhomni St. John, Noah Constant, Mario Guajardo-Cespedes, Steve Yuan, Chris Tar, Yun-Hsuan Sung, Brian Strope, Ray Kurzweil
ARXIV 2018, [Documento] [GitHub]
12 de abril de 2018
Aprendizaje supervisado de representaciones de oraciones universales a partir de datos de inferencia de lenguaje natural
Alexis Conneau, Douwe Kiela, Holger Schwenk, Loïc Barrault, Antoine Bordes
EMNLP 2017, [Paper] [Github]
07 de septiembre de 2017
Una línea de base simple pero difícil de volar para los incrustaciones de oraciones
Sanjeev Arora, Yingyu Liang, Tengyu MA
ICLR 2017, [documento] [Github]
06 de febrero de 2017
Aprender representaciones distribuidas de oraciones a partir de datos no etiquetados
Felix Hill, Kyunghyun Cho, Anna Korhonen
NAACL 2016, [Documento] [GitHub (no oficial)]
12 de junio de 2016
Vectores de pensamiento de salto
Ryan Kiros, Yukun Zhu, Ruslan Salakhutdinov, Richard S. Zemel, Antonio Torralba, Raquel Urtasun, Sanja Fidler
Neurips 2015, [documento] [Github]
22 de junio de 2015
Representaciones distribuidas de oraciones y documentos
Quoc V. LE, Tomas Mikolov
ICML 2014, [papel]
21 de junio de 2014
Representaciones de oraciones blanqueantes para una mejor semántica y recuperación más rápida
Jianlin Su, Jiarun Cao, Weijie Liu, Yangyiwen OU
ARXIV 2021, [Paper] [GitHub (TensorFlow)] [GitHub (Pytorch)]]
29 de marzo de 2021
Sobre la oración de incrustaciones de modelos de idiomas previamente capacitados
Bohan Li, Hao Zhou, Junxian He, Mingxuan Wang, Yiming Yang, Lei Li
EMNLP 2020, [Paper] [Github]
02 de noviembre de 2020
Sbert-WK: un método de incrustación de oraciones al diseccionar modelos de palabras basados en Bert
Bin Wang, C.-C. Jay Kuo
IEEE/ACM T-ASLP, [Paper] [Github]
29 de julio de 2020
Sentencia-Bert: incrustaciones de oraciones utilizando siamese Bert-Networks
Nils Reimers, Iryna Gurevych
EMNLP 2019, [Paper] [Github]
27 de agosto de 2019
Bleurt: aprendiendo métricas robustas para la generación de texto
Thibault Sellam, Dipanjan Das, Ankur Parikh
ACL 2020, [documento] [Github]
05 de julio de 2020
Bertscore: Evaluación de la generación de texto con Bert
Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, Yoav Artzi
ICLR 2020, [documento] [GitHub]
24 de febrero de 2020
Hacia la similitud textual semántica interpretable a través del aprendizaje de oraciones contrastante basado en el transporte óptimo
Seonghyeon Lee, Dongha Lee, Seongbo Jang, Hwanjo Yu
ACL 2022, [documento] [Github]
22 de mayo de 2022
SIMCSE: aprendizaje contrastante simple de incrustaciones de oraciones
Tianyu Gao, Xingcheng Yao, Danqi Chen
EMNLP 2021, [Paper] [Github]
03 de junio de 2021
Aprendizaje contrastante autoguiado para representaciones de oraciones de Bert
Taeuk Kim, Kang Min Yoo, Sang-Goo Lee
ACL 2021, [documento] [Github]
03 de junio de 2021
Conserta: un marco de contraste para la transferencia de representación de oraciones auto-supervisada
Yuanmeng Yan, Rumei Li, Sirui Wang, Fuzheng Zhang, Wei Wu, Weiran Xu
ACL 2021, [documento] [Github]
25 de mayo de 2021
Re-ajuste semántico con tensión contrastante
Fredrik Carlsson, Amaru Cuba Gyllensten, Evangelia Gogoulou, Erik Ylipää Hellqvist, Magnus Sahlgren
ICLR 2021, [documento] [Github]
03 de mayo de 2021
Claro: aprendizaje contrastante para la representación de oraciones
Zhuofeng Wu, Sinong Wang, Jiatao GU, Madian Khabsa, Fei Sun, Hao Ma
Arxiv 2020, [papel]
31 de diciembre de 2020
Evolución de la similitud semántica: una encuesta
Dhivya Chandrasekaran, Vijay Mago
ACM Computing Survey 2021, [documento]
18 de febrero de 2021
Medidas de distribución de distancia semántica: una encuesta
Saif M. Mohammad, Graeme Hirst
ARXIV 2012, [documento]
8 de marzo de 2012
Coeficiente de correlación lineal de Pearson - Mida la precisión de la predicción
dónde
Coeficiente de correlación de orden de rango de Spearman-Mida la monotonicidad de la predicción
dónde
Si encuentra útil nuestra lista, considere citar nuestro repositorio y kit de herramientas en sus publicaciones. Proporcionamos una entrada de Bibtex a continuación.
@misc { JiaAwesomeSTS23 ,
author = { Jia, Shuyue } ,
title = { Awesome Semantic Textual Similarity } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub Repository } ,
howpublished = { url{https://github.com/SuperBruceJia/Awesome-Semantic-Textual-Similarity} } ,
}
@misc { JiaAwesomeLLM23 ,
author = { Jia, Shuyue } ,
title = { Awesome {LLM} Self-Consistency } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub Repository } ,
howpublished = { url{https://github.com/SuperBruceJia/Awesome-LLM-Self-Consistency} } ,
}
@misc { JiaPromptCraft23 ,
author = { Jia, Shuyue } ,
title = { {PromptCraft}: A Prompt Perturbation Toolkit } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub Repository } ,
howpublished = { url{https://github.com/SuperBruceJia/promptcraft} } ,
}