Los modelos de conversación comenzaron a poder acceder a la web o hacer una copia de seguridad de sus reclamos con fuentes (también conocido como atribución). Por lo tanto, estos chatbots son, por lo tanto, posiblemente máquinas de recuperación de información, compitiendo o incluso sustituyendo los motores de búsqueda tradicionales. Nos gustaría dedicar un espacio a estos modelos, pero también al campo más general de la recuperación de información generativa. Devendemos tentativamente el campo en dos temas principales: generación de respuestas fundamentada y recuperación generativa de documentos . También incluimos recomendación generativa, resumen generativo fundamentado, etc.
¡Bienvenido a Pull-Requests!
Cotizaciones deterministas: hacer que LLMS sea más seguro para la atención médica
Matt Yeung
Blog personal - Abr 2024 [Enlace]
Investigación de generación aumentada de recuperación: 2017-2024
Moritz Mallawitsch
Conocimiento de escala - Febrero de 2024 [enlace]
Mastering Rag: Cómo arquitectar un sistema de trapo empresarial
Pratik Bhavsar
Galileo Labs - Jan 2024 [enlace]
Ejecutando mixtrral 8x7 localmente con llameindex
Llamado
Blog de Llamaindex - diciembre de 2023 [enlace]
Técnicas avanzadas de trapo: una visión general ilustrada
Ivan Ilin
Hacia AI - Dic 2023 [enlace]
Tubería de trapo multimodal con llameindex y neo4j
Tomaz bratánico
Blog de Llamaindex - diciembre de 2023 [enlace]
Benchmarking trapo en mesas
Langchain
Blog de Langchain - diciembre de 2023 [enlace]
Rag avanzado 01: Recuperación de pequeño a Big
Sophia Yang
Hacia Data Science - Nov 2023 [enlace]
Transformaciones de consultas
Langchain
Blog de Langchain - Oct 2023 [enlace]
¿Qué hace que un agente de diálogo sea útil?
Nazneen Rajani, Nathan Lambert, Victor Sanh, Thomas Wolf
Blog de Face Hugging - enero de 2023 [enlace]
Pronóstico de puestos de uso erróneo de modelos de idiomas para campañas de desinformación y cómo reducir el riesgo
Josh A. Goldstein, Girish Sastry, Micah Musser, Renée Diresta, Matthew Gentzel, Katerina Sedova
Blog de Operai - enero de 2023 [enlace]
HECHO, REPORTA Y RAZÓN: Una evaluación unificada de la generación de recuperación satyapriya Krishna, Kalpesh Krishna, Anhad Mohananey, Steven Schwarcz, Adam Stambler, Shyam Upadoay, Manaal Faruqui ARXIV-SEP 2024 [Paper] [Datos]
LitSearch: un punto de referencia de recuperación para la búsqueda de literatura científica
Anirudh Ajith, Mengzhou Xia, Alexis Chevalier, Tanya Goyal, Danqi Chen, Tianyu Gao
ARXIV - Jul 2023 [Documento] [Datos]
Bright: un punto de referencia realista y desafiante para la recuperación intensiva del razonamiento
Hongjin Su, Howard Yen, Mengzhou Xia, Weijia Shi, Niklas Manennighoff, Han-Yu Wang, Haisu Liu, Quan Shi, Zachary S. Siegel, Michael Tang, Ruoxi Sun, Jinsung Yoon, Sarcan O. Arik, Danqi Chen, Tao Yu
ARXIV - OCT 2023 [PAPEL] [DATOS] [Código]
Freshllms: refrescante modelos de idiomas grandes con aumento del motor de búsqueda
Tu Vu, Mohit Iyyer, Xuezhi Wang, Noah Constant, Jerry Wei, Jason Wei, Chris Tar, Yun-Hsuan Sung, Denny Zhou, Quoc Le, Thang Luong
ARXIV - OCT 2023 [Documento] [Código]
LegalBench: un punto de referencia construido en colaboración para medir el razonamiento legal en modelos de idiomas grandes
Neel Guha, Julian Nyarko, Daniel E. Ho, Christopher Ré, Adam Chilton, Aditya Narayana, Alex Chohlas-Wood, Austin Peters, Brandon Waldon, Daniel N. Rockmore, Diego Zambrano, Dmitry Talisman, Enam Hoque, Faiz Surani, Frank Fagan, Galit Sarfaty, Gregory M. Dickinson, Haggai Porat, Jason Hegland, Jessica Wu, Joe Nudell, Joel Niklaus, John Nay, Jonathan H. Choi, Kevin Tobia, Margaret Hagan, Megan MA, Michael Livermore, Nikon Rasumov-Rahe, Nils Holzenberger, Noam Kolt, Peter Henderson, Sean Rehaag, Sharad Goel, Shang Gao, Sunnys, Sunny Williamer, Sunny Williamer, Sunny Williams, Sunny Gandhi, Tom Zur, Varun Iyer, Zehua Li
ARXIV - Ago 2023 [documento] [conjunto de datos]
Conversaciones de OpenSistant: democratizando la alineación del modelo de idioma grande
Andreas Köpf, Yannic Kilcher, Dimitri von Rütte, Sotiris anagnostidis, Zhi-Rui Tam, Keith Stevens, Abdullah Barhoum, Nguyen Minh Duc, Oliver Stanley, Richárd Nagyfi, Shahul ES, Someteri Schuhmann, Huu Nguyen, Alexander Mattick
ARXIV - Abril 2023 [Documento]
Chatgpt-retrievalqa
Arian Askari, Mohammad Aliannejadi, Evangelos Kanoulas, Suzan Verberne
GitHub - Febrero de 2023 [Código]
Kamel: Análisis de conocimiento con entidades multitados en modelos de idiomas
Jan-Christoph Kalo, Leandra Fichtel
AKBC 22 - [Documento]
AHERRYQA: Medir cómo los modelos imitan las falsedades humanas
Stephanie Lin, Jacob Hilton, Owain Evans
ARXIV - SEP 2021 [Documento] [Código]
Recuperación de respuestas complejas
Laura Dietz, Manisha Verma, Filip Radlinski, Nick Craswell, Ben Gamari, Jeff Dalton, John Foley
TREC-2017-2019 [enlace]
Gráfica
Jonathan Larson, Steven Truitt
Microsoft - febrero de 2024 [código]
Estrechamiento de la brecha de evaluación del conocimiento: respuesta de la pregunta del dominio abierto con respuestas de granularidad múltiple
Gal Yona, Roee Aharoni, Mor Geva
ARXIV - Jan 2024 [Documento]
Taller DHS LLM - Módulo 6
Sourab mangrulkar
GitHub - Dic 2023 [Código]
Primeqa: El repositorio principal para la investigación y el desarrollo de preguntas multilingües de última generación
Avirup Sil, Jaydeep Sen, Bhavani Iyer, Martin Franz, Kshitij Fadnis, Mihaela Bornea, Sara Rosenthal, Scott McCarley, Rong Zhang, Vishwajeet Kumar, Yulong Li, Md Arafat Sultan, Riyaz Bhat, Radu Florian, Salim Roukos Roukos
ARXIV - Jan 2023 [documento] [Código]
TRL: Aprendizaje de refuerzo de transformadores
Leandro von Werra, Younes Belkada, Lewis Tunstall, Edward Beeching, Tristan Thrush, Nathan Lambert, Shengyi Huang
GitHub - 2020 [Código]
FactScore: evaluación atómica de grano fino de la precisión fáctica en la generación de texto de forma larga
Sewon Min, Kalpesh Krishna, Xinxi Lyu, Mike Lewis, Wen-Tau Yih, Pang Wei Koh, Mohit Iyyer, Luke Zettlemoyer, Hannaneh Hajishirzi
PYPI - Mayo de 2023 [documento] [Código]
FACKKB: Evaluación de factualidad generalizable utilizando modelos de lenguaje mejorados con conocimiento fáctico
Shangbin Feng, Vidhisha Balachandran, Yuyang Bai, Yulia Tsvetkov
ARXIV - Mayo de 2023 [documento] [Código]
Evaluar la verificabilidad en los motores de búsqueda generativos
Nelson F. Liu, Tianyi Zhang, Percy Liang
ARXIV - Abril de 2023 [documento] [Código]
Taller sobre IA generativa para sistemas de recomendación y personalización
Narges Tabari, Aniket Deshmukh, Wang-Cheng Kang, Rashmi Gangadharaiah, Hamed Zamani, Julian McAuley, George Karypis
KDD 24 - agosto de 2024 [enlace]
Segundo taller sobre recuperación de información generativa
Gabriel Bénédict, Ruqing Zhang, Donald Metzler, Andrew Yates, Ziyan Jiang
Sigir 24 - Jul 2024 [enlace]
IA generativa personalizada
Zheng Chen, Ziyan Jiang, Fan Yang, Zhankui He, Yupeng Hou, Eunah Cho, Julian McAuley, Aram Galstyan, Xiaohua Hu, Jie Yang
CIKM 23 - Oct 2023 [enlace]
Primer taller por recomendación con modelos generativos
Wenjie Wang, Yong Liu, Yang Zhang, Weiwen Liu, Fuli Feng, Xiangnan He, Aixin Sun
CIKM 23 - Oct 2023 [enlace]
Primer taller sobre recuperación de información generativa
Gabriel Bénédict, Ruqing Zhang, Donald Metzler
Sigir 23 - Jul 2023 [enlace]
Modelos y aplicaciones de idiomas basados en recuperación
Akari Asai, Sewon Min, Zexuan Zhong, Danqi Chen
ACL 23 - Jul 2023 [enlace]
Recuperación de información de agentes
Weinan Zhang, Junwei Liao, Ning Li, Kounianhua du
ARXIV - OCT 2024 [PAPEL]
Recitar, reconstruir, recordar: memorización en LMS como un fenómeno multifacético
Usvsn Sai Prashanth, Alvin Deng, Kyle O'Brien, Jyothir SV, Mohammad Aflah Khan, Jaydeep Borkar, Christopher A. Choquette-Choo, Jacob Ray Fuehne, Stella Biderman, Tracy KE, Katherine Lee, Naomi Saphra
ARXIV - JUN 2024 [PAPEL]
Chatgpt es una mierda
Michael Townsen Hicks, James Humphries, Joe Slater
Ética Inf Technol - Jun 2024 [Documento]
Alucinación de modelos multimodales de idiomas grandes: una encuesta
Zechen Bai, Pichao Wang, Tianjun Xiao, Tong He, Zongbo Han, Zheng Zhang, Mike Zheng Shou
ARXIV - Abr 2024 [Documento]
Desde la coincidencia hasta la generación: una encuesta sobre recuperación de información generativa
Xiaoxi Li, Jiajie Jin, Yujia Zhou, Yuyao Zhang, Peitian Zhang, Yutao Zhu y Zhicheng Dou
ARXIV - Abr 2024 [Documento]
Conflictos de conocimiento para LLM: una encuesta
Rongwu Xu, Zehan Qi, Cunxiang Wang, Hongru Wang, Yue Zhang, Wei Xu
ARXIV - Mar 2024 [Documento]
Informe sobre el primer taller sobre recuperación de información generativa (Gen-IR 2023) en Sigir 2023
Gabriel Bénédict, Ruqing Zhang, Donald Metzler, Andrew Yates, Romain Deffayet, Philipp Hager, Sami Jullien
Foro Sigir - Dic 2023 [Documento]
Informe sobre el primer taller sobre IR centrado en la tarea en la era de la IA generativa
Chirag Shah, Ryen W. White
Foro Sigir - Dic 2023 [Documento]
Hacia la búsqueda y recomendación generativa: una nota clave en Recsys 2023
Tat-seng chua
Foro Sigir - Dic 2023 [Documento]
Gran modelo de búsqueda: redefinir la pila de búsqueda en la era de LLMS
Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
Foro Sigir - Dic 2023 [Documento]
Modelos de idiomas grandes para extracción de información generativa: una encuesta
Derong Xu, Wei Chen, Wenjun Peng, Chao Zhang, Tong Xu, Xiangyu Zhao, Xian Wu, Yefeng Zheng, Enhong Chen
ARXIV - Dic 2023 [Documento]
Recuperación de texto denso basado en modelos de idiomas previos a la aparición: una encuesta
Wayne Xin Zhao, Jing Liu, Ruiyang Ren, Ji-Rong Wen
TOIS - Dic 2023 [Documento]
Generación de recuperación de generación para modelos de idiomas grandes: una encuesta
Yunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi Bi, Yi Dai, Jiawei Sun, Haofen Wang
ARXIV - Dic 2023 [Documento]
Los modelos de idiomas calibrados deben alucinar
Adam Tauman Kalai, Santosh S. Vempala
ARXIV - Nov 2023 [Documento]
Canción de Siren en el océano AI: una encuesta sobre alucinación en modelos de idiomas grandes
Yue Zhang, Yafu Li, Leyang Cui, Deng Cai, Lemao Liu, Tingchen Fu, Xinting Huang, Enbo Zhao, Yu Zhang, Yulong Chen, Longyue Wang, Anh Tuan Luu, Wei Bi, Freda Shi, Shuming Shi
ARXIV - SEP 2023 [Documento]
La falsa promesa de imitar a los LLM propietarios
Arnav Gudibande, Eric Wallace, Charlie Snell, Xinyang Geng, Hao Liu, Pieter Abbeel, Sergey Levine, Dawn Song
ARXIV - Mayo de 2023 [Documento]
Recomendación generativa: hacia el paradigma de recomendación de próxima generación
Fengji Zhang, Bei Chen, Yue Zhang, Jin Liu, Daoguang Zan, Yi Mao, Jian-Guang Lou, Weizhu Chen
ARXIV - Abril 2023 [Documento]
Modelos de idiomas aumentados: una encuesta
Grégoire Mialon, Roberto Desta, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-yu, Asli Celikyilmaz, Edouard Grave, Yann Lecun, Thomas Scialom
ARXIV - FEB 2023 [Documento]
Modelos de idiomas generativos y operaciones de influencia automatizada: amenazas emergentes y posibles mitigaciones
Josh A. Goldstein, Girish Sastry, Micah Musser, Renee Diresta, Matthew Gentzel, Katerina Sedova
ARXIV - Jan 2023 [Documento]
Búsqueda de información conversacional. Una introducción a la búsqueda de conversación, recomendación y respuesta de preguntas
Hamed Zamani, Johanne R. Trippas, Jeff Dalton y Filip Radlinski
ARXIV - Jan 2023 [Documento]
Hechos
Kevin Mulligan y Fabrice Correia
La Enciclopedia de Filosofía de Stanford - Invierno 2021 [URL]
AI veraz: desarrollar y gobernar la IA que no miente
Owain Evans, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital Balwit, Peter Wills, Luca Righetti, William Saunders
ARXIV - OCT 2021 [PAPEL]
Repensar la búsqueda: hacer expertos en dominios fuera de los diletantes
Donald Metzler, Yi Tay, Dara Bahri, Marc Najork
Sigir Forum 2021 - mayo de 2021 [documento]
Respuesta de preguntas atribuidas: evaluación y modelado para modelos de idiomas grandes atribuidos
Bernd Bohnet, Vinh Q. Tran, Pat Verga, Roee Aharoni, Daniel Andor, Livio Baldini Soares, Jacob Eisenstein, Kuzman Ganchev, Jonathan Herzig, Kai Hui, Tom Kwiatkowski, Ji Ma, Jianmo Ni, Tal Schuster, William W. Cohen, Michael Collins, Dipanjan Das, Donald Metzler, Slav Petrov, Kellie Webster
ARXIV - Dic 2022 [Documento]
Cierre/recuperación externa en el momento de la inferencia
Raptor: procesamiento abstracto recursivo para recuperación organizada por árboles
Parth Sarthi, Salman Abdullah, Aditi Tuli, Shubh Khanna, Anna Goldie, Christopher D. Manning
ICLR 24 - Jan 2024 [Documento]
Recuperación correctiva Generación aumentada
Shi-Qi Yan, Jia-Chen GU, Yun Zhu, Zhen-Hua Ling
ARXIV - Jan 2024 [Documento]
Es hora de ser: incorporar la temporalidad en los modelos de lenguaje aumentado de recuperación
Anoushka Gade, Jorjeta Jetcheva
ARXIV - Jan 2024 [Documento]
Rag vs ajuste fino: tuberías, compensaciones y un estudio de caso sobre agricultura
Angels Balaguer, Vinamra Benara, Renato Luiz de Freitas Cunha, Roberto de M. Estevão Filho, Todd Hendry, Daniel Holstein, Jennifer Marsman, Nick Mecklenburg, Sara Malvar, Leonardo O. Nunes, Padilha, Morris Sharp, Bruno Silva, Swati Sharma, Vijay, Padilha, Morris Sharp, Bruno Silva, Swati Sharma, Vijay, Vijay, Padilha, Morris Sharp, Bruno Silva, Swati Sharma, Vijay, Vijay, Padilha, Morris Sharp, Bruno Silva, Swati Sharma, Vijay, Vijay, Padilha. Ranveer Chandra
ARXIV - Jan 2024 [Documento]
Secuenciación de las maestros: un modelo generado de generación de retrato para construir agentes de conversación
Quinn Patwardhan, Grace Hui Yang
TREC 23 - Nov 2023 [Documento]
Self-Rag: Aprender a recuperar, generar y criticar a través de la autorreflexión
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
RA-DIT: ajuste de doble instrucción de recuperación de doble instrucción
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Aprendizaje en contexto con modelos de idiomas de codificador de codificadores aumentados de recuperación
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Hacer que los modelos de lenguaje de recuperación aumentados sean robustos al contexto irrelevante
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
La recuperación cumple con el contexto largo modelos de idiomas grandes
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Reforma la adaptación del dominio de los grandes modelos de idiomas como adapt-retrieve-revise
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
InstrucTretro: instrucciones ajustado posterior a la recuperación preventiva
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Seguro: Mejora de la respuesta de las preguntas de dominio abierto de LLM a través de la recuperación resumida
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Recompensar: Mejora de LMS de recuperación con compresión de contexto y aumento selectivo
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
La recuperación es una generación precisa
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Paperqa: agente generativo de recuperación para la investigación científica
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Comprensión del aumento de recuperación para la respuesta de las preguntas a largo plazo
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Generación de idiomas personalizado a través de la recuperación aumentada de la métrica bayesiana
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
DSPY: Compilar el modelo de lenguaje declarativo llamadas a tuberías de administración automática
Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Moazam, Heather Miller, Mate, Mate, Christopher Potts
ARXIV - OCT 2023 [Documento] [Código]
RA-DIT: ajuste de doble instrucción de recuperación de doble instrucción
Xi Victoria Lin, Xilun Chen, Mingda Chen, Weijia Shi, Maria Lomeli, Rich James, Pedro Rodríguez, Jacob Kahn, Gergely Szilvasy, Mike Lewis, Luke Zettlemoyer, Scott Yih
ARXIV - Agosto de 2023 [Documento]
La documentación de la herramienta permite el uso de herramientas de disparo cero con modelos de idiomas grandes
Cheng-yu Hsieh, Si-an Chen, Chun-Liang Li, Yasuhisa Fujii, Alexander Ratner, Chen-yu Lee, Ranjay Krishna, Tomas Pfister
ARXIV - Agosto de 2023 [Documento]
Reaugkd: destilación de conocimiento de recuperación de recuperación para modelos de idiomas previamente capacitados
Jianyi Zhang, Aashiq Muhamed, Aditya Anantharaman, Guoyin Wang, Changyou Chen, Kai Zhong, Qingjun Cui, Yi Xu, Belinda Zeng, Trishul Chilimbi, Yiran Chen
ACL 23 - Jul 2023 [Documento]
La recuperación basada en la superficie reduce la perplejidad de los modelos de idiomas acuáticos de recuperación
Ehsan Doostmohammadi, Tobias Norlund, Marco Kuhlmann, Richard Johansson
ACL 23 - Jul 2023 [Documento]
Ajuste de inmediato suave para aumentar la recuperación densa con modelos de idiomas grandes
Zhiyuan Peng, Xuyang Wu, Yi Fang
ARXIV - JUN 2023 [PAPEL]
RetA-llm: un kit de herramientas de modelo de idioma grande auge de recuperación
Jiongnan Liu, Jiajie Jin, Zihan Wang, Jiehan Cheng, Zhicheng Dou, Ji-Rong Wen
ARXIV - JUN 2023 [PAPEL]
WebGLM: hacia un sistema eficiente de respuesta de preguntas mejoradas en la web con preferencias humanas
Xiao Liu, Hanyu Lai, Hao Yu, Yifan Xu, Aohan Zeng, Zhengxiao Du, Peng Zhang, Yuxiao Dong, Jie Tang
ARXIV - JUN 2023 [PAPEL]
Wikichat: Detener la alucinación de los chatbots de modelos de idiomas grandes por poca sesión en Wikipedia
Sina J. Semnani, Violet Z. Yao, Heidi C. Zhang, Monica S. Lam
Hallazgos de EMNLP 2023 - mayo de 2023 [documento] [código] [demo]
Ret-llm: hacia una memoria general de lectura-escritura para modelos de idiomas grandes
Ali Modarressi, Ayyoob Imani, Mohsen Fayyaz, Hinrich Schutze
ARXIV - Mayo de 2023 [Documento]
Gorila: modelo de lenguaje grande conectado con API masivas
Shishir G. Patil, Tianjun Zhang, Xin Wang, Joseph E. González
ARXIV - Mayo de 2023 [documento] [Código]
¿Deberemos que se prohíban los modelos de idiomas autorregresivos con recuperación? Un estudio completo
Boxin Wang, Wei Ping, Peng Xu, Lawrence McAfee, Zihan Liu, Mohammad Shoeybi, Yi Dong, Oleksii Kuchaiev, Bo Li, Chaowei Xiao, Anandkumar, Bryan Catzaro
ARXIV - Abr 2023 [documento] [Código]
Verifique sus hechos e intente nuevamente: Mejora de modelos de idiomas grandes con conocimiento externo y comentarios automatizados
Baolin Peng, Michel Galley, Pengcheng He, Hao Cheng, Yujia Xie, Yu Hu, Qiuyuan Huang, Lars Liden, Zhou Yu, Weizhu Chen, Jianfeng Gao
ARXIV - FEB 2023 [Documento] [Código]
Formador de herramientas: los modelos de idiomas pueden enseñarse a usar herramientas
Timo Schick, Jane Dwivedi-Yu, Roberto Desta, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom
ARXIV - FEB 2023 [Documento]
Repluja: modelos de lenguaje de caja negra con sugumentación de recuperación
Weijia Shi, Sewon Min, Michihiro Yasunaga, Minjoon Seo, Rich James, Mike Lewis, Luke Zettlemoyer, Wen-tau yih
ARXIV - Jan 2023 [Documento]
Modelos de lenguaje de recuperación de contexto auge
Ori Ram, Yoav Levine, Itay Dalmedigos, Dor Muhlgay, Amnon Shashua, Kevin Leyton-Brown, Yoav Shoham
AI21 Labs - Jan 2023 [documento] [Código]
Recetas para construir un chatbot de dominio abierto
Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, Jason Weston
EACL 2021 - Abr 2021 [papel]
ATMAN: Comprensión de las predicciones del transformador a través de la manipulación de atención eficiente de memoria
Hamed Zamani, Johanne R. Trippas, Jeff Dalton y Filip Radlinski
ARXIV - Jan 2023 [Documento]
RETROMAE V2: modelos de lenguaje orientados a la recuperación de la recuperación de pre-entrenamiento dúplex
Shitao xiao, zheng liu
ARXIV - Nov 2023 [Documento]
Demostrar predicto de búsqueda: componer modelos de recuperación e idiomas para NLP intensivo en conocimiento Omar Khattab, Keshav Santhanam, Xiang Lisa Li, David Hall, Percy Liang, Christopher Potts, Matei Zaharia
ARXIV - Dic 2022 [Documento]
Mejora de los modelos de idiomas recuperando de billones de tokens
Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Roman Ring, Tom Hennigan, Saffron Huang, Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen y Laurent SiFre
ARXIV - FEB 2022 [Documento]
Mejora de los modelos de idiomas recuperando de billones de tokens
Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Roman Ring, Tom Hennigan, Saffron Huang, Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen, Laurent SiFre
ARXIV - Dic 2021 [Documento]
WebGPT: cuestionamiento asistido por el navegador, respuesta de retroalimentación humana
Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, Xu Jiang, Karl Cobbe, Tyna Elleidou, Gretchen Krueger, Kevin Button, Matthew Knight, Benjamamin, Juan, Benjaman, Juan, Juan Schulman.
ARXIV - Dic 2021 [Documento]
Bert-Knn: Agregar un componente de búsqueda KNN a los modelos de lenguaje previos a la aparición para un mejor control de calidad
Nora Kassner, Hinrich Schütze
EMNLP 2020 - Nov 2020 [papel]
Reino: Modelo de lenguaje de recuperación de recuperación previa al entrenamiento
Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, Ming-Wei Chang
ICML 2020 - Jul 2020 [papel]
Un modelo de conversación neuronal de generación de recuperación híbrida
Liu Yang, Junjie Hu, Minghui Qiu, Chen Qu, Jianfeng Gao, W. Bruce Croft, Xiaodong Liu, Yelong Shen, Jingjing Liu
ARXIV - APR 2019 [Documento]
Ciertamente en los pesos del modelo interno en el momento de la inferencia
¿Cómo adquieren los modelos de idiomas grandes el conocimiento fáctico durante el pretrénmente?
Hoyeon Chang, Jinho Park, Seonghyeon Ye, Sohee Yang, Youngkyung Seo, Du-Seong Chang, Minjoon Seo
ARXIV - JUN 2024 [PAPEL]
Modelos de lenguaje ajustados para la facturidad
Katherine Tian, Eric Mitchell, Huaxiu Yao, Christopher D. Manning, Chelsea Finn
ARXIV - Nov 2023 [Documento]
R-ajuste: enseñar modelos de idiomas grandes para rechazar preguntas desconocidas
Hanning Zhang, Shizhe Diao, Yong Lin, Yi R. Fung, Qing Lian, Xingyao Wang, Yangyi Chen, Heng Ji, Tong Zhang
ARXIV - Nov 2023 [Documento]
EasyEdit: un marco de edición de conocimiento fácil de usar para modelos de idiomas grandes
Peng Wang, Ningyu Zhang, Xin Xie, Yunzhi Yao, Bozhong Tian, Mengru Wang, Zekun XI, Siyuan Cheng, Kangwei Liu, Guozhou Zheng, Huajun Chen
ARXIV - Agosto de 2023 [Documento]
Inspeccionar y editar representaciones de conocimiento en modelos de idiomas
Evan Hernández, Belinda Z. Li, Jacob Andreas
ARXIV - Abr 2023 [documento] [Código]
Aprovechando la recuperación del pasaje con modelos generativos para la respuesta de preguntas de dominio abierto
Gautier Izacard, Edouard Grave
ARXIV - FEB 2023 [Documento]
Descubrir el conocimiento latente en modelos de idiomas sin supervisión
Collin Burns, Haotian Ye, Dan Klein, Jacob Steinhardt
ICLR 23 - Febrero de 2023 [documento] [Código]
Galactica: un modelo de lenguaje grande para la ciencia
Ross Taylor, Marcin Kardas, Guillem Cucurull, Thomas Scialom, Anthony Hartshorn, Elvis Saravia, Andrew Poulton, Viktor Kerkez, Robert Stojnic
Galactica.org - 2022 [papel]
Blenderbot 3: un agente de conversación desplegado que aprende continuamente a participar de manera responsable
Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, Morteza Behrooz, William Ngan, Spencer Poff, Naman Goyal, Arthur Szlam, Y-Lan Boureau, Melanie Kange Kambadur, Jasón Weston, Jasón, Jasón, Jasón, Jasón.
ARXIV - Agosto de 2022 [Documento]
Generar en lugar de recuperar: los modelos de idiomas grandes son generadores de contexto fuertes
Wenhao Yu, Dan Iter, Shuohang Wang, Yichong Xu, Mingxuan Ju, Soumya Sanyal, Chenguang Zhu, Michael Zeng, Meng Jiang
ICLR 2023 - SEP 2022 [Documento]
Modelos de idiomas augsados de recitación
Zhiqing Sun, Xuezhi Wang, Yi Tay, Yiming Yang, Denny Zhou
ICLR 2023 - SEP 2022 [Documento]
Mejora de la alineación de los agentes del diálogo a través de juicios humanos dirigidos
Amelia Glaese, Nat Mcalesese, Maja Trębacz, John Aslanides, Vlad Firoiu, Timo Ewalds, Maribeth Rauh, Laura Weidinger, Martin Chadwick, Phoebe Thacker, Lucy Campbell-Gillingham, Jonathan Uesato, Po-Sen Huang, Ramona Comanescu, Fan Yenang, Absangeil, Sumberhan, Sumberhan Uesato, Po-Sen Huang, Ramona Comanescu, Fan Yenang, Absangeil, Sumberhan, Sumberhan Uesato. Dathathri, Rory Greig, Charlie Chen, Doug Fritz, Jaume Sánchez Elias, Richard Green, Soňa Mokrá, Nicholas Fernando, Boxi Wu, Rachel Foley, Susannah Young, Iion Gabriel, William Isaac, John Mellor, Demis Hassabis, Koray Kavukcuoglu, Lisa Hendings, Henden Geoffrey Irving
ARXIV - SEP 2022 [Documento]
Lamda: modelos de idioma para aplicaciones de diálogo
Thoppilan romal, Daniel de Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker, Yu du, Yaguang Li, Hongrae Lee, Huaixiu Steven Zheng, Amind Ghafouri, Marcelo Menegali, Yanang, Yanang, Yanang, Yanang, Yanang, Yanang, Yanang, yanange, yanange, yanange, yanangali, yanangali, yanangali, yangali, yangali. Krikun, Dmitry Lepikhin, James Qin, Dehao Chen, Yuanzhong Xu, Zhifeng Chen, Adam Roberts, Maarten Bosma, Vincent Zhao, Yanqi Zhou, Chung-Ching Chang, Igor Krivokon, Will Rusch, Marc Pickett, Pranesh Srinivasan, Laichee Man, Kathleen Meier-Hellstern, Meredith Ringel Morris, Tulsee Doshi, Renelito Delos Santos, Toju Duke, Johnny Soraker, Ben Zevenbergen, Vinodkumar Prabhakaran, Mark Díaz, Ben Hutchinson, Kristen Olson, Alejandra Molina, Erin Hoffman-John, Josh Lee, Lora Arayo, Ravi, Rajaker, Alena, Alena, Alena, Alena, Alena. Matthew Lamm, Viktoriya Kuzmina, Joe Fenton, Aaron Cohen, Rachel Bernstein, Ray Kurzweil, Blaise AgUera-Arcas, Claire Cui, Marian Croak, Ed Chi, Quoc Le
ARXIV - Jan 2022 [Documento]
Modelos de idiomas como o para bases de conocimiento
Simon Razniewski, Andrew Yates, Nora Kassner, Gerhard Weikum
DL4KG 2021 - OCT 2021 [PAPEL]
Generalización a través de la memorización: modelos de idiomas vecinos más cercanos
Urvashi Khandelwal, Omer Levy, Dan Jurafsky, Luke Zettlemoyer, Mike Lewis
ICLR 2020 - SEP 2019 [documento] [Código]
¿Chatgpt es bueno en la búsqueda? Investigar los modelos de idiomas grandes como agentes de rango
Wenhao Yu, Hongming Zhang, Xiaoman Pan, Kaixin MA, Hongwei Wang, Dong Yu
ARXIV - Nov 2023 [Documento]
La destilación de instrucciones hace que los modelos de lenguaje grande sean eficientes en rango de disparo cero
Weiwei Sun, Zheng Chen, Xinyu MA, Lingyong Yan, Shuaiqiang Wang, Pengjie Ren, Zhumin Chen, Dawei Yin, Zhaochun Ren
ARXIV 2023 - Nov 2023 [papel]
CRÍTICO: Los modelos de idiomas grandes pueden autocorregarse con una crítica interactiva para herramientas
Zhibin Gou, Zhihong Shao, Yeyun Gong, Yelong Shen, Yujiu Yang, Nan Duan, Weizhu Chen
ICLR 2024 - enero de 2024 [papel]
Una puntada en el tiempo ahorra nueve: detectar y mitigar alucinaciones de LLM al validar la generación de baja confianza
Neeraj Varshney, Wenlin Yao, Hongming Zhang, JiAnshu Chen, Dong Yu
ARXIV - Agosto de 2023 [Documento]
RARR: Investigar y revisar lo que dicen los modelos de idiomas, utilizando modelos de idiomas
Luyu Gao, Zhuyun Dai, Panupong Pasupat, Anthony Chen, Arun Tejasvi Chaganty, Yicheng Fan, Vincent Zhao, Ni Lao, Hongrae Lee, Da-Cheng Juan, Kelvin Guu
ACL 2023 - Jul 2023 [papel]
Verificar y editar: un marco de cadena de pensamiento mejorado por el conocimiento
Ruochen Zhao, Xingxuan Li, Shafiq Joty, Chengwei Qin, Lidong Bing
ACL 2023 - Jul 2023 [papel]
Recuperación activa Generación aumentada
Zhengbao Jiang, Frank F. Xu, Luyu Gao, Zhiqing Sun, Qian Liu, Jane Dwivedi-Yu, Yiming Yang, Jamie Callan, Graham Neubig
ARXIV - Mayo de 2023 [documento] [Código]
Mejora de los modelos de idiomas a través de la retroalimentación de recuperación de plug-and-play
Wenhao Yu, Zhihan Zhang, Zhenwen Liang, Meng Jiang, Ashish Sabharwal
ARXIV - Mayo de 2023 [Documento]
Calibración lingüística de generaciones de forma larga
Neil Band, Xuechen Li, Tengyu MA, Tatsunori Hashimoto
ARXIV 2024 - Jun 2024 [papel]
Creer o no creer en tu LLM
Yasin Abbasi Yadkori, Ilja Kuzborskij, András György, Csaba Szepesvári
ARXIV 2024 - Jun 2024 [papel]
Siga Solicitud: Enseñar LLM para expresar confianza con los racionales autorreflexivos
Tianyang Xu, Shujin Wu, Shizhe Dioo, Xiaoze Liu, Xingyao Wang, Yangyi Chen, Jing Gao
ARXIV 2024 - mayo 2024 [papel]
Los expertos no hacen trampa: aprendiendo lo que no sabes predeciendo pares
Daniel D. Johnson, Daniel Tarlow, David Duvenaud, Chris J. Maddison
ARXIV 2024 - FEB 2024 [Documento]
Desbloqueo de la generación de texto anticipatoria: un enfoque restringido para la decodificación fiel con modelos de idiomas grandes
Anónimo
ICLR 24 - OCT 2023 [PAPEL]
Dola: la decodificación por capas contrastantes mejora la facturidad en modelos de idiomas grandes
Yung-sung Chuang, Yujia Xie, Hongyin Luo, Yoon Kim, James Glass, Pengcheng HE
ICLR 24 - SEP 2023 [Documento]
Un enfoque centrado en los datos para generar resúmenes de pacientes fieles y de alta calidad con modelos de idiomas grandes
Stefan Hegselmann, Shannon Zejiang Shen, Florian Gierse, Monica Agrawal, David Sontag, Xiaoyi Jiang
ARXIV 24 - FEB 2024 [Documento]
Rag estocástico: generación de recuperación de extremo a extremo a través de la maximización de la utilidad esperada
Hamed Zamani, Michael Bendersky
ARXIV 24 - Mayo de 2024 [Documento]
AI constitucional: inofensiva de la retroalimentación de la IA
Yuntao Bai, Saurav Kadavath, Sandipan Kundu, Amanda Askell, Jackson Kernion, Andy Jones, Anna Chen, Anna Goldie, Azalia Mirhoseini, Cameron McKinnon, Carol Chen, Catherine Olsson, Christopher Olah, Danny Hernandez, Drawn Drain, Deep Ganguli, Dustin Li, Eli Trahson, Ethan-Johnson, Ethan-Jeh Pérez, Jamie Kerr, Jared Mueller, Jeffrey Ladish, Joshua Landau, Kamal Ndousse, Kamile Lukosiute, Liane Lovitt, Michael Sellitto, Nelson Elhage, Nicholas Schiefer, Noemi Mercado, Nova Dassarma, Robert Lasenby, Robin, Sam Rorson, Scott Johnston, Shaveced, Sheavec, Sheavec, Sheavec, Sheavec. Showk, Stanislav Fort, Tamera Lanham, Timothy Telleen-Lawton, Tom Conerly, Tom Henighan, Tristan Hume, Samuel R. Bowman, Zac Hatfield-Dodds, Ben Mann, Dario Amodei, Nicholas Joseph, Sam McCandlish, Tom Brown, Jared Kaplan Anthope.com-Dec 2022 [Paper] [Paper]
Aprender nuevas habilidades después del despliegue: Mejora del diálogo impulsado por Internet de dominio abierto con comentarios humanos
Jing Xu, Megan Ung, Mojtaba Komeili, Kushal Arora, Y-Lan Boureau, Jason Weston
ARXIV - Agosto de 2022 [Documento]
Modelado de lenguaje multimodal de recuperación de recuperación
Michihiro Yasunaga, Armen Aghajanyan, Weijia Shi, Rich James, Jure Leskovec, Percy Liang, Mike Lewis, Luke Zettlemoyer, Wen-tau Yih
ARXIV - Nov 2022 [Documento]
RAMM: Pregunta biomédica visual biomédica de recuperación de recuperación respondiendo con pre-entrenamiento multimodal
Zheng Yuan, Qiao Jin, Chuanqi Tan, Zhengyun Zhao, Hongyi Yuan, Fei Huang, Songfang Huang
ARXIV - Mar 2023 [Documento]
Recuperación de intercalación con razonamiento de la cadena de pensamiento para preguntas de múltiples pasos que intensifican el conocimiento Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot y Ashish Sabharwal ACL 23-Jul 2023 [periódico]
React: sinergizando razonamiento y actuación en modelos de idiomas
Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan du, Izhak Shafran, Karthik Narasimhan, Yuan Cao
ARXIV - OCT 2022 [PAPEL]
Repocoder: finalización del código a nivel de repositorio a través de la recuperación iterativa y la generación
Fengji Zhang, Bei Chen, Yue Zhang, Jin Liu, Daoguang Zan, Yi Mao, Jian-Guang Lou, Weizhu Chen
ARXIV - Mar 2023 [Documento]
Docprompting: Generación del código recuperando los documentos
Shuyan Zhou, Uri Alon, Frank F. Xu, Zhiruo Wang, Zhengbao Jiang, Graham Neubig
ICLR 23 - Jul 2022 [Paper] [Código] [Datos]
Generar, filtrar y fusionar: la expansión de consulta a través de la generación de palabras clave de múltiples pasos para rankers neurales de disparo cero
Minghan Li, Honglei Zhuang, Kai Hui, Zhen Qin, Jimmy Lin, Rolf Jagerman, Xuanhui Wang, Michael Bendersky
ARXIV - Nov 2023 [Documento]
Agent4Ranking: clasificación sólida semántica mediante reescritura de consultas personalizadas utilizando LLM de múltiples agentes
Xiaopeng Li, Lixin Su, Pengyue Jia, Xiangyu Zhao, Suqi Cheng, Junfeng Wang, Dawei Yin
ARXIV - Dic 2023 [Documento]
Recuperación generativa y densa unificada para reescribir consultas en búsqueda patrocinada
Akash Kumar Mohankumar, Bhargav Dodla, Gururaj K, Amit Singh
ARXIV - SEP 2022 [Documento]
Generar deportes de hecho consistente resalta las narraciones
Noah Sarfati, Ido Yerushalmy, Michael Chertok, Yosi Keller
MMSPORTS 2023 - 23 de octubre [papel]
Recuperación de información generativa genética
Hrishikesh Kulkarni, Zachary Young, Nazli Goharian, Ophir Frieder, Sean Macavaney
Doceng 23 - 23 de agosto [documento]
Aprender a resumir con la retroalimentación humana
Nisan Stiennon, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, Paul Christiano
Neurips 2020 - Sep 2020 [papel]
Sobre la fidelidad y la facturidad en el resumen abstracto
Joshua Maynez, Shashi Narayan, Bernd Bohnet, Ryan McDonald
ACL 2020 - mayo 2020 [papel]
Augment before You Try: Knowledge-Enhanced Table Question Answering via Table Expansion
Yujian Liu, Jiabao Ji, Tong Yu, Ryan Rossi, Sungchul Kim, Handong Zhao, Ritwik Sinha, Yang Zhang, Shiyu Chang
arXiv – Jan 2024 [paper]
We jump-started this section by reusing the content of awesome-generative-retrieval-models and give full credit to Chriskuei for that! We now have added some content on top.
De-DSI: Decentralised Differentiable Search Index
Petru Neague, Marcel Gregoriadis, Johan Pouwelse
EuroMLSys 24 – Apr 2024 [paper]
Listwise Generative Retrieval Models via a Sequential Learning Process
Yubao Tang, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Wei Chen, Xueqi Cheng
TOIS 2024 – Mar 2024 [Paper]
Distillation Enhanced Generative Retrieval
Yongqi Li, Zhen Zhang, Wenjie Wang, Liqiang Nie, Wenjie Li, Tat-Seng Chua
arXiv 2024 – Feb 2024 [Paper]
Self-Retrieval: Building an Information Retrieval System with One Large Language Model
Qiaoyu Tang, Jiawei Chen, Bowen Yu, Yaojie Lu, Cheng Fu, Haiyang Yu, Hongyu Lin, Fei Huang, Ben He, Xianpei Han, Le Sun, Yongbin Li
arXiv 2024 – Feb 2024 [Paper]
Generative Dense Retrieval: Memory Can Be a Burden
Peiwen Yuan, Xinglin Wang, Shaoxiong Feng, Boyuan Pan, Yiwei Li, Heda Wang, Xupeng Miao, Kan Li
EACL 2024 - Jan 2024 [paper] [code]
Auto Search Indexer for End-to-End Document Retrieval
Tianchi Yang, Minghui Song, Zihan Zhang, Haizhen Huang, Weiwei Deng, Feng Sun, Qi Zhang
EMNLP 2023 - December 23 [paper]
DiffusionRet: Diffusion-Enhanced Generative Retriever using Constrained Decoding
Shanbao Qiao, Xuebing Liu, Seung-Hoon Na
EMNLP Findings 2023 – Dec 2023 [paper]
Scalable and Effective Generative Information Retrieval
Hansi Zeng, Chen Luo, Bowen Jin, Sheikh Muhammad Sarwar, Tianxin Wei, Hamed Zamani
WWW 2024 - Nov 2023 [paper] [code]
Nonparametric Decoding for Generative Retrieval
Hyunji Lee, JaeYoung Kim, Hoyeon Chang, Hanseok Oh, Sohee Yang, Vladimir Karpukhin, Yi Lu, Minjoon Seo
ACL Findings 2023 – Jul 2023 [paper]
Model-enhanced Vector Index
Hailin Zhang, Yujing Wang, Qi Chen, Ruiheng Chang, Ting Zhang, Ziming Miao, Yingyan Hou, Yang Ding, Xupeng Miao, Haonan Wang, Bochen Pang, Yuefeng Zhan, Hao Sun, Weiwei Deng, Qi Zhang, Fan Yang, Xing Xie, Mao Yang, Bin Cui
NeurIPS 2023 – May 2023 [paper] [code]
Continual Learning for Generative Retrieval over Dynamic Corpora
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Wei Chen, Yixing Fan, Xueqi Cheng
CIKM 2023 - Aug 2023 [paper]
Learning to Rank in Generative Retrieval
Yongqi Li, Nan Yang, Liang Wang, Furu Wei, Wenjie Li
arXiv – Jun 2023 [paper]
Large Language Models are Built-in Autoregressive Search Engines
Noah Ziems, Wenhao Yu, Zhihan Zhang, Meng Jiang
ACL Findings 2023 – May 2023 [paper]
Multiview Identifiers Enhanced Generative Retrieval
Yongqi Li, Nan Yang, Liang Wang, Furu Wei, Wenjie Li
ACL 2023 – May 2023 [paper]
How Does Generative Retrieval Scale to Millions of Passages?
Ronak Pradeep, Kai Hui, Jai Gupta, Adam D. Lelkes, Honglei Zhuang, Jimmy Lin, Donald Metzler, Vinh Q. Tran
arXiv – May 2023 [paper]
TOME: A Two-stage Approach for Model-based Retrieval
Ruiyang Ren, Wayne Xin Zhao, Jing Liu, Hua Wu, Ji-Rong Wen, Haifeng Wang
ACL 2023 - May 2023 [paper]
Understanding Differential Search Index for Text Retrieval
Xiaoyang Chen, Yanjiang Liu, Ben He, Le Sun, Yingfei Sun
ACL Findings 2023 - May 2023 [paper]
Learning to Tokenize for Generative Retrieval
Weiwei Sun, Lingyong Yan, Zheng Chen, Shuaiqiang Wang, Haichao Zhu, Pengjie Ren, Zhumin Chen, Dawei Yin, Maarten de Rijke, Zhaochun Ren
arXiv – Apr 2023 [paper]
DynamicRetriever: A Pre-trained Model-based IR System Without an Explicit Index
Yu-Jia Zhou, Jing Yao, Zhi-Cheng Dou, Ledell Wu, Ji-Rong Wen
Machine Intelligence Research – Jan 2023 [paper]
DSI++: Updating Transformer Memory with New Documents
Sanket Vaibhav Mehta, Jai Gupta, Yi Tay, Mostafa Dehghani, Vinh Q. Tran, Jinfeng Rao, Marc Najork, Emma Strubell, Donald Metzler
arXiv – Dec 2022 [paper]
CodeDSI: Differentiable Code Search
Usama Nadeem, Noah Ziems, Shaoen Wu
arXiv – Oct 2022 [paper]
Contextualized Generative Retrieval
Hyunji Lee, Jaeyoung Kim, Hoyeon Chang, Hanseok Oh, Sohee Yang, Vlad Karpukhin, Yi Lu, Minjoon Seo
arXiv – Oct 2022 [paper]
Transformer Memory as a Differentiable Search Index
Yi Tay, Vinh Q. Tran, Mostafa Dehghani, Jianmo Ni, Dara Bahri, Harsh Mehta, Zhen Qin, Kai Hui, Zhe Zhao, Jai Gupta, Tal Schuster, William W. Cohen, Donald Metzler
Neurips 2022 – Oct 2022 [paper] [Video] [third-party code]
A Neural Corpus Indexer for Document Retrieval
Wang et al.
Arxiv 2022 [paper]
Bridging the Gap Between Indexing and Retrieval for Differentiable Search Index with Query Generation
Shengyao Zhuang, Houxing Ren, Linjun Shou, Jian Pei, Ming Gong, Guido Zuccon, and Daxin Jiang
Arxiv 2022 [paper] [Code]
DynamicRetriever: A Pre-training Model-based IR System with Neither Sparse nor Dense Index
Zhou et al
Arxiv 2022 [paper]
Ultron: An Ultimate Retriever on Corpus with a Model-based Indexer
Zhou et al
Arxiv 2022 [paper]
Planning Ahead in Generative Retrieval: Guiding Autoregressive Generation through Simultaneous Decoding
Hansi Zeng ,Chen Luo ,Hamed Zamani
arXiv – Apr 2024 [paper] [Code]
NOVO: Learnable and Interpretable Document Identifiers for Model-Based IR
Zihan Wang, Yujia Zhou, Yiteng Tu, Zhicheng Dou
CIKM 2023 - October 2023 [paper]
Generative Retrieval as Multi-Vector Dense Retrieval
Shiguang Wu, Wenda Wei, Mengqi Zhang, Zhumin Chen, Jun Ma, Zhaochun Ren, Maarten de Rijke, Pengjie Ren
SIGIR 2024 - March 24 [paper] [Code]
Re3val: Reinforced and Reranked Generative Retrieval
EuiYul Song, Sangryul Kim, Haeju Lee, Joonkee Kim, James Thorne
EACL Findings 2023 – Jan 24 [paper]
GLEN: Generative Retrieval via Lexical Index Learning
Sunkyung Lee, Minjin Choi, Jongwuk Lee
EMNLP 2023 - December 23 [paper] [Code]
Enhancing Generative Retrieval with Reinforcement Learning from Relevance Feedback
Yujia Zhou, Zhicheng Dou, Ji-Rong Wen
EMNLP 2023 - December 23 [paper]
Generative Retrieval with Large Language Models
Anónimo
ICLR 24 – October 23 [paper]
Semantic-Enhanced Differentiable Search Index Inspired by Learning Strategies
Yubao Tang, Ruqing Zhang, Jiafeng Guo, Jiangui Chen, Zuowei Zhu, Shuaiqiang Wang, Dawei Yin, Xueqi Cheng
KDD 2023 – May 2023 [paper]
Term-Sets Can Be Strong Document Identifiers For Auto-Regressive Search Engines
Peitian Zhang, Zheng Liu, Yujia Zhou, Zhicheng Dou, Zhao Cao
arXiv – May 2023 [paper] [Code]
A Unified Generative Retriever for Knowledge-Intensive Language Tasks via Prompt Learning
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Yiqun Liu, Yixing Fan, Xueqi Cheng
SIGIR 2023 – Apr 2023 [paper] [Code]
CorpusBrain: Pre-train a Generative Retrieval Model for Knowledge-Intensive Language Tasks
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Yiqun Liu, Yixing Fan, Xueqi Cheng
CIKM 2022 – Aug 2022 [paper] [Code]
Autoregressive Search Engines: Generating Substrings as Document Identifiers
Michele Bevilacqua, Giuseppe Ottaviano, Patrick Lewis, Wen-tau Yih, Sebastian Riedel, Fabio Petroni
arXiv – Apr 2022 [paper] [Code]
Autoregressive Entity Retrieval
Nicola De Cao, Gautier Izacard, Sebastian Riedel, Fabio Petroni
ICLR 2021 – Oct 2020 [paper] [Code]
Data-Efficient Autoregressive Document Retrieval for Fact Verification
James Thorne
SustaiNLP@EMNLP 2022 – Nov 2022 [paper]
GERE: Generative Evidence Retrieval for Fact Verification
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Yixing Fan, Xueqi Cheng
SIGIR 2022 [paper] [Code]
Generative Multi-hop Retrieval
Hyunji Lee, Sohee Yang, Hanseok Oh, Minjoon Seo
arXiv – Apr 2022 [paper]
Improving LLMs for Recommendation with Out-Of-Vocabulary Tokens
Ting-Ji Huang, Jia-Qi Yang, Chunxu Shen, Kai-Qi Liu, De-Chuan Zhan, Han-Jia Ye
arXiv – Jun 2024 [paper]
Plug-in Diffusion Model for Sequential Recommendation
Haokai Ma, Ruobing Xie, Lei Meng, Xin Chen, Xu Zhang, Leyu Lin, Zhanhui Kang
arXiv – Jan 2024 [paper]
Towards Graph-Aware Diffusion Modeling For Collaborative Filtering Yunqin Zhu1, Chao Wang, Hui Xiong
arXiv – Nov 2023 [paper]
RecMind: Large Language Model Powered Agent For Recommendation
Yancheng Wang, Ziyan Jiang, Zheng Chen, Fan Yang, Yingxue Zhou, Eunah Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Yingzhen Yang
arXiv – Aug 2023 [paper]
Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large Language Model Recommendation
Jizhi Zhang, Keqin Bao, Yang Zhang, Wenjie Wang, Fuli Feng, Xiangnan He
Recsys 2023 – Jul 2023 [paper]
RecFusion: A Binomial Diffusion Process for 1D Data for Recommendation
Gabriel Bénédict, Olivier Jeunen, Samuele Papa, Samarth Bhargav, Daan Odijk, Maarten de Rijke
arXiv – Jun 2023 [paper]
A First Look at LLM-Powered Generative News Recommendation
Qijiong Liu, Nuo Chen, Tetsuya Sakai, Xiao-Ming Wu
arXiv – Jun 2023 [paper]
Large Language Models as Zero-Shot Conversational Recommenders
Yupeng Hou, Junjie Zhang, Zihan Lin, Hongyu Lu, Ruobing Xie, Julian McAuley, Wayne Xin Zhao
arXiv – May 2023 [paper]
DiffuRec: A Diffusion Model for Sequential Recommendation
Zihao Li, Aixin Sun, Chenliang Li
arXiv – Apr 2023 [paper]
Diffusion Recommender Model
Wenjie Wang, Yiyan Xu, Fuli Feng, Xinyu Lin, Xiangnan He, Tat-Seng Chua
SIGIR 2023 – Apr 2023 [paper]
Blurring-Sharpening Process Models for Collaborative Filtering
Jeongwhan Choi, Seoyoung Hong, Noseong Park, Sung-Bae Cho
SIGIR 2023 – Apr 2023 [paper] [code]
Recommender Systems with Generative Retrieval
Shashank Rajput, Nikhil Mehta, Anima Singh, Raghunandan Keshavan, Trung Vu, Lukasz Heldt, Lichan Hong, Yi Tay, Vinh Q. Tran, Jonah Samost, Maciej Kula, Ed H. Chi, Maheswaran Sathiamoorthy
non-archival – Mar 2023 [paper]
Pre-train, Prompt and Recommendation: A Comprehensive Survey of Language Modelling Paradigm Adaptations in Recommender Systems
Peng Liu, Lemei Zhang, Jon Atle Gulla
arXiv – Feb 2023 [paper]
Generative Slate Recommendation with Reinforcement Learning
Romain Deffayet, Thibaut Thonet, Jean-Michel Renders, and Maarten de Rijke
WSDM 2023 – Feb 2023 [paper]
Recommendation via Collaborative Diffusion Generative Model
Joojo Walker, Ting Zhong, Fengli Zhang, Qiang Gao, Fan Zhou
KSEM 2022 – Aug 2022 [paper]
DocGraphLM: Documental Graph Language Model for Information Extraction
Dongsheng Wang, Zhiqiang Ma, Armineh Nourbakhsh, Kang Gu, Sameena Shah
arXiv – Jan 2024 [paper]
KBFormer: A Diffusion Model for Structured Entity Completion
Ouail Kitouni, Niklas Nolte, James Hensman, Bhaskar Mitra
arXiv – Dec 2023 [paper]
From Retrieval to Generation: Efficient and Effective Entity Set Expansion
Shulin Huang, Shirong Ma, Yangning Li, Yinghui Li, Hai-Tao Zheng, Yong Jiang
arXiv – Apr 2023 [paper]
Crawling the Internal Knowledge-Base of Language Models
Roi Cohen, Mor Geva, Jonathan Berant, Amir Globerson
arXiv – Jan 2023 [paper]
Prompt Tuning or Fine-Tuning - Investigating Relational Knowledge in Pre-Trained Language Models
Leandra Fichtel, Jan-Christoph Kalo, Wolf-Tilo Balke
AKBC 2021 – [paper]
Language Models as Knowledge Bases?
Fabio Petroni, Tim Rocktäschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel
EMNLP 2019 – Sep 2019 [paper]
Although some of these are not accompanied by a paper, they might be useful to other Generative IR researchers for empirical studies or interface design considerations.
⚡ Gemini Dec 2023 [live] ⚡️ factiverse Jun 2023 [live] ⚡️ devmarizer Mar 2023 [live] ⚡️ TaxGenius Mar 2023 [live] ⚡️ doc-gpt Mar 2023 [live] ⚡️ book-gpt Feb 2023 [live] ⚡️ Neeva Feb 2023 [live] ⚡️ Golden Retriever Feb 2023 [live] ⚡️ Bing – Prometheus Feb 2023 [waitlist] ⚡️ Google – Bard Feb 2023 [only in certain countries] ⚡️ Paper QA Feb 2023 [code] [demo] ⚡️ DocsGPT Feb 2023 [live] [code] ⚡️ DocAsker Jan 2023 [live] ⚡️ Lexii.ai Jan 2023 [live] ⚡️ YOU.com Dec 2022 [live] ⚡️ arXivGPT Dec 2022 [Chrome extension] ⚡️ GPT Index Nov 2022 [API] ⚡️ BlenderBot Aug 2022 [live (USA)] [model weights] [code] [paper1] [paper2] ⚡️ PHIND date? [live] ⚡️ Perplexity date? [live] ⚡️ Galactica date? [demo] [API] [paper] ⚡️ Elicit date? [live] ⚡️ ZetaAlpha date? [live] uses OpenAI API
To get just the paper titles do grep '**' README.md | sed 's/**//g'