Os modelos de conversação começaram a poder acessar a Web ou fazer backup de suas reivindicações com fontes (também conhecidas como atribuição). Esses chatbots são, portanto, indiscutivelmente máquinas de recuperação de informações, competindo contra ou mesmo substituindo os mecanismos de pesquisa tradicionais. Gostaríamos de dedicar um espaço a esses modelos, mas também ao campo mais geral da recuperação de informações generativas. Devidamos provisoriamente o campo em dois tópicos principais: geração de respostas fundamentadas e recuperação generativa de documentos . Também incluímos recomendação generativa, resumo generativo de aterramento etc.
Pull-pedidos bem-vindos!
Citada determinística: Tornando os LLMs mais seguros para a saúde
Matt Yeung
Blog pessoal - abril de 2024 [link]
Pesquisa de geração aumentada de recuperação: 2017-2024
Moritz Mallawitsch
Conhecimento de escala - fevereiro de 2024 [link]
Mastering Rag: como arquitetar um sistema de pano corporativo
Pratik Bhavsar
Galileo Labs - janeiro de 2024 [link]
Executando mixtral 8x7 localmente com Llandeindex
Llamaindex
Blog Llamaindex - dezembro de 2023 [link]
Técnicas avançadas de pano: uma visão geral ilustrada
Ivan Ilin
Em direção à IA - dezembro de 2023 [link]
Oleoduto RAG multimodal com Llamaindex e Neo4J
Tomaz Bratanic
Blog Llamaindex - dezembro de 2023 [link]
Benchmarking pano nas mesas
Langchain
Langchain Blog - dezembro de 2023 [link]
Rano Avançado 01: Recuperação Small-to-Big
Sophia Yang
Rumo à ciência de dados - novembro de 2023 [link]
Transformações de consulta
Langchain
Langchain Blog - outubro de 2023 [link]
O que torna um agente de diálogo útil?
Nazneen Rajani, Nathan Lambert, Victor Sanh, Thomas Wolf
Blog de rosto abraçado - janeiro de 2023 [link]
Previsão de possíveis usos em uso de modelos de linguagem para campanhas de desinformação e como reduzir o risco
Josh A. Goldstein, Girish Sastry, Micah Musser, Renée Diresta, Matthew Gentzel, Katerina Sedova
Blog OpenAI - janeiro de 2023 [link]
Fato, busca e razão: uma avaliação unificada da geração de recuperação de recuperação Satyapriya Krishna, Kalpesh Krishna, Anhad Mohananey, Steven Schwarcz, Adam Stambler, Shyam Upadhyay, Manaal Faruqui Arxiv-Sep 2024 [Papel] [Data]
Litsearch: uma referência de recuperação para pesquisa de literatura científica
Anirudh Ajith, Mengzhou Xia, Alexis Chevalier, Tanya Goyal, Danqi Chen, Tianyu Gao
ARXIV - JUL 2023 [Paper] [Dados]
BRILHOR: Uma referência realista e desafiadora para uma recuperação intensiva em raciocínio
Hongjin Su, Howard Yen, Mengzhou Xia, Weijia Shi, Niklas Muennighff, Han-Yu Wang, Haisu Liu, Quan Shi, Zachary S. Siegel, Michael Tang, Ruoxi Sun, Jinsung Yoon, Sercan O. Arik, Danqi Chen, Taoxi Yu,
Arxiv - outubro de 2023 [Paper] [Data] [Código]
Freshllms: refrescando grandes modelos de linguagem com aumento do mecanismo de pesquisa
Tu Vu, Mohit Iyyer, Xuezhi Wang, Noah Constant, Jerry Wei, Jason Wei, Chris Tar, Yun-Hsuan Sung, Denny Zhou, Quoc le, Thang Luong
Arxiv - outubro de 2023 [Paper] [Código]
Legalbench: uma referência colaborativa construída para medir o raciocínio legal em grandes modelos de idiomas
Neel Guha, Julian Nyarko, Daniel E. Ho, Christopher Ré, Adam Chilton, Aditya Narayana, Alex Chohlas-Wood, Austin Peters, Brandon Waldon, Daniel N. Rockmore, Diego Zambrano, Dmitry Talisman, Enam Hoque, Faiz Surani, Frank Fagan, Galit Sarfaty, Gregory M. Dickinson, Haggai Porat, Jason Hegland, Jessica Wu, Joe Nudell, Joel Niklaus, John Nay, Jonathan H. Choi, Kevin Tobia, Margaret Hagan, Megan Ma, Michael Livermore, Nikon Rasumov-Rahe, Nils Holzenberger, Noam Kolt, Peter Henderson, Sean Rehaag, Sharad Goel, Shang Gao, Spencer Williams, Sunny Gandhi, Tom Zur, Varun Iyer, Zehua Li
Arxiv - agosto de 2023 [Paper] [DataSet]
Conversas abertas - democratizando o grande alinhamento do modelo de linguagem
Andreas Köpf, Yannic Kilcher, Dimitri von Rütte, Sotiris Anagnostidis, Zhi-Rui Tam, Keith Stevens, Abdullah Barhoum, Nguyen Minh Duc, Oliver Stanley, Richárd Nagyfi, Shahul ES, Sameer Suri, David Glushkov, Arnav Dantuluri, Andrew Maguire, Christoph Schuhmann, Huu Nguyen, Alexander Mattick
ARXIV - abril de 2023 [papel]
Chatgpt-revievalqa
Arian Askari, Mohammad Aliannejadi, Evangelos Kanoulas, Suzan Verberne
Github - fevereiro de 2023 [código]
Kamel: Análise de conhecimento com entidades multitoken em modelos de idiomas
Jan-Christoph Kalo, Leandra Fichtel
AKBC 22 - [papel]
Verdadeiro: medir como os modelos imitam falsidades humanas
Stephanie Lin, Jacob Hilton, Owain Evans
ARXIV - setembro de 2021 [Paper] [Código]
Recuperação de respostas complexas
Laura Dietz, Manisha Verma, Filip Radlinski, Nick Craswell, Ben Gamari, Jeff Dalton, John Foley
Trec-2017-2019 [link]
Graphrag
Jonathan Larson, Steven Truitt
Microsoft - fevereiro de 2024 [código]
Estreitando a lacuna de avaliação do conhecimento: Respostas de perguntas de domínio aberto com respostas multi-granularidade
Gal Yona, Roee Aharoni, Mor Geva
Arxiv - janeiro de 2024 [papel]
Workshop DHS LLM - Módulo 6
Sourab mangrulkar
Github - dezembro de 2023 [código]
Primeqa: o repositório principal para perguntas multilíngues de última geração, respondendo à pesquisa e desenvolvimento
Avirup Sil, Jaydeep Sen, Bhavani Iyer, Martin Franz, Kshitij Fadnis, Mihaela Bornea, Sara Rosenthal, Scott McCarley, Rong Zhang, Vishwajeet Kumar, Yulong Li, Md Arafat Sultan, Riyaz Bhat, Radu Florian, Salim Roukos
Arxiv - janeiro de 2023 [Paper] [Código]
TRL: Aprendizagem de reforço de transformadores
Leandro von Werra, Younes Belkada, Lewis Tunstall, Edward Beeching, Tristan Thrush, Nathan Lambert, Shengyi Huang
Github - 2020 [código]
FACTSCORE: Avaliação atômica de granulação fina da precisão factual em geração de texto de forma longa
Sewon Min, Kalpesh Krishna, Xinxi Lyu, Mike Lewis, Wen-Tau Yih, Pang Wei Koh, Mohit Iyyer, Luke Zettlemoyer, Hannaneh Hajishirzi
Pypi - maio de 2023 [Paper] [Código]
FACTKB: Avaliação de factualidade generalizável usando modelos de linguagem aprimorados com conhecimento factual
Shangbin Feng, Vidhisha Balachandran, Yuyang Bai, Yulia Tsvetkov
ARXIV - Maio de 2023 [Paper] [Código]
Avaliando a verificabilidade nos mecanismos de pesquisa generativos
Nelson F. Liu, Tianyi Zhang, Percy Liang
ARXIV - abril de 2023 [Paper] [Código]
Workshop sobre IA generativa para sistemas de recomendação e personalização
Narges Tabari, Aniket Deshmukh, Wang-Cheng Kang, Rashmi Gangadharaiah, Hamed Zamani, Julian McAuley, George Karypis
KDD 24 - agosto de 2024 [link]
Segundo workshop sobre recuperação de informações generativas
Gabriel Bénédict, Ruqing Zhang, Donald Metzler, Andrew Yates, Ziyan Jiang
SIGIR 24 - JUL 2024 [LINK]
IA generativa personalizada
Zheng Chen, Ziyan Jiang, Fan Yang, Zhankui He, Yupeng Hou, Euunah Cho, Julian McAuley, Aram Galstyan, Xiaohua Hu, Jie Yang
CIKM 23 - outubro de 2023 [link]
Primeiro workshop sobre recomendação com modelos generativos
Wenjie Wang, Yong Liu, Yang Zhang, Weiwen Liu, Fuli Feng, Xiangnan He, Aixin Sun
CIKM 23 - outubro de 2023 [link]
Primeiro workshop sobre recuperação de informações generativas
Gabriel Bénédict, Ruqing Zhang, Donald Metzler
SIGIR 23 - JUL 2023 [LINK]
Modelos de idiomas e aplicativos baseados em recuperação
Akari Asai, Sewon Min, Zexuan Zhong, Danqi Chen
ACL 23 - julho de 2023 [link]
Recuperação de informações agênticas
Weinan Zhang, Junwei Liao, Ning Li, Kounianhua DU
Arxiv - outubro de 2024 [papel]
Recitar, reconstruir, lembrar: memorização no LMS como um fenômeno multifacetado
Usvsn Sai Prashanth, Alvin Deng, Kyle O'Brien, Jyothir SV, Mohammad Aflah Khan, Jaydeep Borkar, Christopher A. Choquette-Choo, Jacob Ray Fuehne, Stella Biderman, Trecy Ke, Katherine Lee, Naomi Saphra
Arxiv - junho de 2024 [papel]
Chatgpt é besteira
Michael Townsen Hicks, James Humphries, Joe Slater
Ética INF Technol - junho de 2024 [papel]
Hallucinação de modelos de linguagem grande multimodal: uma pesquisa
Zechen Bai, Pichao Wang, Tianjun Xiao, Tong He, Zongbo Han, Zheng Zhang, Mike Zheng Shou
Arxiv - abril de 2024 [papel]
Da correspondência à geração: uma pesquisa sobre recuperação de informações generativas
Xiaoxi Li, Jiajie Jin, Yujia Zhou, Yuyao Zhang, Peitian Zhang, Yutao Zhu e Zhicheng Dou
Arxiv - abril de 2024 [papel]
Conflitos de conhecimento para LLMs: uma pesquisa
Rongwu Xu, Zehan Qi, Cunxiang Wang, Hongru Wang, Yue Zhang, Wei Xu
ARXIV - março de 2024 [papel]
Relatório sobre o 1º Workshop sobre Recuperação de Informações Generativas (Gen-Ir 2023) no Sigir 2023
Gabriel Bénédict, Ruqing Zhang, Donald Metzler, Andrew Yates, Romain Deffayet, Philipp Hager, Sami Jullien
Fórum Sigir - dezembro de 2023 [papel]
Relatório sobre o 1º workshop sobre a tarefa focada em IR na era da IA generativa
Chirag Shah, Ryen W. White
Fórum Sigir - dezembro de 2023 [papel]
Para busca e recomendação generativa: uma palestra no Recsys 2023
Tat-seng chua
Fórum Sigir - dezembro de 2023 [papel]
Modelo de pesquisa grande: redefinindo a pilha de pesquisa na era do LLMS
Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
Fórum Sigir - dezembro de 2023 [papel]
Modelos de idiomas grandes para extração de informações generativas: uma pesquisa
Derong Xu, Wei Chen, Wenjun Peng, Chao Zhang, Tong Xu, Xiangyu Zhao, Xian Wu, Yefeng Zheng, Enhancil Chen
Arxiv - dezembro de 2023 [Papel]
Recuperação de texto densa com base em modelos de idiomas pré -traços: uma pesquisa
Wayne Xin Zhao, Jing Liu, Ruiyang Ren, Ji-Rong Wen
Tois - dezembro de 2023 [papel]
Geração de recuperação para recuperação para modelos de idiomas grandes: uma pesquisa
Yunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi BI, Yi Dai, Jiawei Sun, Haofen Wang
Arxiv - dezembro de 2023 [Papel]
Modelos de linguagem calibrada devem alucinar
Adam Tauman Kalai, Santosh S. Vempala
Arxiv - novembro de 2023 [Papel]
Música de sirene no Oce Ocean: uma pesquisa sobre alucinação em grandes modelos de idiomas
Yue Zhang, Yafu Li, Leyang Cui, Deng Cai, Lemao Liu, Tingchen Fu, Xinting Huang, Enbo Zhao, Yu Zhang, Yulong Chen, Longyue Wang, Ah Tuan Luu, Wei Bi, Freda Shi, Shuming Shuming
ARXIV - setembro de 2023 [papel]
A falsa promessa de imitar LLMs proprietários
Arnav Gudibande, Eric Wallace, Charlie Snell, Xinyang Geng, Hao Liu, Pieter Abbeel, Sergey Levine, Song Dawn
ARXIV - maio de 2023 [papel]
Recomendação generativa: para o paradigma de recomendação de próxima geração
Fengji Zhang, Bei Chen, Yue Zhang, Jin Liu, Daoguang Zan, Yi Mao, Jian-Guang Lou, Weizhu Chen
ARXIV - abril de 2023 [papel]
Modelos de idiomas aumentados: uma pesquisa
Grégoire Mialon, Roberto Dessì, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-Yu, ASLI Celikyilmaz, Eduard Grave, Yann LeCun, Thomas Scialom
Arxiv - fevereiro de 2023 [papel]
Modelos de linguagem generativa e operações de influência automatizadas: ameaças emergentes e potenciais mitigações
Josh A. Goldstein, Girish Sastry, Micah Musser, Renee Diresta, Matthew Gentzel, Katerina Sedova
Arxiv - janeiro de 2023 [papel]
Busca de informações de conversação. Uma introdução à pesquisa de conversação, recomendação e resposta a perguntas
Hamed Zamani, Johanne R. Trippas, Jeff Dalton e Filip Radlinski
Arxiv - janeiro de 2023 [papel]
Fatos
Kevin Mulligan e Fabrice Correia
A Enciclopédia Stanford da Filosofia - Inverno 2021 [URL]
Ai verdadeira: desenvolver e governar a IA que não mente
Owain Evans, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital Balwit, Peter Wills, Luca Righetti, William Saunders
Arxiv - outubro de 2021 [papel]
Repensando a pesquisa: Fazendo especialistas em domínio de diletentes
Donald Metzler, Yi Tay, Dara Bahri, Marc Najork
Fórum Sigir 2021 - maio de 2021 [papel]
Resposta de perguntas atribuídas: Avaliação e modelagem para modelos de linguagem grandes atribuídos
Bernd Bohnet, Vinh Q. Tran, Pat Verga, Roee Aharoni, Daniel Andor, Livio Baldini Soares, Jacob Eisenstein, Kuzman Ganchev, Jonathan Herzig, Kai Hui, Tom Kwiatkowski, Ji Ma, Jianmos Ni, Schuster, Talks, Willtkiam, Wills, Ji Ma, Jiathan Herzig, Talkin, Talkan, Wills, Willn, Ji Ma, Jiathan Herzig, Talking, Tom Kwiatkowski, Ji Ma, Jianmos Ni, Schuster, Talks, Willtkiam, Ji Ma, Jianmos Ni, Schuster, Talks, Willsam, Wills, Ji Ma, Jiathan Herzig. Metzler, Slava Petrov, Kellie Webster
Arxiv - dezembro de 2022 [papel]
aterramento externo/recuperação no tempo de inferência
Raptor: processamento abstrato recursivo para recuperação organizada por árvores
Parth Sarthi, Salman Abdullah, Aditi Tuli, Shubh Khanna, Anna Goldie, Christopher D. Manning
ICLR 24 - janeiro de 2024 [papel]
Geração aumentada de recuperação corretiva
Shi-Qi Yan, Jia-Chen Gu, Yun Zhu, Zhen-Hua Ling
Arxiv - janeiro de 2024 [papel]
Já está na hora: incorporando a temporalidade nos modelos de linguagem aumentada de recuperação
Anoushka Gade, Jorjeta Jetcheva
Arxiv - janeiro de 2024 [papel]
RAG vs Tune fino: oleodutos, compensações e um estudo de caso sobre agricultura
Angels Balaguer, Vinamra Benara, Renato Luiz de Freitas Cunha, Roberto de M. Estevão Filho, Todd Hendry, Daniel Holstein, Jennifer Marsman, Nick Mecklenburg, Sara Malvar, Leonardo O. Nunes, Rafael Padilha, Morris Sharp, Bruno Silva, Swati Sharma, Vijay Aski, Ranveer Chandra
Arxiv - janeiro de 2024 [papel]
Sequenciação MA�TTERS: A GERETE REVERIREVE-GENERATE MODELO PARA CONSTRUIR AGENTES DE CONVERSAÇÕES
Quinn Patwardhan, Grace Hui Yang
TREC 23 - novembro de 2023 [Papel]
Auto-RAG: Aprendendo a recuperar, gerar e criticar através da auto-reflexão
Anônimo
ICLR 24 - outubro de 2023 [papel]
RA-DIT: Ajuste dupla de instrução de recuperação de recuperação
Anônimo
ICLR 24 - outubro de 2023 [papel]
Aprendizagem no contexto com modelos de linguagem de codificadores de decodificadores aumentados de recuperação
Anônimo
ICLR 24 - outubro de 2023 [papel]
Tornando modelos de linguagem de recuperação de recuperação robusta para contexto irrelevante
Anônimo
ICLR 24 - outubro de 2023 [papel]
Recuperação atende ao longo contexto de grandes modelos de idiomas
Anônimo
ICLR 24 - outubro de 2023 [papel]
Reformulando adaptação de domínio de grandes modelos de linguagem como retenção de adaptação
Anônimo
ICLR 24 - outubro de 2023 [papel]
Instructretro: Instrução Tuning Post Recuperação Pré-Trerendo
Anônimo
ICLR 24 - outubro de 2023 [papel]
Claro: Melhorando a resposta de perguntas do domínio aberto do LLMS via recuperação resumida
Anônimo
ICLR 24 - outubro de 2023 [papel]
Recomp: Melhorando o LMS de recuperação com compressão de contexto e aumento seletivo
Anônimo
ICLR 24 - outubro de 2023 [papel]
A recuperação é uma geração precisa
Anônimo
ICLR 24 - outubro de 2023 [papel]
PaperQA: agente generativo de recuperação para pesquisa científica
Anônimo
ICLR 24 - outubro de 2023 [papel]
Entendendo o aumento da recuperação para respostas de perguntas longas
Anônimo
ICLR 24 - outubro de 2023 [papel]
Geração de linguagem personalizada via recuperação aumentada métrica bayesiana
Anônimo
ICLR 24 - outubro de 2023 [papel]
DSPY: Compilar o modelo de linguagem declarativa chama em pipelines auto-improvantes
Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Mozam, Heather Miller, Matei Zaharia,
Arxiv - outubro de 2023 [Paper] [Código]
RA-DIT: Ajuste dupla de instrução de recuperação de recuperação
Xi Victoria Lin, Xilun Chen, Mingda Chen, Weijia Shi, Maria Lomeli, Rich James, Pedro Rodriguez, Jacob Kahn, Gergely Szilvasy, Mike Lewis, Luke Zettlemoyer, Scott Yih
Arxiv - agosto de 2023 [papel]
A documentação da ferramenta permite a usagem de ferramentas com tiro zero com modelos de idiomas grandes
Cheng-Yu Hsieh, Si-An Chen, Chun-Liang Li, Yasuhisa Fujii, Alexander Ratner, Chen-Yu Lee, Ranjay Krishna, Tomas Pfister
Arxiv - agosto de 2023 [papel]
Reugkd: destilação de conhecimento com agente de recuperação para modelos de idiomas pré-treinados
Jianyi Zhang, Aashiq Muhamed, Aditya Anantharaman, Guoyin Wang, Changyou Chen, Kai Zhong, Qingjun Cui, Yi Xu, Belinda Zeng, Trishul Chilimbi, Yiran Chen
ACL 23 - julho de 2023 [papel]
A recuperação baseada na superfície reduz a perplexidade dos modelos de linguagem de recuperação de recuperação
Ehsan Doostmohammadi, Tobias Norlund, Marco Kuhlmann, Richard Johansson
ACL 23 - julho de 2023 [papel]
Ajuste suave e suave para aumentar a recuperação densa com grandes modelos de idiomas
Zhiyuan Peng, Xuyang Wu, Yi Fang
Arxiv - junho de 2023 [papel]
Reta-llm: um kit de ferramentas de modelo de grande idioma de recuperação de recuperação
Jiongnan Liu, Jiajie Jin, Zihan Wang, Jiehan Cheng, Zhicheng Dou, Ji-Rong Wen
Arxiv - junho de 2023 [papel]
Webglm: em direção a um sistema de resposta de perguntas eficientes com preferências humanas com preferências humanas
Xiao Liu, Hanyu Lai, Hao Yu, Yifan Xu, Aohan Zeng, Zhengxiao DU, Peng Zhang, Yuxiao Dong, Jie Tang
Arxiv - junho de 2023 [papel]
Wikichat: interrompendo a alucinação de grandes chatbots de modelo de idioma por pouquíssimos aterramento na Wikipedia
Sina J. Semnani, Violet Z. Yao, Heidi C. Zhang, Monica S. Lam
EMNLP Acalhos 2023 - maio de 2023 [Paper] [Code] [Demo]
Ret-llm: em direção a uma memória geral de leitura de leitura para modelos de idiomas grandes
Ali Modarressi, Ayyoob Imani, Mohsen Fayyaz, Hinrich Schutze
ARXIV - maio de 2023 [papel]
Gorila: modelo de linguagem grande conectado com APIs maciças
Shishir G. Patil, Tianjun Zhang, Xin Wang, Joseph E. Gonzalez
ARXIV - Maio de 2023 [Paper] [Código]
Vamos nos modelos de idiomas autoregressivos pré -atrain com recuperação? Um estudo abrangente
Boxin Wang, Wei Ping, Peng Xu, Lawrence McAfee, Zihan Liu, Mohammad Shoeybi, Yi Dong, Oleksii Kuchaiev, Bo Li, Chaowei Xiao, Anima Anandkumar, Bryan Catanzaro
Arxiv - abril de 2023 [Paper] [Código]
Verifique seus fatos e tente novamente: Melhorando grandes modelos de linguagem com conhecimento externo e feedback automatizado
Baolin Peng, Michel Galley, Pengcheng He, Hao Cheng, Yujia Xie, Yu Hu, Qiuyuan Huang, Lars Liden, Zhou Yu, Weizhu Chen, Jianfeng Gao
Arxiv - fevereiro de 2023 [Paper] [Código]
FORCESTOR: MODELOS DE IDIOMA podem se ensinar a usar ferramentas
Timo Schick, Jane Dwivedi-Yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Canccedda, Thomas Scialom
Arxiv - fevereiro de 2023 [papel]
REPUS
Weijia Shi, Sewon Min, Michihiro Yasunaga, Minjoon Seo, Rich James, Mike Lewis, Luke Zettlemoyer, Wen-Tau Yih
Arxiv - janeiro de 2023 [papel]
Modelos de idiomas de recuperação de recuperação no contexto
Ori Ram, Yoav Levine, Itay Dalmedigos, Dor Muhlgay, Amnon Shashua, Kevin Leyton-Brown, Yoav Shoham
AI21 Labs - janeiro de 2023 [Paper] [Código]
Receitas para a construção de um chatbot de domínio aberto
Stephen Roller, Emily Dinan, Naman Goyal, da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, Jason Weston
EACL 2021 - abril de 2021 [papel]
Atman: Compreendendo as previsões de transformador através da manipulação de atenção eficiente em memória
Hamed Zamani, Johanne R. Trippas, Jeff Dalton e Filip Radlinski
Arxiv - janeiro de 2023 [papel]
RETROMAE V2: Encoder automático mascarado duplex para modelos de linguagem orientada a recuperação pré-treinamento
Shitao xiao, zheng liu
Arxiv - novembro de 2023 [Papel]
Demonstrace-Search-Predict: Compondo modelos de recuperação e idiomas para o NLP Omar Khattab intensivo em conhecimento , Keshav Santhanam, Xiang Lisa Li, David Hall, Percy Liang, Christopher Potts, Matei Zaharia
Arxiv - dezembro de 2022 [papel]
Melhorando os modelos de linguagem recuperando de trilhões de tokens
Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Roman Ring, Tom Hennigan, Saffron Huang, Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen e Laurent Sifre
Arxiv - fevereiro de 2022 [papel]
Melhorando os modelos de linguagem recuperando de trilhões de tokens
Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Roman Ring, Tom Hennigan, Saffron Huang, Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen, Laurent Sifre
Arxiv - dezembro de 2021 [papel]
WebGPT: Perguntas assistidas pelo navegador-Respondendo a feedback humano
Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, Xu Jiang, Kewin Cobbe, Tyna Elaoundou, Gretcheneger,
Arxiv - dezembro de 2021 [papel]
Bert-KNN: Adicionando um componente de pesquisa de KNN aos modelos de idiomas pré-terenciados para melhor qa
Nora Kassner, Hinrich Schütze
EMNLP 2020 - novembro de 2020 [Papel]
Reino: modelo de idioma de recuperação de recuperação pré-treinamento
Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, Ming-Wei Chang
ICML 2020 - JUL 2020 [Papel]
Um modelo de conversa neural de geração de recuperação híbrida
Liu Yang, Junjie Hu, Minghui Qiu, Chen Qu, Jianfeng Gao, W. Bruce Croft, Xiaodong Liu, Yelong Shen, Jingjing Liu
Arxiv - abril de 2019 [Paper]
fundamentado em pesos do modelo interno no tempo de inferência
Como os grandes modelos de linguagem adquirem conhecimento factual durante o pré -treinamento?
Hoyeon Chang, Jinho Park, Seonghyeon Ye, Sohee Yang, Youngkyung Seo, Du-Seong Chang, Minjoon SEO
Arxiv - junho de 2024 [papel]
Modelos de linguagem de ajuste fino para factualidade
Katherine Tian, Eric Mitchell, Huaxiu Yao, Christopher D. Manning, Chelsea Finn
Arxiv - novembro de 2023 [Papel]
R-Tuning: Ensinar grandes modelos de idiomas a recusar perguntas desconhecidas
Hanning Zhang, Shizhe Diao, Yong Lin, Yi R. Fung, Qing Lian, Xingyao Wang, Yangyi Chen, Heng Ji, Tong Zhang
Arxiv - novembro de 2023 [Papel]
Fácil: uma estrutura de edição de conhecimento fácil de usar para modelos de idiomas grandes
Peng Wang, Ningyu Zhang, Xin Xie, Yunzhi Yao, Bozhong Tian, Mengru Wang, Zekun Xi, Siyuan Cheng, Kangwei Liu, Guozhou Zheng, Huajun Chen
Arxiv - agosto de 2023 [papel]
Inspecionar e editar representações de conhecimento em modelos de idiomas
Evan Hernandez, Belinda Z. Li, Jacob Andreas
Arxiv - abril de 2023 [Paper] [Código]
Aproveitando a recuperação da passagem com modelos generativos para resposta de perguntas de domínio aberto
Gautier Izacard, Edouard Grave
Arxiv - fevereiro de 2023 [papel]
Descobrindo o conhecimento latente em modelos de idiomas sem supervisão
Collin Burns, Haotian Ye, Dan Klein, Jacob Steinhardt
ICLR 23 - fevereiro de 2023 [Paper] [Código]
Galactica: um grande modelo de linguagem para a ciência
Ross Taylor, Marcin Kardas, Guillem Cucurull, Thomas Scialom, Anthony Hartshorn, Elvis Saravia, Andrew Poulton, Viktor Kerkez, Robert Stojnic
Galactica.org - 2022 [papel]
Blenderbot 3: Um agente de conversação implantado que aprende continuamente a se envolver com responsabilidade
Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, Morteza Behrooz, William Ngan, Spencer Poff, Naman Goyal, Arthur Szlam, Y-Lan Boureau, Melanie Kambadur, Jason Weston
Arxiv - agosto de 2022 [papel]
Gerar em vez de recuperar: modelos de idiomas grandes são geradores de contexto fortes
Wenhao Yu, Dan Iter, Shuohang Wang, Yichong Xu, Mingxuan Ju, Soumya Sanyal, Chenguang Zhu, Michael Zeng, Meng Jiang
ICLR 2023 - setembro de 2022 [papel]
Modelos de idiomas agentados por recitação
Zhiqing Sun, Xuezhi Wang, Yi Tay, Yiming Yang, Denny Zhou
ICLR 2023 - setembro de 2022 [papel]
Melhorando o alinhamento de agentes de diálogo através de julgamentos humanos direcionados
Amelia Glaese, Nat McAleese, Maja Trębacz, John Aslanides, Vlad Firoiu, Timo Ewalds, Maribeth Rauh, Laura Weidinger, Martin Chadwick, Phoebe Thacker, Lucy Campbell-Gillingham, Jonathan Uesato, Po-Sen Huang, Ramona Comanescu, Fan Yang, Abigail See, Sumanth Dathathri, Rory Greig, Charlie Chen, Doug Fritz, Jaume Sanchez Elias, Richard Green, Soňa Mokrá, Nicholas Fernando, Boxi Wu, Rachel Foley, Susannah Young, Iason Gabriel, William Isaac, John Mellor, Demisable, Hendricks, Geoffrey Irving
ARXIV - setembro de 2022 [papel]
Lamda: modelos de idiomas para aplicativos de diálogo
Romal Thoppilan, Daniel De Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker, Yu Du, YaGuang Li, Hongrae Lee, Huaixiu Steven Zheng, Amin Ghafouri, Marcelo Menegali, Yanping Huang, Maxim Krikun, Dmitry Lepikhin, James Qin, Dehao Chen, Yuanzhong Xu, Zhifeng Chen, Adam Roberts, Maarten Bosma, Vincent Zhao, Yanqi Zhou, Chung-Ching Chang, Igor Krivokon, Will Rusch, Marc Pickett, Pranesh Srinivasan, Laichee Man, Kathleen Meier-Hellstern, Meredith Ringel Morris, Tulsee Doshi, Renelito Delos Santos, Toju Duke, Johnny Soraker, Ben Zevenbergen, Vinodkumar Prabhakaran, Mark Diaz, Ben Hutchinson, Kristen Olson, Alejandra Molina, Erin Hoffman-John, Josh Lee, Lora Aroyo, Ravi Rajakumar, Alena Butryna, Matthew Lamm, Viktoriya Kuzmina, Joe Fenton, Aaron Cohen, Rachel Bernstein, Ray Kurzweil, Blaise Agua-Arcas, Claire Cui, Marian Croak, Ed Chi, Quoc le
Arxiv - janeiro de 2022 [papel]
Modelos de idiomas como ou para bases de conhecimento
Simon Razniewski, Andrew Yates, Nora Kassner, Gerhard Weikum
Dl4kg 2021 - outubro de 2021 [papel]
Generalização através da memorização: modelos mais próximos de idiomas
Urvashi Khandelwal, Omer Levy, Dan Jurafsky, Luke Zettlemoyer, Mike Lewis
ICLR 2020 - setembro de 2019 [Paper] [Código]
O chatgpt é bom em pesquisa? Investigando grandes modelos de linguagem como agentes de renomeamento
Wenhao Yu, Hongming Zhang, Xiaoman Pan, Kaixin MA, Hongwei Wang, Dong Yu
Arxiv - novembro de 2023 [Papel]
A destilação de instruções faz com que modelos de idiomas grandes eficientes tiro zero rankers
Weiwei Sun, Zheng Chen, Xinyu MA, Lingyong Yan, Shuaiqiang Wang, Pengjie Ren, Zhumin Chen, Dawei Yin, Zhaochun Ren
Arxiv 2023 - novembro de 2023 [Papel]
Crítico: Modelos de idiomas grandes podem se auto-corrigir com a crítica interativa da ferramenta
Zhibin Gou, Zhihong Shao, Yeyun Gong, Yelong Shen, Yujiu Yang, Nan Duan, Weizhu Chen
ICLR 2024 - janeiro de 2024 [papel]
Um ponto no tempo economiza nove: detectar e atenuar alucinações do LLMS, validando a geração de baixa confiança
Neeraj Varshney, Wenlin Yao, Hongming Zhang, Jianshu Chen, Dong Yu
Arxiv - agosto de 2023 [papel]
RARR: Pesquisando e revisando o que os modelos de idiomas dizem, usando modelos de idiomas
Luyu Gao, Zhuyun Dai, Panupong Pasupat, Anthony Chen, Arun Tejasvi Chaganty, Fã de Yicheng, Vincent Zhao, Ni Lao, Hongrae Lee, Da-Cheng Juan, Kelvin Guu
ACL 2023 - Jul 2023 [papel]
Verifique e edit: uma estrutura de cadeia de pensamento aprimorada pelo conhecimento
Ruochen Zhao, Xingxuan Li, Shafiq Joty, Chengwei Qin, Lidong Bing
ACL 2023 - Jul 2023 [papel]
Geração aumentada de recuperação ativa
Zhengbao Jiang, Frank F. Xu, Luyu Gao, Zhiqing Sun, Qian Liu, Jane Dwivedi-Yu, Yiming Yang, Jamie Callan, Graham Neubig
ARXIV - Maio de 2023 [Paper] [Código]
Melhorando os modelos de idiomas por meio de feedback de recuperação plug-and-play
Wenhao Yu, Zhihan Zhang, Zhenwen Liang, Meng Jiang, Ashish Sabharwal
ARXIV - maio de 2023 [papel]
Calibração linguística de gerações de forma longa
Neil Band, Xuechen Li, Tengyu MA, Tatsunori Hashimoto
Arxiv 2024 - junho de 2024 [papel]
Para acreditar ou não acreditar no seu LLM
Yasin Abbasi Yadkori, Ilja Kuzborskij, András György, Csaba Szepesvári
Arxiv 2024 - junho de 2024 [papel]
Diz-se: Ensinar os LLMs para expressar confiança com racionamentos auto-reflexivos
Tianyang Xu, Shujin Wu, Shizhe Diao, Xiaoze Liu, Xingyao Wang, Yangyi Chen, Jing Gao
ARXIV 2024 - maio de 2024 [papel]
Especialistas não trapaceiam: aprender o que você não sabe prevendo pares
Daniel D. Johnson, Daniel Tarlow, David Duvenaud, Chris J. Maddison
ARXIV 2024 - fevereiro de 2024 [papel]
Desbloqueando geração de texto antecipatória: uma abordagem restrita para decodificar fiéis com grandes modelos de linguagem
Anônimo
ICLR 24 - outubro de 2023 [papel]
DOLA: Decodificação por camadas contrastantes melhora a factualidade em grandes modelos de linguagem
Yung-Sung Chuang, Yujia Xie, Hongyin Luo, Yoon Kim, James Glass, Pengcheng Ele
ICLR 24 - setembro de 2023 [papel]
Uma abordagem centrada em dados para gerar resumos de pacientes fiéis e de alta qualidade com modelos de idiomas grandes
Stefan Hegselmann, Shannon Zejiang Shen, Florian Gierse, Monica Agrawal, David Sontag, Xiaoyi Jiang
Arxiv 24 - fevereiro de 2024 [papel]
Rano estocástico: geração de ponta a ponta de recuperação através da maximização da utilidade esperada
Hamed Zamani, Michael Bendersky
ARXIV 24 - maio de 2024 [papel]
Ai constitucional: inofensibilidade do feedback da IA
Yuntao Bai, Saurav Kadavath, Sandipan Kundu, Amanda Askell, Jackson Kernion, Andy Jones, Anna Chen, Anna Goldie, Azalia Mirhoseini, Cameron McKinnon, Carol Chen, Catherine Olsson, Christopher Olah, Danny Hernandez, Dawn Drain, Deep Ganguli, Dustin Li, Eli Tran-Johnson, Ethan Perez, Jamie Kerr, Jared Mueller, Jeffrey Ladish, Joshua Landau, Kamal Ndousse, Kamile Lukosiute, Liane Lovitt, Michael Sellitto, Nelson Elhage, Nicholas Schiefer, Noemi Mercado, Nova DasSarma, Robert Lasenby, Robin Larson, Sam Ringer, Scott Johnston, Shauna Kravec, Sheer El Showk, Stanislav Fort, Tamera Lanham, Timothy Telleen-Lawton, Tom Conerly, Tom Henighan, Tristan Hume, Samuel R. Bowman, Zac Hatfield-Dodds, Ben Mann, Dario Amodei, Nicholas Joseph, Sam McCandlish, Tom Brown, Jared Kaplan Anthropic.com – Dec 2022 [paper]
Aprendendo novas habilidades após a implantação: melhorando o diálogo orientado à Internet em domínio aberto com feedback humano
Jing Xu, Megan Ung, Mojtaba Komeili, Kushal Arora, Y-Lan Boureau, Jason Weston
Arxiv - agosto de 2022 [papel]
Modelagem de idiomas multimodal com recuperação de recuperação
Michihiro Yasunaga, Armen Aghajanyan, Weijia Shi, Rich James, Jure Leskovec, Percy Liang, Mike Lewis, Luke Zettlemoyer, Wen-Tau Yih
Arxiv - novembro de 2022 [Paper]
RAMM: Reclamação de perguntas visuais biomédicas de recuperação com pré-treinamento multimodal
Zheng Yuan, Qiao Jin, Chuanqi Tan, Zhengyun Zhao, Hongyi Yuan, Fei Huang, Songfang Huang
ARXIV - março de 2023 [papel]
Recuperação de intercalação com o raciocínio da cadeia de pensamentos para perguntas de várias etapas intensivas em conhecimento , Niranjan Balasubramanian, Tushar Khot e Ashish Sabharwal ACL 23-2023 [Paper]
Reação: sinergizando raciocínio e atuação em modelos de idiomas
Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao
Arxiv - outubro de 2022 [papel]
Repocodor: Conclusão do código no nível do repositório por meio de recuperação e geração iterativa
Fengji Zhang, Bei Chen, Yue Zhang, Jin Liu, Daoguang Zan, Yi Mao, Jian-Guang Lou, Weizhu Chen
ARXIV - março de 2023 [papel]
Docpromping: Gerando código recuperando os documentos
Shuyan Zhou, Uri Alon, Frank F. Xu, Zhiruo Wang, Zhengbao Jiang, Graham Neubig
ICLR 23 - Jul 2022 [Paper] [Código] [Dados]
Gere, filtre e fusível: expansão de consulta via geração de palavras-chave em várias etapas para rankers neurais zero tiro
Minghan Li, Honglei Zhuang, Kai Hui, Zhen Qin, Jimmy Lin, Rolf Jagerman, Xuanhui Wang, Michael Bendersky
Arxiv - novembro de 2023 [Papel]
Agente4Ranking: classificação robusta semântica via reescrita personalizada usando LLM multi-agente
Xiaopeng LI, Lixin SU, Penyue Jia, Xiangyu Zhao, Suqi Cheng, Junfeng Wang, Dawei Yin
Arxiv - dezembro de 2023 [Papel]
Recuperação generativa e densa unificada para reescrita de consultas em pesquisa patrocinada
Akash Kumar Mohankumar, Bhargav Dodla, Gururaj K, Amit Singh
ARXIV - setembro de 2022 [papel]
Gerar narrações esportivas factualmente consistentes
Noah Sarfati, Ido Yerushalmy, Michael Chertok, Yosi Keller
MMSports 2023 - 23 de outubro [Papel]
Recuperação de informações generativas genéticas
Hrishikesh Kulkarni, Zachary Young, Nazli Goharian, Ophir Frieder, Sean Macavaney
Doceng 23 - 23 de agosto [Papel]
Aprendendo a resumir com feedback humano
Nisan Stiennon, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, Paul Christiano
NeurIPS 2020 – Sep 2020 [paper]
On Faithfulness and Factuality in Abstractive Summarization
Joshua Maynez, Shashi Narayan, Bernd Bohnet, Ryan McDonald
ACL 2020 – May 2020 [paper]
Augment before You Try: Knowledge-Enhanced Table Question Answering via Table Expansion
Yujian Liu, Jiabao Ji, Tong Yu, Ryan Rossi, Sungchul Kim, Handong Zhao, Ritwik Sinha, Yang Zhang, Shiyu Chang
arXiv – Jan 2024 [paper]
We jump-started this section by reusing the content of awesome-generative-retrieval-models and give full credit to Chriskuei for that! We now have added some content on top.
De-DSI: Decentralised Differentiable Search Index
Petru Neague, Marcel Gregoriadis, Johan Pouwelse
EuroMLSys 24 – Apr 2024 [paper]
Listwise Generative Retrieval Models via a Sequential Learning Process
Yubao Tang, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Wei Chen, Xueqi Cheng
TOIS 2024 – Mar 2024 [Paper]
Distillation Enhanced Generative Retrieval
Yongqi Li, Zhen Zhang, Wenjie Wang, Liqiang Nie, Wenjie Li, Tat-Seng Chua
arXiv 2024 – Feb 2024 [Paper]
Self-Retrieval: Building an Information Retrieval System with One Large Language Model
Qiaoyu Tang, Jiawei Chen, Bowen Yu, Yaojie Lu, Cheng Fu, Haiyang Yu, Hongyu Lin, Fei Huang, Ben He, Xianpei Han, Le Sun, Yongbin Li
arXiv 2024 – Feb 2024 [Paper]
Generative Dense Retrieval: Memory Can Be a Burden
Peiwen Yuan, Xinglin Wang, Shaoxiong Feng, Boyuan Pan, Yiwei Li, Heda Wang, Xupeng Miao, Kan Li
EACL 2024 - Jan 2024 [paper] [code]
Auto Search Indexer for End-to-End Document Retrieval
Tianchi Yang, Minghui Song, Zihan Zhang, Haizhen Huang, Weiwei Deng, Feng Sun, Qi Zhang
EMNLP 2023 - December 23 [paper]
DiffusionRet: Diffusion-Enhanced Generative Retriever using Constrained Decoding
Shanbao Qiao, Xuebing Liu, Seung-Hoon Na
EMNLP Findings 2023 – Dec 2023 [paper]
Scalable and Effective Generative Information Retrieval
Hansi Zeng, Chen Luo, Bowen Jin, Sheikh Muhammad Sarwar, Tianxin Wei, Hamed Zamani
WWW 2024 - Nov 2023 [paper] [code]
Nonparametric Decoding for Generative Retrieval
Hyunji Lee, JaeYoung Kim, Hoyeon Chang, Hanseok Oh, Sohee Yang, Vladimir Karpukhin, Yi Lu, Minjoon Seo
ACL Findings 2023 – Jul 2023 [paper]
Model-enhanced Vector Index
Hailin Zhang, Yujing Wang, Qi Chen, Ruiheng Chang, Ting Zhang, Ziming Miao, Yingyan Hou, Yang Ding, Xupeng Miao, Haonan Wang, Bochen Pang, Yuefeng Zhan, Hao Sun, Weiwei Deng, Qi Zhang, Fan Yang, Xing Xie, Mao Yang, Bin Cui
NeurIPS 2023 – May 2023 [paper] [code]
Continual Learning for Generative Retrieval over Dynamic Corpora
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Wei Chen, Yixing Fan, Xueqi Cheng
CIKM 2023 - Aug 2023 [paper]
Learning to Rank in Generative Retrieval
Yongqi Li, Nan Yang, Liang Wang, Furu Wei, Wenjie Li
arXiv – Jun 2023 [paper]
Large Language Models are Built-in Autoregressive Search Engines
Noah Ziems, Wenhao Yu, Zhihan Zhang, Meng Jiang
ACL Findings 2023 – May 2023 [paper]
Multiview Identifiers Enhanced Generative Retrieval
Yongqi Li, Nan Yang, Liang Wang, Furu Wei, Wenjie Li
ACL 2023 – May 2023 [paper]
How Does Generative Retrieval Scale to Millions of Passages?
Ronak Pradeep, Kai Hui, Jai Gupta, Adam D. Lelkes, Honglei Zhuang, Jimmy Lin, Donald Metzler, Vinh Q. Tran
arXiv – May 2023 [paper]
TOME: A Two-stage Approach for Model-based Retrieval
Ruiyang Ren, Wayne Xin Zhao, Jing Liu, Hua Wu, Ji-Rong Wen, Haifeng Wang
ACL 2023 - May 2023 [paper]
Understanding Differential Search Index for Text Retrieval
Xiaoyang Chen, Yanjiang Liu, Ben He, Le Sun, Yingfei Sun
ACL Findings 2023 - May 2023 [paper]
Learning to Tokenize for Generative Retrieval
Weiwei Sun, Lingyong Yan, Zheng Chen, Shuaiqiang Wang, Haichao Zhu, Pengjie Ren, Zhumin Chen, Dawei Yin, Maarten de Rijke, Zhaochun Ren
arXiv – Apr 2023 [paper]
DynamicRetriever: A Pre-trained Model-based IR System Without an Explicit Index
Yu-Jia Zhou, Jing Yao, Zhi-Cheng Dou, Ledell Wu, Ji-Rong Wen
Machine Intelligence Research – Jan 2023 [paper]
DSI++: Updating Transformer Memory with New Documents
Sanket Vaibhav Mehta, Jai Gupta, Yi Tay, Mostafa Dehghani, Vinh Q. Tran, Jinfeng Rao, Marc Najork, Emma Strubell, Donald Metzler
arXiv – Dec 2022 [paper]
CodeDSI: Differentiable Code Search
Usama Nadeem, Noah Ziems, Shaoen Wu
arXiv – Oct 2022 [paper]
Contextualized Generative Retrieval
Hyunji Lee, Jaeyoung Kim, Hoyeon Chang, Hanseok Oh, Sohee Yang, Vlad Karpukhin, Yi Lu, Minjoon Seo
arXiv – Oct 2022 [paper]
Transformer Memory as a Differentiable Search Index
Yi Tay, Vinh Q. Tran, Mostafa Dehghani, Jianmo Ni, Dara Bahri, Harsh Mehta, Zhen Qin, Kai Hui, Zhe Zhao, Jai Gupta, Tal Schuster, William W. Cohen, Donald Metzler
Neurips 2022 – Oct 2022 [paper] [Video] [third-party code]
A Neural Corpus Indexer for Document Retrieval
Wang et al.
Arxiv 2022 [paper]
Bridging the Gap Between Indexing and Retrieval for Differentiable Search Index with Query Generation
Shengyao Zhuang, Houxing Ren, Linjun Shou, Jian Pei, Ming Gong, Guido Zuccon, and Daxin Jiang
Arxiv 2022 [paper] [Code]
DynamicRetriever: A Pre-training Model-based IR System with Neither Sparse nor Dense Index
Zhou et al
Arxiv 2022 [paper]
Ultron: An Ultimate Retriever on Corpus with a Model-based Indexer
Zhou et al
Arxiv 2022 [paper]
Planning Ahead in Generative Retrieval: Guiding Autoregressive Generation through Simultaneous Decoding
Hansi Zeng ,Chen Luo ,Hamed Zamani
arXiv – Apr 2024 [paper] [Code]
NOVO: Learnable and Interpretable Document Identifiers for Model-Based IR
Zihan Wang, Yujia Zhou, Yiteng Tu, Zhicheng Dou
CIKM 2023 - October 2023 [paper]
Generative Retrieval as Multi-Vector Dense Retrieval
Shiguang Wu, Wenda Wei, Mengqi Zhang, Zhumin Chen, Jun Ma, Zhaochun Ren, Maarten de Rijke, Pengjie Ren
SIGIR 2024 - March 24 [paper] [Code]
Re3val: Reinforced and Reranked Generative Retrieval
EuiYul Song, Sangryul Kim, Haeju Lee, Joonkee Kim, James Thorne
EACL Findings 2023 – Jan 24 [paper]
GLEN: Generative Retrieval via Lexical Index Learning
Sunkyung Lee, Minjin Choi, Jongwuk Lee
EMNLP 2023 - December 23 [paper] [Code]
Enhancing Generative Retrieval with Reinforcement Learning from Relevance Feedback
Yujia Zhou, Zhicheng Dou, Ji-Rong Wen
EMNLP 2023 - December 23 [paper]
Generative Retrieval with Large Language Models
Anônimo
ICLR 24 – October 23 [paper]
Semantic-Enhanced Differentiable Search Index Inspired by Learning Strategies
Yubao Tang, Ruqing Zhang, Jiafeng Guo, Jiangui Chen, Zuowei Zhu, Shuaiqiang Wang, Dawei Yin, Xueqi Cheng
KDD 2023 – May 2023 [paper]
Term-Sets Can Be Strong Document Identifiers For Auto-Regressive Search Engines
Peitian Zhang, Zheng Liu, Yujia Zhou, Zhicheng Dou, Zhao Cao
arXiv – May 2023 [paper] [Code]
A Unified Generative Retriever for Knowledge-Intensive Language Tasks via Prompt Learning
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Yiqun Liu, Yixing Fan, Xueqi Cheng
SIGIR 2023 – Apr 2023 [paper] [Code]
CorpusBrain: Pre-train a Generative Retrieval Model for Knowledge-Intensive Language Tasks
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Yiqun Liu, Yixing Fan, Xueqi Cheng
CIKM 2022 – Aug 2022 [paper] [Code]
Autoregressive Search Engines: Generating Substrings as Document Identifiers
Michele Bevilacqua, Giuseppe Ottaviano, Patrick Lewis, Wen-tau Yih, Sebastian Riedel, Fabio Petroni
arXiv – Apr 2022 [paper] [Code]
Autoregressive Entity Retrieval
Nicola De Cao, Gautier Izacard, Sebastian Riedel, Fabio Petroni
ICLR 2021 – Oct 2020 [paper] [Code]
Data-Efficient Autoregressive Document Retrieval for Fact Verification
James Thorne
SustaiNLP@EMNLP 2022 – Nov 2022 [paper]
GERE: Generative Evidence Retrieval for Fact Verification
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Yixing Fan, Xueqi Cheng
SIGIR 2022 [paper] [Code]
Generative Multi-hop Retrieval
Hyunji Lee, Sohee Yang, Hanseok Oh, Minjoon Seo
arXiv – Apr 2022 [paper]
Improving LLMs for Recommendation with Out-Of-Vocabulary Tokens
Ting-Ji Huang, Jia-Qi Yang, Chunxu Shen, Kai-Qi Liu, De-Chuan Zhan, Han-Jia Ye
arXiv – Jun 2024 [paper]
Plug-in Diffusion Model for Sequential Recommendation
Haokai Ma, Ruobing Xie, Lei Meng, Xin Chen, Xu Zhang, Leyu Lin, Zhanhui Kang
arXiv – Jan 2024 [paper]
Towards Graph-Aware Diffusion Modeling For Collaborative Filtering Yunqin Zhu1, Chao Wang, Hui Xiong
arXiv – Nov 2023 [paper]
RecMind: Large Language Model Powered Agent For Recommendation
Yancheng Wang, Ziyan Jiang, Zheng Chen, Fan Yang, Yingxue Zhou, Eunah Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Yingzhen Yang
arXiv – Aug 2023 [paper]
Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large Language Model Recommendation
Jizhi Zhang, Keqin Bao, Yang Zhang, Wenjie Wang, Fuli Feng, Xiangnan He
Recsys 2023 – Jul 2023 [paper]
RecFusion: A Binomial Diffusion Process for 1D Data for Recommendation
Gabriel Bénédict, Olivier Jeunen, Samuele Papa, Samarth Bhargav, Daan Odijk, Maarten de Rijke
arXiv – Jun 2023 [paper]
A First Look at LLM-Powered Generative News Recommendation
Qijiong Liu, Nuo Chen, Tetsuya Sakai, Xiao-Ming Wu
arXiv – Jun 2023 [paper]
Large Language Models as Zero-Shot Conversational Recommenders
Yupeng Hou, Junjie Zhang, Zihan Lin, Hongyu Lu, Ruobing Xie, Julian McAuley, Wayne Xin Zhao
arXiv – May 2023 [paper]
DiffuRec: A Diffusion Model for Sequential Recommendation
Zihao Li, Aixin Sun, Chenliang Li
arXiv – Apr 2023 [paper]
Diffusion Recommender Model
Wenjie Wang, Yiyan Xu, Fuli Feng, Xinyu Lin, Xiangnan He, Tat-Seng Chua
SIGIR 2023 – Apr 2023 [paper]
Blurring-Sharpening Process Models for Collaborative Filtering
Jeongwhan Choi, Seoyoung Hong, Noseong Park, Sung-Bae Cho
SIGIR 2023 – Apr 2023 [paper] [code]
Recommender Systems with Generative Retrieval
Shashank Rajput, Nikhil Mehta, Anima Singh, Raghunandan Keshavan, Trung Vu, Lukasz Heldt, Lichan Hong, Yi Tay, Vinh Q. Tran, Jonah Samost, Maciej Kula, Ed H. Chi, Maheswaran Sathiamoorthy
non-archival – Mar 2023 [paper]
Pre-train, Prompt and Recommendation: A Comprehensive Survey of Language Modelling Paradigm Adaptations in Recommender Systems
Peng Liu, Lemei Zhang, Jon Atle Gulla
arXiv – Feb 2023 [paper]
Generative Slate Recommendation with Reinforcement Learning
Romain Deffayet, Thibaut Thonet, Jean-Michel Renders, and Maarten de Rijke
WSDM 2023 – Feb 2023 [paper]
Recommendation via Collaborative Diffusion Generative Model
Joojo Walker, Ting Zhong, Fengli Zhang, Qiang Gao, Fan Zhou
KSEM 2022 – Aug 2022 [paper]
DocGraphLM: Documental Graph Language Model for Information Extraction
Dongsheng Wang, Zhiqiang Ma, Armineh Nourbakhsh, Kang Gu, Sameena Shah
arXiv – Jan 2024 [paper]
KBFormer: A Diffusion Model for Structured Entity Completion
Ouail Kitouni, Niklas Nolte, James Hensman, Bhaskar Mitra
arXiv – Dec 2023 [paper]
From Retrieval to Generation: Efficient and Effective Entity Set Expansion
Shulin Huang, Shirong Ma, Yangning Li, Yinghui Li, Hai-Tao Zheng, Yong Jiang
arXiv – Apr 2023 [paper]
Crawling the Internal Knowledge-Base of Language Models
Roi Cohen, Mor Geva, Jonathan Berant, Amir Globerson
arXiv – Jan 2023 [paper]
Prompt Tuning or Fine-Tuning - Investigating Relational Knowledge in Pre-Trained Language Models
Leandra Fichtel, Jan-Christoph Kalo, Wolf-Tilo Balke
AKBC 2021 – [paper]
Language Models as Knowledge Bases?
Fabio Petroni, Tim Rocktäschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel
EMNLP 2019 – Sep 2019 [paper]
Although some of these are not accompanied by a paper, they might be useful to other Generative IR researchers for empirical studies or interface design considerations.
⚡ Gemini Dec 2023 [live] ⚡️ factiverse Jun 2023 [live] ⚡️ devmarizer Mar 2023 [live] ⚡️ TaxGenius Mar 2023 [live] ⚡️ doc-gpt Mar 2023 [live] ⚡️ book-gpt Feb 2023 [live] ⚡️ Neeva Feb 2023 [live] ⚡️ Golden Retriever Feb 2023 [live] ⚡️ Bing – Prometheus Feb 2023 [waitlist] ⚡️ Google – Bard Feb 2023 [only in certain countries] ⚡️ Paper QA Feb 2023 [code] [demo] ⚡️ DocsGPT Feb 2023 [live] [code] ⚡️ DocAsker Jan 2023 [live] ⚡️ Lexii.ai Jan 2023 [live] ⚡️ YOU.com Dec 2022 [live] ⚡️ arXivGPT Dec 2022 [Chrome extension] ⚡️ GPT Index Nov 2022 [API] ⚡️ BlenderBot Aug 2022 [live (USA)] [model weights] [code] [paper1] [paper2] ⚡️ PHIND date? [live] ⚡️ Perplexity date? [live] ⚡️ Galactica date? [demo] [API] [paper] ⚡️ Elicit date? [live] ⚡️ ZetaAlpha date? [live] uses OpenAI API
To get just the paper titles do grep '**' README.md | sed 's/**//g'