Les modèles conversationnels ont commencé à être en mesure d'accéder au Web ou de sauvegarder leurs revendications avec des sources (AKA Attribution). Ces chatbots sont donc sans doute des machines de récupération d'informations, en concurrence ou même en remplissant les moteurs de recherche traditionnels. Nous tenons à consacrer un espace à ces modèles mais aussi au domaine plus général de la récupération des informations génératrices. Nous dévidons provisoirement le domaine dans deux sujets principaux: la génération de réponses ancrée et la récupération générative des documents . Nous incluons également une recommandation générative, une résumé génératif fondé, etc.
REQUESSEMENTS PULL-TOHE!
Citation déterministe: Rendre les LLMS plus sûrs pour les soins de santé
Matt Yeung
Blog personnel - avril 2024 [lien]
Recherche de la génération augmentée de la récupération: 2017-2024
Moritz Mallawitsch
Connaissances de mise à l'échelle - février 2024 [lien]
Mastering Rag: Comment architer un système de chiffon d'entreprise
Pratik Bhavsar
Galileo Labs - janvier 2024 [lien]
Running Mixtral 8x7 localement avec Llamaindex
Llamaindex
Blog de Llamaindex - décembre 2023 [lien]
Techniques de chiffon avancé: un aperçu illustré
Ivan Ilin
Vers l'IA - décembre 2023 [lien]
Pipeline de chiffons multimodal avec Llamaindex et Neo4j
Tomaz bratanique
Blog de Llamaindex - décembre 2023 [lien]
Benchmarking Rag sur les tables
Lubriole
Blog de Langchain - décembre 2023 [lien]
Rag avancé 01: récupération de petite à big
Sophia Yang
Vers la science des données - novembre 2023 [lien]
Transformations de requête
Lubriole
Blog de Langchain - octobre 2023 [lien]
Qu'est-ce qui rend un agent de dialogue utile?
Nazneen Rajani, Nathan Lambert, Victor Sanh, Thomas Wolf
Blog de visage de câlin - janvier 2023 [lien]
Prévision des abus potentiels des modèles linguistiques pour les campagnes de désinformation et comment réduire le risque
Josh A. Goldstein, Girish Sastry, Micah Musser, Renée Diresta, Matthew Gentzel, Katerina Sedova
Openai Blog - janvier 2023 [Lien]
Fait, récupérer et raison: une évaluation unifiée de la génération de récupération Satyapriya Krishna, Kalpesh Krishna, Anhad Mohananey, Steven Schwarcz, Adam Stambler, Shyam Upadhyay, Manaal Faruqui Arxiv - septembre 2024 [Paper] [Data]
LitSearch: une référence de récupération pour la recherche de littérature scientifique
Anirudh Ajith, Mengzhou Xia, Alexis Chevalier, Tanya Goyal, Danqi Chen, Tianyu Gao
ARXIV - juil 2023 [Papier] [Données]
Bright: une référence réaliste et stimulante pour une récupération à forte intensité
Hongjin Su, Howard Yen, Mengzhou Xia, Weijia Shi, Niklas Muennighoff, Han-Yu Wang, Haisu Liu, Quan Shi, Zachary S. Siegel, Michael Tang, Ruoxi Sun, Jinsung Yoon, Sercan O. Arik, Danqi Chen, Tao Yu
ARXIV - octobre 2023 [papier] [Données] [Code]
Freshllms: Modèles de grande langue rafraîchissants avec augmentation du moteur de recherche
Tu Vu, Mohit Iyyer, Xuezhi Wang, Noah Constant, Jerry Wei, Jason Wei, Chris Tar, Yun-Hsuan Sung, Denny Zhou, Quoc Le, Thang Luong
ARXIV - octobre 2023 [papier] [Code]
LegalBench: une référence construite en collaboration pour mesurer le raisonnement juridique dans les modèles de grande langue
Neel Guha, Julian Nyarko, Daniel E. Ho, Christopher Ré, Adam Chilton, Aditya Narayana, Alex Chohlas-Wood, Austin Peters, Brandon Waldon, Daniel N. Rockmore, Diego Zambrano, Dmitry Talisman, Enam Hoque, Faiz Surani, Frank Fagan, Galit Sarfaty, Gregory M. Dickinson, Haggai Porat, Jason Hegland, Jessica Wu, Joe Nudell, Joel Niklaus, John Nay, Jonathan H. Choi, Kevin Tobia, Margaret Hagan, Megan MA, Michael Livermore, Nikon Rasumov-Rahe, Nils Holzenberger, Noam Kolt, Peter Henders Williams, Sunny Gandhi, Tom Zur, Varun Iyer, Zehua Li
Arxiv - août 2023 [papier] [ensemble de données]
Conversations ouvertes - démocratiser l'alignement du modèle de grande langue
Andreas Köpf, Yannic Kilcher, Dimitri von Rütte, Sotiris Anagnostidis, Zhi-Rui Tam, Keith Stevens, Abdullah Barhoum, Nguyen Minh Duc, Oliver Stanley, Richárd Nagyfi, Shahul es, Sameer Suri, David Glulus Christoph Schuhmann, Huu Nguyen, Alexander Mattick
Arxiv - avril 2023 [papier]
Chatppt-re-rerievalqa
Arian Askari, Mohammad Aliannejadi, Evangelos Kanoulas, Suzan Verberne
Github - février 2023 [code]
Kamel: Analyse des connaissances avec des entités multitoken dans des modèles de langues
Jan-Christoph Kalo, Leandra Fichtel
AKBC 22 - [papier]
Vérirfulqa: mesurer comment les modèles imitent les mensonges humains
Stephanie Lin, Jacob Hilton, Owain Evans
Arxiv - sept. 2021 [Paper] [Code]
Récupération de réponse complexe
Laura Dietz, Manisha Verma, Filip Radlinski, Nick Craswell, Ben Gamari, Jeff Dalton, John Foley
TREC - 2017-2019 [lien]
Graphrag
Jonathan Larson, Steven Truitt
Microsoft - février 2024 [Code]
Répartir l'écart d'évaluation des connaissances: question à domaine ouvert répondant avec des réponses multi-granularité
Gal Yona, Roee Aharoni, Mor Geva
Arxiv - janvier 2024 [papier]
Atelier DHS LLM - Module 6
Sourab Mangulkar
Github - déc. 2023 [code]
Primeqa: Le référentiel de premier ordre pour une question multilingue de pointe répondant à la recherche et au développement
Avirup Sil, Jaydeep Sen, Bhavani Iyer, Martin Franz, Kshitij Fadnis, Mihaela Bornea, Sara Rosenthal, Scott McCarley, Rong Zhang, Vishwajeet Kumar, Yulong Li, Md Arafat Sultan, Riyaz Bhat, Radu Florian, Salmim
ARXIV - janvier 2023 [Papier] [Code]
TRL: apprentissage du renforcement du transformateur
Leandro von Werra, Younes Belkada, Lewis Tunstall, Edward Beeching, Tristan Thrush, Nathan Lambert, Shengyi Huang
Github - 2020 [code]
FactsCore: Évaluation atomique à grain fin de la précision factuelle dans la génération de texte à long terme
Sewon Min, Kalpesh Krishna, Xinxi Lyu, Mike Lewis, Wen-Tau Yih, Pang Wei Koh, Mohit Iyyer, Luke Zettlemoyer, Hannaneh Hajishirzi
PYPI - mai 2023 [papier] [Code]
FACTKB: Évaluation des factualités généralisables à l'aide de modèles de langage améliorés avec des connaissances factuelles
Shangbin Feng, Vidhisha Balachandran, Yuyang Bai, Yulia Tsvetkov
ARXIV - mai 2023 [Papier] [Code]
Évaluation de la vérifiabilité dans les moteurs de recherche génératifs
Nelson F. Liu, Tianyi Zhang, Percy Liang
ARXIV - avril 2023 [Papier] [Code]
Atelier sur l'IA génératif pour les systèmes et la personnalisation des recommandations
Narges Tabari, Aniket Deshmukh, Wang-Cheng Kang, Rashmi Gangadharaiah, Hamed Zamani, Julian McAuley, George Karypis
KDD 24 - août 2024 [lien]
Deuxième atelier sur la récupération des informations génératives
Gabriel Bénédict, Ruqing Zhang, Donald Metzler, Andrew Yates, Ziyan Jiang
Sigir 24 - juillet 2024 [lien]
AI génératif personnalisé
Zheng Chen, Ziyan Jiang, fan Yang, Zhankui He, Yupeng Hou, Eunah Cho, Julian McAuley, Aram Galstyan, Xiaohua Hu, Jie Yang
CIKM 23 - octobre 2023 [lien]
Premier atelier sur la recommandation avec des modèles génératifs
Wenjie Wang, Yong Liu, Yang Zhang, Weiwen Liu, Fuli Feng, Xiangnan He, Aixin Sun
CIKM 23 - octobre 2023 [lien]
Premier atelier sur la récupération des informations génératives
Gabriel Bénédict, Ruqing Zhang, Donald Metzler
SIGIR 23 - juillet 2023 [lien]
Modèles et applications linguistiques basées sur la récupération
Akari Asai, Sewon Min, Zexuan Zhong, Danqi Chen
ACL 23 - juillet 2023 [lien]
Récupération des informations agentiques
Weinan Zhang, Junwei Liao, Ning Li, Kounianhua du
ArXIV - octobre 2024 [papier]
Réciter, reconstruire, se souvenir: la mémorisation dans LMS en tant que phénomène multiforme
USVSN Sai Prashanth, Alvin Deng, Kyle O'Brien, Jyothir SV, Mohammad Aflah Khan, Jaydeep Borkar, Christopher A. Choquette-Choo, Jacob Ray Fuehne, Stella Bidemman, Tracy Ke, Katherine Lee, Naomi Saphra
Arxiv - juin 2024 [papier]
Chatgpt est des conneries
Michael Townsen Hicks, James Humphries, Joe Slater
Ethics Inf Technol - juin 2024 [papier]
Hallucination des modèles multimodaux de grande langue: une enquête
Zechen Bai, Pichao Wang, Tianjun Xiao, Tong He, Zongbo Han, Zheng Zhang, Mike Zheng Shou
ArXIV - avril 2024 [papier]
De l'appariement à la génération: une enquête sur la récupération des informations génératives
Xiaoxi Li, Jiajie Jin, Yujia Zhou, Yuyao Zhang, Peitian Zhang, Yutao Zhu et Zhicheng Dou
ArXIV - avril 2024 [papier]
Conflits de connaissances pour les LLM: une enquête
Rongwu Xu, Zehan Qi, Cunxiang Wang, Hongru Wang, Yue Zhang, Wei Xu
Arxiv - mars 2024 [papier]
Rapport sur le 1er atelier sur la récupération des informations génératives (Gen-IR 2023) à Sigir 2023
Gabriel Bénédict, Ruqing Zhang, Donald Metzler, Andrew Yates, Romain Deffayet, Philipp Hager, Sami Jullien
Sigir Forum - déc. 2023 [papier]
Rapport sur le 1er atelier sur la tâche focalisée IR à l'ère de l'IA générative
Chirag Shah, Ryen W. White
Sigir Forum - déc. 2023 [papier]
Vers la recherche et la recommandation génératrices: un keynote à Recsys 2023
Tat-Seng Chua
Sigir Forum - déc. 2023 [papier]
Grand modèle de recherche: redéfinir la pile de recherche à l'ère de LLMS
Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
Sigir Forum - déc. 2023 [papier]
Modèles de grande langue pour l'extraction d'informations génératrices: une enquête
Derong Xu, Wei Chen, Wenjun Peng, Chao Zhang, Tong Xu, Xiangyu Zhao, Xian Wu, Yefeng Zheng, Enhong Chen
ARXIV - Dec 2023 [Papier]
Récupération de texte dense basée sur des modèles de langue pré-étendue: une enquête
Wayne Xin Zhao, Jing Liu, Ruiyang Ren, Ji-Rong Wen
TOIS - Dec 2023 [Papier]
GÉNÉRATION DE RÉTENTION AUGMENT
Yunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi BI, Yi Dai, Jiawei Sun, Haofen Wang
ARXIV - Dec 2023 [Papier]
Les modèles de langue calibrés doivent halluciner
Adam Tauman Kalai, Santosh S. Vempala
ARXIV - NOV 2023 [Papier]
La chanson de Siren dans l'océan IA: une enquête sur les hallucinations dans les modèles de grande langue
Yue Zhang, Yafu Li, Leyang Cui, Deng Ci, Lemao Liu, Tingchen Fu, Xinting Huang, Enbo Zhao, Yu Zhang, Yulong Chen, Longyue Wang, Anh Tuan Luu, Wei Bi, Freda Shi, Shuming Shi
Arxiv - sept. 2023 [papier]
La fausse promesse d'imiter les LLMS propriétaires
Arnav Gudibande, Eric Wallace, Charlie Snell, Xinyang Geng, Hao Liu, Pieter Abbeel, Sergey Levine, Dawn Song
ARXIV - mai 2023 [papier]
Recommandation générative: Vers le paradigme des recommandations de nouvelle génération
Fengji Zhang, Bei Chen, Yue Zhang, Jin Liu, Daoguang Zan, Yi Mao, Jian-Guang Lou, Weizhu Chen
Arxiv - avril 2023 [papier]
Modèles de langue augmentée: une enquête
Grégoire Mialon, Roberto Dessì, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz, Edouard Grave, Yann LeCun, Thomas Scialom
ARXIV - février 2023 [papier]
Modèles de langage génératifs et opérations d'influence automatisée: menaces émergentes et atténuations potentielles
Josh A. Goldstein, Girish Sastry, Micah Musser, Renee Diresta, Matthew Gentzel, Katerina Sedova
Arxiv - janvier 2023 [papier]
Recherche d'informations conversationnelles. Une introduction à la recherche conversationnelle, à la recommandation et à la réponse aux questions
Hamed Zamani, Johanne R. Trippas, Jeff Dalton et Filip Radlinski
Arxiv - janvier 2023 [papier]
Faits
Kevin Mulligan et Fabrice Correia
L'Encyclopédie de la philosophie de Stanford - hiver 2021 [URL]
AI véridique: développer et gouverner l'IA qui ne ment pas
Owain Evans, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital Balwit, Peter Wills, Luca Righetti, William Saunders
ArXIV - octobre 2021 [papier]
Repenser la recherche: faire des experts du domaine à partir de dilettantes
Donald Metzler, Yi Tay, Dara Bahri, Marc Najork
Sigir Forum 2021 - mai 2021 [papier]
Réponse de question attribuée: évaluation et modélisation pour les modèles de langue importants attribués
Bernd Bohnet, Vinh Q. Tran, Pat Verga, Roee Aharoni, Daniel andor, Livio Baldini Soares, Jacob Eisenstein, Kuzman Ganchev, Jonathan Herzig, Kai Hui, Tom Kwiatkowski, Ji Ma, Jianmo Ni, Tal Schuster, William W. Cohen, Michael Collins, Dipanj, Tal Schuster, William W. Cohen, Michael Collins, Dipanj, Tal Schuster, William W. Cohen, Michael Collins, Dipanj, Tal Schuster, William W. Cohen, Michael Collins, DIPANJ, TAL SCHUST Donald Metzler, Slav Petrov, Kellie Webster
ARXIV - Dec 2022 [Papier]
mise à la terre / récupération externe au moment de l'inférence
Raptor: Traitement abstractif récursif de la récupération organisée par des arbres
Parth Sarthi, Salman Abdullah, Aditi Tuli, Shubh Khanna, Anna Goldie, Christopher D. Manning
ICLR 24 - janvier 2024 [papier]
Génération augmentée de récupération corrective
Shi-Qi Yan, Jia-Chen GU, Yun Zhu, Zhen-Hua Ling
Arxiv - janvier 2024 [papier]
Il est temps: incorporer la temporalité dans des modèles de langue augmentée de récupération
Anoushka gade, Jorjeta Jetcheva
Arxiv - janvier 2024 [papier]
Rag vs amende: pipelines, compromis et étude de cas sur l'agriculture
Angels Balaguer, Vinamra Benara, Renato Luiz de Freitas Cunha, Roberto de M. Estevão Filho, Todd Hendry, Daniel Holstein, Jennifer Marsman, Nick Mecklenburg, Sara Malvar, Leonardo O. Aski, Ranveer Chandra
Arxiv - janvier 2024 [papier]
Séquençage des maquiers: un modèle de génération de génération de génération pour la construction d'agents conversationnels
Quinn Patwardhan, Grace Hui Yang
TREC 23 - nov 2023 [papier]
Auto-rag: apprendre à récupérer, générer et critiquer à travers l'auto-réflexion
Anonyme
ICLR 24 - octobre 2023 [papier]
RA-Dit: réglage à double instruction de la récupération
Anonyme
ICLR 24 - octobre 2023 [papier]
Apprentissage en contexte avec des modèles de langue d'encodeur augmentée de récupération
Anonyme
ICLR 24 - octobre 2023 [papier]
Faire des modèles de langage auprès de la récupération robuste au contexte non pertinent
Anonyme
ICLR 24 - octobre 2023 [papier]
La récupération rencontre un long contexte de gros modèles de langue
Anonyme
ICLR 24 - octobre 2023 [papier]
Reformulant l'adaptation du domaine des modèles de grandes langues comme adapt-rerive-revise
Anonyme
ICLR 24 - octobre 2023 [papier]
Instrutro: Instruction Tuning Post Post Retrieval-Augmented Pret-Raining
Anonyme
ICLR 24 - octobre 2023 [papier]
Bien sûr: améliorer la question de la question du domaine ouvert des LLM via la récupération résumée
Anonyme
ICLR 24 - octobre 2023 [papier]
RECOMP: Amélioration des LMS de la récupération avec compression de contexte et augmentation sélective
Anonyme
ICLR 24 - octobre 2023 [papier]
La récupération est une génération précise
Anonyme
ICLR 24 - octobre 2023 [papier]
PaperQA: Agent génératif de la récupération pour la recherche scientifique
Anonyme
ICLR 24 - octobre 2023 [papier]
Comprendre l'augmentation de la récupération pour répondre aux questions longues
Anonyme
ICLR 24 - octobre 2023 [papier]
Génération de langue personnalisée via la récupération augmentée métrique bayésienne
Anonyme
ICLR 24 - octobre 2023 [papier]
DSPY: Compilation du modèle de langue déclarative appelle les pipelines auto-améliorées
Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Moazam, Heather Miller, Matei Zaharia, Christopher Potts
ARXIV - octobre 2023 [papier] [Code]
RA-Dit: réglage à double instruction de la récupération
Xi Victoria Lin, Xilun Chen, Mingda Chen, Weijia Shi, Maria Lomeli, Rich James, Pedro Rodriguez, Jacob Kahn, Gergely Szilvasy, Mike Lewis, Luke Zettlemoyer, Scott Yih
Arxiv - août 2023 [papier]
La documentation de l'outil permet une utilisation d'outils zéro avec de grands modèles de langue
Cheng-Yu Hsieh, Si-An Chen, Chun-Liang Li, Yasuhisa Fujii, Alexander Ratner, Chen-Yu Lee, Ranjay Krishna, Tomas Pfister
Arxiv - août 2023 [papier]
Reagkd: Distillation de connaissances auprès de la récupération pour les modèles de langue pré-formés
Jianyi Zhang, Aashiq Muhamed, Aditya Anantharaman, Guoyin Wang, Changyou Chen, Kai Zhong, Qingjun Cui, Yi Xu, Belinda Zeng, Trishul Chilimbi, Yiran Chen
ACL 23 - juillet 2023 [papier]
La récupération basée sur la surface réduit la perplexité des modèles de langage auprès de la récupération
Ehsan Doostmohammadi, Tobias Norlund, Marco Kuhlmann, Richard Johansson
ACL 23 - juillet 2023 [papier]
Réglage rapide pour augmenter la récupération dense avec des modèles de langue importants
Zhiyuan Peng, Xuyang Wu, Yi Fang
Arxiv - juin 2023 [papier]
RETA-llm: une boîte à outils de modèle de grande langue de récupération
Jiongnan Liu, Jiajie Jin, Zihan Wang, Jiehan Cheng, Zhicheng Dou, Ji-Rong Wen
Arxiv - juin 2023 [papier]
WebGlm: Vers une question efficace de réponse à une question sur le Web avec des préférences humaines
Xiao Liu, Hanyu Lai, Hao Yu, Yifan Xu, Aohan Zeng, Zhengxiao DU, Peng Zhang, Yuxiao Dong, Jie Tang
Arxiv - juin 2023 [papier]
Wikichat: Arrêter l'hallucination des chatbots de modèle de grande langue par une mise à la terre de quelques coups sur Wikipedia
Sina J. Semnani, Violet Z. Yao, Heidi C. Zhang, Monica S. Lam
Résultats EMNLP 2023 - mai 2023 [Paper] [Code] [Demo]
RET-LLM: Vers une mémoire générale en lecture pour les modèles de grandes langues
Ali Modarressi, Ayyoob Imani, Mohsen Fayyaz, Hinrich Schutze
ARXIV - mai 2023 [papier]
Gorille: modèle de grande langue lié à des API massives
Shishir G. Patil, Tianjun Zhang, Xin Wang, Joseph E. Gonzalez
ARXIV - mai 2023 [Papier] [Code]
Allons-nous prétraiter des modèles de langage autorégressifs avec récupération? Une étude complète
Boxin Wang, Wei Ping, Peng Xu, Lawrence McAfee, Zihan Liu, Mohammad Shoeybi, Yi Dong, Oleksii Kuchaiev, Bo Li, Chaowei Xiao, Anima Anandkumar, Bryan Catanzaro
arXiv - avr 2023 [papier] [code]
Vérifiez vos faits et réessayez: Améliorer les modèles de grandes langues avec des connaissances externes et des commentaires automatisés
Baolin Peng, Michel Galley, Pengcheng He, Hao Cheng, Yujia Xie, Yu Hu, Qiuyuan Huang, Lars Liden, Zhou Yu, Weizhu Chen, Jianfeng Gao
ARXIV - FEB 2023 [PAPIER] [CODE]
ToolFormer: les modèles de langue peuvent s'apprendre à utiliser des outils
Timo Schick, Jane Dwivedi-yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom
ARXIV - février 2023 [papier]
Replug: Modèles de langue noire de récupération de la récupération
Weijia Shi, Sewon Min, Michihiro Yasunaga, Minjoon Seo, Rich James, Mike Lewis, Luke Zettlemoyer, Wen-Tau Yih
Arxiv - janvier 2023 [papier]
Modèles de langage au-contexte de la récupération au contexte
Ori Ram, Yoav Levine, Itay Dalmedigos, Dor Muhlgay, Amnon Shashua, Kevin Leyton-Brown, Yoav Shoham
AI21 Labs - janvier 2023 [Papier] [Code]
Recettes pour construire un chatbot à domaine ouvert
Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, Jason Weston
EACL 2021 - avril 2021 [papier]
Atman: Comprendre les prédictions du transformateur à travers la manipulation de l'attention efficace de la mémoire
Hamed Zamani, Johanne R. Trippas, Jeff Dalton et Filip Radlinski
Arxiv - janvier 2023 [papier]
Retomae V2: Encodeur automatique masqué en duplex pour les modèles de langage orienté vers la récupération avant la formation
Shitao Xiao, Zheng Liu
ARXIV - NOV 2023 [Papier]
Démonstration-SEARCH-PRIDICT: Composer des modèles de récupération et de langue pour la PNL à forte intensité de connaissance Omar Khattab, Keshav Santhanam, Xiang Lisa Li, David Hall, Percy Liang, Christopher Potts, Matei Zaharia
ARXIV - Dec 2022 [Papier]
Améliorer les modèles de langue en récupérant des milliards de jetons
Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Ci, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Ring Ring, Tom Hennigan, SAULIA Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen et Laurent Sifre
ARXIV - FEB 2022 [PAPIER]
Améliorer les modèles de langue en récupérant des milliards de jetons
Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Ci, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Ring Ring, Tom Hennigan, SAULIA Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen, Laurent Sifre
ARXIV - Dec 2021 [Papier]
Webgpt: réponses aux questions assistées par le navigateur avec commentaires humains
Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Oulang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, Xu Jiang, Karl Cobbe, Tyna Eloundou, Gretchen Krueger, Kevin Button, Mattthe
ARXIV - Dec 2021 [Papier]
Bert-Knn: ajoutant un composant de recherche KNN aux modèles de langage prétrainés pour un meilleur QA
Nora Kassner, Hinrich Schütze
EMNLP 2020 - novembre 2020 [papier]
Royaume: Modèle de langue de la récupération Pré-formation
Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, Ming-Wei Chang
ICML 2020 - juillet 2020 [papier]
Un modèle de conversation neuronale de la génération de récupération hybride
Liu Yang, Junjie Hu, Minghui Qiu, Chen Qu, Jianfeng Gao, W. Bruce Croft, Xiaodong Liu, Yelong Shen, Jingjing Liu
Arxiv - avril 2019 [papier]
fondé sur les poids des modèles internes au moment de l'inférence
Comment les modèles de gros langues acquièrent-ils des connaissances factuelles lors de la pré-formation?
Hoyeon Chang, Jinho Park, Seonghyeon Ye, Sohee Yang, Youngkyung Seo, Du-Seong Chang, Minjoon Seo
Arxiv - juin 2024 [papier]
Modèles de langage affinés pour la factualité
Katherine Tian, Eric Mitchell, Huaxiu Yao, Christopher D. Manning, Chelsea Finn
ARXIV - NOV 2023 [Papier]
R-Tuning: Enseigner aux modèles de grande langue pour refuser des questions inconnues
Hanning Zhang, Shizhe Diao, Yong Lin, Yi R. Fung, Qing Lian, Xingyao Wang, Yangyi Chen, Heng Ji, Tong Zhang
ARXIV - NOV 2023 [Papier]
EasyEdit: un cadre d'édition de connaissances facile à utiliser pour les grands modèles de langue
Peng Wang, Ningyu Zhang, Xin Xie, Yunzhi Yao, Bozhong Tian, Mengru Wang, Zekun Xi, Siyuan Cheng, Kangwei Liu, Guozhou Zheng, Huajun Chen
Arxiv - août 2023 [papier]
Inspection et modification des représentations des connaissances dans les modèles de langues
Evan Hernandez, Belinda Z. Li, Jacob Andreas
arXiv - avr 2023 [papier] [code]
Tirer parti de la récupération de passage avec des modèles génératifs pour la réponse à la question de la question du domaine ouvert
Gautier Izacard, Edouard Grave
ARXIV - février 2023 [papier]
Découvrir les connaissances latentes dans les modèles de langue sans supervision
Collin Burns, Haotian Ye, Dan Klein, Jacob Steinhardt
ICLR 23 - février 2023 [Papier] [Code]
GALACTICA: un modèle grand langage pour la science
Ross Taylor, Marcin Kardas, Guillem Cucurull, Thomas Scialom, Anthony Hartshorn, Elvis Saravia, Andrew Poulton, Viktor Kerkez, Robert Stojnic
Galactica.org - 2022 [papier]
Blenderbot 3: un agent de conversation déployé qui apprend continuellement à s'engager de manière responsable
Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, Morteza Behrooz, William Ngan, Spencer Poff, Naman Goyal, Arthur Szlam, Y-Lan Boureau, Melanie Kambadur, Jason Weston
Arxiv - août 2022 [papier]
Générer plutôt que récupérer: les modèles de grandes langues sont des générateurs de contexte solides
Wenhao Yu, Dan Iter, Shuohang Wang, Yichong Xu, Mingxuan Ju, Soumya Sanyal, Chenguang Zhu, Michael Zeng, Meng Jiang
ICLR 2023 - SEP 2022 [Papier]
Modèles de langage à la récitation
Zhiqing Sun, Xuezhi Wang, Yi Tay, Yiming Yang, Denny Zhou
ICLR 2023 - SEP 2022 [Papier]
Amélioration de l'alignement des agents de dialogue via des jugements humains ciblés
Amelia Glaese, Nat McAleese, Maja Trębacz, John Aslanides, Vlad Firoiu, Timo Ewalds, Maribeth Rauh, Laura Weidingham, Martin Chadwick, Phoebe Thacker, Lucy Campbell-Gillingham, Jonathan Uesato, Po-Sen Huang, Ramona Comanescu Dathathri, Rory Greig, Charlie Chen, Doug Fritz, Jaume Sanchez Elias, Richard Green, Soňa Mokrá, Nicholas Fernando, Boxi Wu, Rachel Foley, Susannah Young, Iason Gabriel, William Isaac, John Mellor, Demis Hassabis Geoffrey Irving
Arxiv - sept. 2022 [papier]
Lamda: modèles de langue pour les applications de dialogue
Romal Thoppilan, Daniel de Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker, Yu Du, Yaguang Li, Hongrae Lee, Huaixiu Steven Zheng, Amin Ghafouri, Marcelo Menegali, Yanping Huang, Amin Ghifouri, Marcelo Menegali, Yanping Hui, Amin Ghufouri, Marcelo Menegali, Yanpin Krikun, Dmitry Lepikhin, James Qin, Dehao Chen, Yuanzhong Xu, Zhifeng Chen, Adam Roberts, Maarten Bosma, Vincent Zhao, Yanqi Zhou, Chung-Ching Chang, Igor Krivokon, Will Rusch, Marc Pickett, Pranesh Srinivasan, Laichee Man, Kathleen Meier-Hellstern, Meredith Ringel Morris, Tulsee Doshi, Renelito Delos Santos, Toju Duke, Johnny Soraker, Ben Zevenbergen, Vinodkumar Prabhakaran, Mark Diaz, Ben Hutchinson, Kristen Olson, Alejandra Molina, Erin Hoffman-John, Joshen Matthew Lamm, Viktoriya Kuzmina, Joe Fenton, Aaron Cohen, Rachel Bernstein, Ray Kurzweil, Blaise Aguera-Arcas, Claire Cui, Marian Croak, Ed Chi, Quoc Le
Arxiv - janvier 2022 [papier]
Modèles de langue comme ou pour les bases de connaissances
Simon Razniewski, Andrew Yates, Nora Kassner, Gerhard Weikum
DL4KG 2021 - octobre 2021 [papier]
Généralisation par la mémorisation: modèles de langue des voisins les plus proches
Urvashi Khandelwal, Omer Levy, Dan Jurafsky, Luke Zettlemoyer, Mike Lewis
ICLR 2020 - Sep 2019 [Papier] [Code]
Chatgpt est-il bon pour la recherche? Enquêter sur de grands modèles de langue en tant qu'agents de reconstitution
Wenhao Yu, Hongming Zhang, Xiaoman Pan, Kaixin MA, Hongwei Wang, Dong Yu
ARXIV - NOV 2023 [Papier]
La distillation de l'instruction fait de grands modèles de langage efficaces
Weiwei Sun, Zheng Chen, Xinyu MA, Lingyong Yan, Shuaiqiang Wang, Pengjie Ren, Zhumin Chen, Dawei Yin, Zhaochun Ren
Arxiv 2023 - nov. 2023 [Papier]
Critique: les modèles de grandes langues peuvent s'auto-corriger avec une critique interactive à l'outil
Zhibin Gou, Zhihong Shao, Yeyun Gong, Yelong Shen, Yujiu Yang, Nan Duan, Weizhu Chen
ICLR 2024 - janvier 2024 [papier]
Un point dans le temps sauve neuf: détecter et atténuer les hallucinations de LLMS en validant la génération à faible confiance
Neeraj Varshney, Wenlin Yao, Hongming Zhang, Jianshu Chen, Dong Yu
Arxiv - août 2023 [papier]
Rarr: Recherche et réviser ce que disent les modèles de langue, en utilisant des modèles de langue
Luyu Gao, Zhuyun Dai, Panupong Pasupat, Anthony Chen, Arun Tejasvi Chaganty, Yicheng Fan, Vincent Zhao, Ni Lao, Hongrae Lee, Da-Cheng Juan, Kelvin Guu
ACL 2023 - juillet 2023 [papier]
Vérification et édition: un cadre de chaîne de pensées amélioré en connaissance
Ruochen Zhao, Xingxuan Li, Shafiq Joty, Chengwei Qin, Lidong Bing
ACL 2023 - juillet 2023 [papier]
Génération augmentée de récupération active
Zhengbao Jiang, Frank F. Xu, Luyu Gao, Zhiqing Sun, Qian Liu, Jane Dwivedi-yu, Yiming Yang, Jamie Callan, Graham Neubig
ARXIV - mai 2023 [Papier] [Code]
Améliorer les modèles de langue via des commentaires de récupération de plug-and-play
Wenhao Yu, Zhihan Zhang, Zhenwen Liang, Meng Jiang, Ashish Sabharwal
ARXIV - mai 2023 [papier]
Étalonnage linguistique des générations longues
Neil Band, Xuechen Li, Tengyu MA, Tatsunori Hashimoto
Arxiv 2024 - juin 2024 [papier]
Croire ou ne pas croire votre LLM
Yasin Abbasi Yadkori, Ilja Kuzborskij, András György, Csaba Szepesvári
Arxiv 2024 - juin 2024 [papier]
Dire: enseigner aux LLMS pour exprimer confiance aux justifications auto-réflexives
Tianyang Xu, Shujin Wu, Shizhe Diao, Xiaoze Liu, Xingyao Wang, Yangyi Chen, Jing Gao
Arxiv 2024 - mai 2024 [papier]
Les experts ne trichent pas: apprendre ce que vous ne savez pas en prédisant les paires
Daniel D. Johnson, Daniel Tarlow, David Duvenaud, Chris J. Maddison
Arxiv 2024 - février 2024 [papier]
Déverrouiller la génération de texte anticipée: une approche contrainte pour le décodage fidèle avec des modèles de langue importants
Anonyme
ICLR 24 - octobre 2023 [papier]
Dola: le décodage par des couches contrastées améliore la factualité dans les modèles de grande langue
Yung-sung Chuang, Yujia Xie, Hongyin Luo, Yoon Kim, James Glass, Pengcheng He
ICLR 24 - septembre 2023 [papier]
Une approche centrée sur les données pour générer des résumés de patients fidèles et de haute qualité avec des modèles de langues importants
Stefan Hegselmann, Shannon Zejiang Shen, Florian Gierse, Monica Agrawal, David Sontag, Xiaoyi Jiang
Arxiv 24 - février 2024 [papier]
Rag stochastique: Génération auprès de la récupération de bout en bout grâce à une maximisation de l'utilité attendue
Hamed Zamani, Michael Bendersky
Arxiv 24 - mai 2024 [papier]
IA constitutionnelle: insigne de la rétroaction de l'IAI
Yuntao Bai, Saurav Kadavath, Sandipan Kundu, Amanda Askell, Jackson Kernion, Andy Jones, Anna Chen, Anna Goldie, Azalia Mirhoseini, Cameron McKinnon, Caroli Chen, Catherine Olsson, chrétien Olah, Danny Herndez, Dawn Drain, Deep Ganguli, Dustophe Perez, Jamie Kerr, Jared Mueller, Jeffrey Ladish, Joshua Landau, Kamal Ndousse, Kamile Lukosiute, Liane Lovitt, Michael Sellitto, Nelson Elhage, Nicholas Sciefer, Noem Mercado, Nova Dassarma, Robert Laseny, Robin Larson, Sam Ringer, Scott Johnston, Shauna Krava, Sheer Elsers, Scott Johnston, Shauna Krava, Sheer Else Showk, Stanislav Fort, Tamera Lanham, Timothy Telleen-Lawton, Tom Conerly, Tom Henighan, Tristan Hume, Samuel R. Bowman, Zac Hatfield-Dodds, Ben Mann, Dario Amodei, Nicholas Joseph, Sam McCandlish, Tom Brown, Jared Kaplan.com - Dec 2022 [Paper]
Apprendre de nouvelles compétences après le déploiement: Amélioration du dialogue orienté sur Internet avec les commentaires humains
Jing Xu, Megan Ung, Mojtaba Komeili, Kushal Arora, Y-Lan Boureau, Jason Weston
Arxiv - août 2022 [papier]
Modélisation du langage multimodal de la récupération
Michihiro Yasunaga, Armen Aghajanyan, Weijia Shi, Rich James, Jure Leskovec, Percy Liang, Mike Lewis, Luke Zettlemoyer, Wen-Tau Yih
Arxiv - nov 2022 [papier]
RAMM: Question visuelle biomédicale de la récupération de la récupération répondant avec une pré-formation multimodale
Zheng Yuan, Qiao Jin, Chuanqi Tan, Zhengyun Zhao, Hongyi Yuan, Fei Huang, Songfang Huang
Arxiv - mars 2023 [papier]
La récupération entrelacée avec un raisonnement en chaîne de pensées pour les questions en plusieurs étapes à forte intensité de connaissance
React: Synergie Raisonnement et Agissant dans les modèles de langues
Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao
ArXIV - octobre 2022 [papier]
Repocodeur: Complétion du code au niveau du référentiel grâce à la récupération itérative et à la génération
Fengji Zhang, Bei Chen, Yue Zhang, Jin Liu, Daoguang Zan, Yi Mao, Jian-Guang Lou, Weizhu Chen
Arxiv - mars 2023 [papier]
Doc-compting: générer du code en récupérant les documents
Shuyan Zhou, Uri Alon, Frank F. Xu, Zhiruo Wang, Zhengbao Jiang, Graham Neubig
ICLR 23 - juil 2022 [Papier] [Code] [Données]
Générer, filtrer et fusible: Extension de requête via la génération de mots clés en plusieurs étapes pour les rangs neuronaux zéro-tir
Minghan Li, Honglei Zhuang, Kai Hui, Zhen Qin, Jimmy Lin, Rolf Jagerman, Xuanhui Wang, Michael Bendersky
ARXIV - NOV 2023 [Papier]
Agent4Ranking: Classement robuste sémantique via une réécriture de requête personnalisée à l'aide de LLM multi-agents
Xiaopeng Li, Lixin SU, Pengyue Jia, Xiangyu Zhao, Suqi Cheng, Junfeng Wang, Dawei Yin
ARXIV - Dec 2023 [Papier]
Récupération unifiée générative et dense pour la réécriture de la requête dans la recherche parrainée
Akash Kumar Mohankumar, Bhargav Dodla, Gururaj K, Amit Singh
Arxiv - sept. 2022 [papier]
Générer un sport cohérent en cas met en évidence les narrations
Noah Sarfati, Ido Yerushalmy, Michael Chertok, Yosi Keller
MMSPORTS 2023 - 23 octobre [Papier]
Récupération des informations générationnelles génétiques
Hrishikesh Kulkarni, Zachary Young, Nazli Goharian, Ophir Frieder, Sean Macavaney
Domeng 23 - 23 août [document]
Apprendre à résumer avec les commentaires humains
Nisan Stiennon, Long Oulang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, Paul Christiano
NeurIPS 2020 – Sep 2020 [paper]
On Faithfulness and Factuality in Abstractive Summarization
Joshua Maynez, Shashi Narayan, Bernd Bohnet, Ryan McDonald
ACL 2020 – May 2020 [paper]
Augment before You Try: Knowledge-Enhanced Table Question Answering via Table Expansion
Yujian Liu, Jiabao Ji, Tong Yu, Ryan Rossi, Sungchul Kim, Handong Zhao, Ritwik Sinha, Yang Zhang, Shiyu Chang
arXiv – Jan 2024 [paper]
We jump-started this section by reusing the content of awesome-generative-retrieval-models and give full credit to Chriskuei for that! We now have added some content on top.
De-DSI: Decentralised Differentiable Search Index
Petru Neague, Marcel Gregoriadis, Johan Pouwelse
EuroMLSys 24 – Apr 2024 [paper]
Listwise Generative Retrieval Models via a Sequential Learning Process
Yubao Tang, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Wei Chen, Xueqi Cheng
TOIS 2024 – Mar 2024 [Paper]
Distillation Enhanced Generative Retrieval
Yongqi Li, Zhen Zhang, Wenjie Wang, Liqiang Nie, Wenjie Li, Tat-Seng Chua
arXiv 2024 – Feb 2024 [Paper]
Self-Retrieval: Building an Information Retrieval System with One Large Language Model
Qiaoyu Tang, Jiawei Chen, Bowen Yu, Yaojie Lu, Cheng Fu, Haiyang Yu, Hongyu Lin, Fei Huang, Ben He, Xianpei Han, Le Sun, Yongbin Li
arXiv 2024 – Feb 2024 [Paper]
Generative Dense Retrieval: Memory Can Be a Burden
Peiwen Yuan, Xinglin Wang, Shaoxiong Feng, Boyuan Pan, Yiwei Li, Heda Wang, Xupeng Miao, Kan Li
EACL 2024 - Jan 2024 [paper] [code]
Auto Search Indexer for End-to-End Document Retrieval
Tianchi Yang, Minghui Song, Zihan Zhang, Haizhen Huang, Weiwei Deng, Feng Sun, Qi Zhang
EMNLP 2023 - December 23 [paper]
DiffusionRet: Diffusion-Enhanced Generative Retriever using Constrained Decoding
Shanbao Qiao, Xuebing Liu, Seung-Hoon Na
EMNLP Findings 2023 – Dec 2023 [paper]
Scalable and Effective Generative Information Retrieval
Hansi Zeng, Chen Luo, Bowen Jin, Sheikh Muhammad Sarwar, Tianxin Wei, Hamed Zamani
WWW 2024 - Nov 2023 [paper] [code]
Nonparametric Decoding for Generative Retrieval
Hyunji Lee, JaeYoung Kim, Hoyeon Chang, Hanseok Oh, Sohee Yang, Vladimir Karpukhin, Yi Lu, Minjoon Seo
ACL Findings 2023 – Jul 2023 [paper]
Model-enhanced Vector Index
Hailin Zhang, Yujing Wang, Qi Chen, Ruiheng Chang, Ting Zhang, Ziming Miao, Yingyan Hou, Yang Ding, Xupeng Miao, Haonan Wang, Bochen Pang, Yuefeng Zhan, Hao Sun, Weiwei Deng, Qi Zhang, Fan Yang, Xing Xie, Mao Yang, Bin Cui
NeurIPS 2023 – May 2023 [paper] [code]
Continual Learning for Generative Retrieval over Dynamic Corpora
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Wei Chen, Yixing Fan, Xueqi Cheng
CIKM 2023 - Aug 2023 [paper]
Learning to Rank in Generative Retrieval
Yongqi Li, Nan Yang, Liang Wang, Furu Wei, Wenjie Li
arXiv – Jun 2023 [paper]
Large Language Models are Built-in Autoregressive Search Engines
Noah Ziems, Wenhao Yu, Zhihan Zhang, Meng Jiang
ACL Findings 2023 – May 2023 [paper]
Multiview Identifiers Enhanced Generative Retrieval
Yongqi Li, Nan Yang, Liang Wang, Furu Wei, Wenjie Li
ACL 2023 – May 2023 [paper]
How Does Generative Retrieval Scale to Millions of Passages?
Ronak Pradeep, Kai Hui, Jai Gupta, Adam D. Lelkes, Honglei Zhuang, Jimmy Lin, Donald Metzler, Vinh Q. Tran
arXiv – May 2023 [paper]
TOME: A Two-stage Approach for Model-based Retrieval
Ruiyang Ren, Wayne Xin Zhao, Jing Liu, Hua Wu, Ji-Rong Wen, Haifeng Wang
ACL 2023 - May 2023 [paper]
Understanding Differential Search Index for Text Retrieval
Xiaoyang Chen, Yanjiang Liu, Ben He, Le Sun, Yingfei Sun
ACL Findings 2023 - May 2023 [paper]
Learning to Tokenize for Generative Retrieval
Weiwei Sun, Lingyong Yan, Zheng Chen, Shuaiqiang Wang, Haichao Zhu, Pengjie Ren, Zhumin Chen, Dawei Yin, Maarten de Rijke, Zhaochun Ren
arXiv – Apr 2023 [paper]
DynamicRetriever: A Pre-trained Model-based IR System Without an Explicit Index
Yu-Jia Zhou, Jing Yao, Zhi-Cheng Dou, Ledell Wu, Ji-Rong Wen
Machine Intelligence Research – Jan 2023 [paper]
DSI++: Updating Transformer Memory with New Documents
Sanket Vaibhav Mehta, Jai Gupta, Yi Tay, Mostafa Dehghani, Vinh Q. Tran, Jinfeng Rao, Marc Najork, Emma Strubell, Donald Metzler
arXiv – Dec 2022 [paper]
CodeDSI: Differentiable Code Search
Usama Nadeem, Noah Ziems, Shaoen Wu
arXiv – Oct 2022 [paper]
Contextualized Generative Retrieval
Hyunji Lee, Jaeyoung Kim, Hoyeon Chang, Hanseok Oh, Sohee Yang, Vlad Karpukhin, Yi Lu, Minjoon Seo
arXiv – Oct 2022 [paper]
Transformer Memory as a Differentiable Search Index
Yi Tay, Vinh Q. Tran, Mostafa Dehghani, Jianmo Ni, Dara Bahri, Harsh Mehta, Zhen Qin, Kai Hui, Zhe Zhao, Jai Gupta, Tal Schuster, William W. Cohen, Donald Metzler
Neurips 2022 – Oct 2022 [paper] [Video] [third-party code]
A Neural Corpus Indexer for Document Retrieval
Wang et al.
Arxiv 2022 [paper]
Bridging the Gap Between Indexing and Retrieval for Differentiable Search Index with Query Generation
Shengyao Zhuang, Houxing Ren, Linjun Shou, Jian Pei, Ming Gong, Guido Zuccon, and Daxin Jiang
Arxiv 2022 [paper] [Code]
DynamicRetriever: A Pre-training Model-based IR System with Neither Sparse nor Dense Index
Zhou et al
Arxiv 2022 [paper]
Ultron: An Ultimate Retriever on Corpus with a Model-based Indexer
Zhou et al
Arxiv 2022 [paper]
Planning Ahead in Generative Retrieval: Guiding Autoregressive Generation through Simultaneous Decoding
Hansi Zeng ,Chen Luo ,Hamed Zamani
arXiv – Apr 2024 [paper] [Code]
NOVO: Learnable and Interpretable Document Identifiers for Model-Based IR
Zihan Wang, Yujia Zhou, Yiteng Tu, Zhicheng Dou
CIKM 2023 - October 2023 [paper]
Generative Retrieval as Multi-Vector Dense Retrieval
Shiguang Wu, Wenda Wei, Mengqi Zhang, Zhumin Chen, Jun Ma, Zhaochun Ren, Maarten de Rijke, Pengjie Ren
SIGIR 2024 - March 24 [paper] [Code]
Re3val: Reinforced and Reranked Generative Retrieval
EuiYul Song, Sangryul Kim, Haeju Lee, Joonkee Kim, James Thorne
EACL Findings 2023 – Jan 24 [paper]
GLEN: Generative Retrieval via Lexical Index Learning
Sunkyung Lee, Minjin Choi, Jongwuk Lee
EMNLP 2023 - December 23 [paper] [Code]
Enhancing Generative Retrieval with Reinforcement Learning from Relevance Feedback
Yujia Zhou, Zhicheng Dou, Ji-Rong Wen
EMNLP 2023 - December 23 [paper]
Generative Retrieval with Large Language Models
Anonyme
ICLR 24 – October 23 [paper]
Semantic-Enhanced Differentiable Search Index Inspired by Learning Strategies
Yubao Tang, Ruqing Zhang, Jiafeng Guo, Jiangui Chen, Zuowei Zhu, Shuaiqiang Wang, Dawei Yin, Xueqi Cheng
KDD 2023 – May 2023 [paper]
Term-Sets Can Be Strong Document Identifiers For Auto-Regressive Search Engines
Peitian Zhang, Zheng Liu, Yujia Zhou, Zhicheng Dou, Zhao Cao
arXiv – May 2023 [paper] [Code]
A Unified Generative Retriever for Knowledge-Intensive Language Tasks via Prompt Learning
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Yiqun Liu, Yixing Fan, Xueqi Cheng
SIGIR 2023 – Apr 2023 [paper] [Code]
CorpusBrain: Pre-train a Generative Retrieval Model for Knowledge-Intensive Language Tasks
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Yiqun Liu, Yixing Fan, Xueqi Cheng
CIKM 2022 – Aug 2022 [paper] [Code]
Autoregressive Search Engines: Generating Substrings as Document Identifiers
Michele Bevilacqua, Giuseppe Ottaviano, Patrick Lewis, Wen-tau Yih, Sebastian Riedel, Fabio Petroni
arXiv – Apr 2022 [paper] [Code]
Autoregressive Entity Retrieval
Nicola De Cao, Gautier Izacard, Sebastian Riedel, Fabio Petroni
ICLR 2021 – Oct 2020 [paper] [Code]
Data-Efficient Autoregressive Document Retrieval for Fact Verification
James Thorne
SustaiNLP@EMNLP 2022 – Nov 2022 [paper]
GERE: Generative Evidence Retrieval for Fact Verification
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Yixing Fan, Xueqi Cheng
SIGIR 2022 [paper] [Code]
Generative Multi-hop Retrieval
Hyunji Lee, Sohee Yang, Hanseok Oh, Minjoon Seo
arXiv – Apr 2022 [paper]
Improving LLMs for Recommendation with Out-Of-Vocabulary Tokens
Ting-Ji Huang, Jia-Qi Yang, Chunxu Shen, Kai-Qi Liu, De-Chuan Zhan, Han-Jia Ye
arXiv – Jun 2024 [paper]
Plug-in Diffusion Model for Sequential Recommendation
Haokai Ma, Ruobing Xie, Lei Meng, Xin Chen, Xu Zhang, Leyu Lin, Zhanhui Kang
arXiv – Jan 2024 [paper]
Towards Graph-Aware Diffusion Modeling For Collaborative Filtering Yunqin Zhu1, Chao Wang, Hui Xiong
arXiv – Nov 2023 [paper]
RecMind: Large Language Model Powered Agent For Recommendation
Yancheng Wang, Ziyan Jiang, Zheng Chen, Fan Yang, Yingxue Zhou, Eunah Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Yingzhen Yang
arXiv – Aug 2023 [paper]
Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large Language Model Recommendation
Jizhi Zhang, Keqin Bao, Yang Zhang, Wenjie Wang, Fuli Feng, Xiangnan He
Recsys 2023 – Jul 2023 [paper]
RecFusion: A Binomial Diffusion Process for 1D Data for Recommendation
Gabriel Bénédict, Olivier Jeunen, Samuele Papa, Samarth Bhargav, Daan Odijk, Maarten de Rijke
arXiv – Jun 2023 [paper]
A First Look at LLM-Powered Generative News Recommendation
Qijiong Liu, Nuo Chen, Tetsuya Sakai, Xiao-Ming Wu
arXiv – Jun 2023 [paper]
Large Language Models as Zero-Shot Conversational Recommenders
Yupeng Hou, Junjie Zhang, Zihan Lin, Hongyu Lu, Ruobing Xie, Julian McAuley, Wayne Xin Zhao
arXiv – May 2023 [paper]
DiffuRec: A Diffusion Model for Sequential Recommendation
Zihao Li, Aixin Sun, Chenliang Li
arXiv – Apr 2023 [paper]
Diffusion Recommender Model
Wenjie Wang, Yiyan Xu, Fuli Feng, Xinyu Lin, Xiangnan He, Tat-Seng Chua
SIGIR 2023 – Apr 2023 [paper]
Blurring-Sharpening Process Models for Collaborative Filtering
Jeongwhan Choi, Seoyoung Hong, Noseong Park, Sung-Bae Cho
SIGIR 2023 – Apr 2023 [paper] [code]
Recommender Systems with Generative Retrieval
Shashank Rajput, Nikhil Mehta, Anima Singh, Raghunandan Keshavan, Trung Vu, Lukasz Heldt, Lichan Hong, Yi Tay, Vinh Q. Tran, Jonah Samost, Maciej Kula, Ed H. Chi, Maheswaran Sathiamoorthy
non-archival – Mar 2023 [paper]
Pre-train, Prompt and Recommendation: A Comprehensive Survey of Language Modelling Paradigm Adaptations in Recommender Systems
Peng Liu, Lemei Zhang, Jon Atle Gulla
arXiv – Feb 2023 [paper]
Generative Slate Recommendation with Reinforcement Learning
Romain Deffayet, Thibaut Thonet, Jean-Michel Renders, and Maarten de Rijke
WSDM 2023 – Feb 2023 [paper]
Recommendation via Collaborative Diffusion Generative Model
Joojo Walker, Ting Zhong, Fengli Zhang, Qiang Gao, Fan Zhou
KSEM 2022 – Aug 2022 [paper]
DocGraphLM: Documental Graph Language Model for Information Extraction
Dongsheng Wang, Zhiqiang Ma, Armineh Nourbakhsh, Kang Gu, Sameena Shah
arXiv – Jan 2024 [paper]
KBFormer: A Diffusion Model for Structured Entity Completion
Ouail Kitouni, Niklas Nolte, James Hensman, Bhaskar Mitra
arXiv – Dec 2023 [paper]
From Retrieval to Generation: Efficient and Effective Entity Set Expansion
Shulin Huang, Shirong Ma, Yangning Li, Yinghui Li, Hai-Tao Zheng, Yong Jiang
arXiv – Apr 2023 [paper]
Crawling the Internal Knowledge-Base of Language Models
Roi Cohen, Mor Geva, Jonathan Berant, Amir Globerson
arXiv – Jan 2023 [paper]
Prompt Tuning or Fine-Tuning - Investigating Relational Knowledge in Pre-Trained Language Models
Leandra Fichtel, Jan-Christoph Kalo, Wolf-Tilo Balke
AKBC 2021 – [paper]
Language Models as Knowledge Bases?
Fabio Petroni, Tim Rocktäschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel
EMNLP 2019 – Sep 2019 [paper]
Although some of these are not accompanied by a paper, they might be useful to other Generative IR researchers for empirical studies or interface design considerations.
⚡ Gemini Dec 2023 [live] ⚡️ factiverse Jun 2023 [live] ⚡️ devmarizer Mar 2023 [live] ⚡️ TaxGenius Mar 2023 [live] ⚡️ doc-gpt Mar 2023 [live] ⚡️ book-gpt Feb 2023 [live] ⚡️ Neeva Feb 2023 [live] ⚡️ Golden Retriever Feb 2023 [live] ⚡️ Bing – Prometheus Feb 2023 [waitlist] ⚡️ Google – Bard Feb 2023 [only in certain countries] ⚡️ Paper QA Feb 2023 [code] [demo] ⚡️ DocsGPT Feb 2023 [live] [code] ⚡️ DocAsker Jan 2023 [live] ⚡️ Lexii.ai Jan 2023 [live] ⚡️ YOU.com Dec 2022 [live] ⚡️ arXivGPT Dec 2022 [Chrome extension] ⚡️ GPT Index Nov 2022 [API] ⚡️ BlenderBot Aug 2022 [live (USA)] [model weights] [code] [paper1] [paper2] ⚡️ PHIND date? [live] ⚡️ Perplexity date? [live] ⚡️ Galactica date? [demo] [API] [paper] ⚡️ Elicit date? [live] ⚡️ ZetaAlpha date? [live] uses OpenAI API
To get just the paper titles do grep '**' README.md | sed 's/**//g'