Fundamentmodelle für Empfehlungssystempapierliste
Willkommen, um ein Problem zu eröffnen oder eine Pull -Anfrage zu stellen!
Schlüsselwort: System, Vorbereitungsmodell, großes Sprachmodell, multimodales Empfehlungssystem, übertragbares Empfehlungssystem, Foundation-Empfehlungsmodelle, universelle Benutzerdarstellung, Ein-Modell-Fit-All, ID-Funktionen, ID-Einbettungsdings
Diese Papiere versuchen, die folgenden Fragen zu beantworten:
(1) Können Empfehlungssysteme ihre eigenen Grundmodelle haben, die denen in NLP und Lebenslauf ähnlich sind?
(2) Können wir es für Empfehlungsmodelle für Empfehlungsmodelle einbetten?
(3) Wird sich die Empfehlungssysteme von einem passenden Paradigma zu einem erzeugenden Paradigma verschieben?
(4) Wie kann LLM verwendet werden, um Empfehlungssysteme zu verbessern?
(5) Was hält die Zukunft für multimodale Empfehlungssysteme?
Papierliste
Perspektivpapier: ID vs. LLM & ID vs. Multimodal
- Wohin gehen Sie als Nächstes für Empfehlungssysteme? Id-vs. Modalitätsbasierte Empfehlungsmodelle Revisited, Sigir2023, 2022/09, [Papier] [Code]
- Erforschung der oberen Grenzen der textbasierten kollaborativen Filterung mit großer Sprachmodellen: Entdeckungen und Erkenntnissen, Arxiv 2023/05, [Papier]
- Erforschung von Adapterbasierten Transferlernen für Empfehlungssysteme: Empirische Studien und praktische Erkenntnisse, WSDM2024, [Papier] [Code]
- Der Elefant im Raum: Überdenken der Verwendung von vorgebildetem Sprachmodell in sequentieller Empfehlung, ARXIV2024/04, [Papier]
Datensätze für übertragbare oder multimodale Rs
- Nerec: Eine Benchmark -Datensatz -Suite zur Bewertung übertragbarer Empfehlungen, TPAMI2024, [Papier] [Link] | Bilder, Text, neun nachgeschaltete Datensätze
- TENREC: Ein großflächiger Mehrzweck-Benchmark-Datensatz für Empfehlungssysteme, Neurips 2022 [Papier]
- Pixelrec: Ein Bilddatensatz für Benchmarking -Empfehlungssysteme mit Rohpixel, SDM 2023/09 [Papier] | [Link] | Bilder, Text, Tags, 200 Millionen Interaktionen
- Mikrolens: Ein inhaltsgetriebenes Micro-Video-Empfehlungsdatensatz im Maßstab [Papier] [Link] [DeepMind Talk] | Bilder, Text, Video, Audio, Kommentare, Tags usw.
- Mind: Ein groß angelegter Datensatz für die Nachrichtenempfehlung, ACL2020, [Papier] | Text
- Parameter-effiziente Übertragung von sequentiellen Verhaltensweisen für die Modellierung und Empfehlung von Benutzer, Sigir 2020 [Link]
- Morec: [Link] Netflix: [Link] Amazon: [Link]
- Erforschung multi-modaler CTR-Vorhersage mit Multi-Szenarien mit einem großen Datensatz, Sigir 2024/07 [Papier] | [Link] | Bilder, Text, Multi-Domäne, wahre negative, 100 Millionen CTR-Daten
Umfrage
- Eine Umfrage zu großsprachigen Empfehlungsmodellen, ARXIV 2023/05, [Papier]
- Wie können Empfehlungssysteme von großsprachigen Modellen profitieren: eine Umfrage, ARXIV 2023/06, [Papier]
- Empfehlungssysteme im Zeitalter großer Sprachmodelle, Arxiv, 2023/07, [Papier]
- Eine Umfrage zur Bewertung von Großsprachenmodellen, Arxiv, 2023/07, [Papier]
- Selbstübersichtes Lernen für Empfehlungssysteme: Eine Umfrage, Arxiv, 2023/06, [Papier]
- Pre-Train, Eingabeaufforderung und Empfehlung: Eine umfassende Übersicht über die Paradigmenanpassungen der Sprachmodellierung in Empfehlungssystemen, 2022/09, [Papier]
- Benutzermodellierung im Zeitalter großer Sprachmodelle: Aktuelle Forschung und zukünftige Richtungen, 2023/12, [Papier]
- Benutzermodellierung und Benutzerprofilierung: Eine umfassende Umfrage, 2024/02, [Papier]
- Foundation -Modelle für Empfehlungssysteme: Eine Umfrage und neue Perspektiven, 2024/02, [Papier]
- Multimodales Vorbau, Anpassung und Generation für Empfehlung: Eine Umfrage, 2024/05, [Papier]
- Alle Straßen führen zu Rom: Enthüllung der Flugbahn von Empfehlungssystemen in der LLM -Ära, 2024/07, [Papier]
Empfehlungsmodelle mit großer Sprache (LLM4REC)
Skalierung llm
- Aufstrebende Fähigkeiten großer Sprachmodelle, TMLR 2022/08, [Papier]
- Erforschung der oberen Grenzen der textbasierten kollaborativen Filterung mit großer Sprachmodellen: Entdeckungen und Erkenntnissen, Arxiv 2023/05, [Papier]
- Verstehen LLMs Benutzerpräferenzen? Bewertung von LLMs bei der Benutzerbewertungsvorhersage, ARXIV 2023/05, [Papier]
- Skalierungsgesetz für Empfehlungsmodelle: In Richtung allgemeiner Benutzerdarstellungen, AAAI 2023, [Papier]
Untra breit & tief & long LLM
- StackRec: Effizientes Training von sehr tiefen sequentiellen Empfehlungsmodellen durch iteratives Stapeln, Sigir 2021, [Papier]
- Ein benutzerfeindliches Framework für Layer-Auswahl für sehr tiefe sequentielle Empfehlungsmodelle, AAAI 2021, [Papier]
- Ein generisches Netzwerkkomprimierungsframework für sequentielle Empfehlungssysteme, Sigir 2020, [Papier]
- Skalierungsrecht großer sequentieller Empfehlungsmodelle, Arxiv 2023/11, [Papier]
- Aktionen sprechen lauter als Worte: Billionen Parameter Sequentielle Wandler für generative Empfehlungen, Arxiv 2024/03, [Papier]
- Brechen der Längenbarriere: LLM-verstärkte CTR-Vorhersage bei langen Textbenutzerverhalten, Sigir 2024, [Papier]
LLM stimmen
- CALREC: Kontrastive Ausrichtung von generativen LLMs für sequentielle Empfehlungen, Recsys 2024, [Papier]
- M6-REC: Generative Pretrainierte Sprachmodelle sind offene Empfehlungssysteme, ARXIV 2022/05, [Papier]
- TALLREC: Ein effektives und effizientes Tuning -Rahmen, um Großsprachenmodell mit Empfehlung, ARXIV 2023/04, [Papier], in Einklang zu bringen, [Papier]
- GPT4REC: Ein generatives Rahmen für personalisierte Empfehlungen und Interessen der Benutzerinteressen, 2023/04, [Papier]
- Ein BI-Staffel-Erdungsparadigma für Großsprachenmodelle in Empfehlungssystemen, Arxiv, 2023/08, [Papier]
- Llamarec: Zweistufige Empfehlung mit großer Sprachmodellen für Ranking, PGAI@CIKM 2023, [Papier] [Code]
- Verbesserung der sequentiellen Empfehlungen mit LLMs, ARXIV 2024/02, [Papier]
GefrierlM LLM [Link]
- Ctr-Bert: Kosteneffektive Wissensdestillation für Lehrermodelle von Milliardenparameter , ARXIV 2022/04, [Papier]
- In Richtung einheitlicher Konversationsempfehlungssysteme über das wissensbasierte schnelle Lernen, Arxiv 2022/06, [Papier]
- Generative Empfehlung: Auf dem Weg zur nächsten Generation empfohlenes Paradigma, Arxiv 2023/04, [Papier]
- Erforschung der oberen Grenzen der textbasierten kollaborativen Filterung mit großer Sprachmodellen: Entdeckungen und Erkenntnissen, Arxiv 2023/05, [Papier]
- Ein erster Blick auf die Empfehlung für generative Nachrichten von LLM, ARXIV 2023/05, [Papier]
- Privatsphäre-Präsenting-Empfehlungssysteme mit synthetischer Abfragerzeugung mit unterschiedlich privaten Großsprachenmodellen, ARXIV 2023/05, [Papier]
- Recagent: Ein neuartiges Simulationsparadigma für Empfehlungssysteme, ARXIV 2023/06, [Papier]
- Null-Shot-Empfehlung der nächsten Elemente mit großen vorbereiteten Sprachmodellen, ARXIV 2023/04, [Papier]
- Kann Chatgpt eine faire Empfehlung abgeben? Ein Fairness -Bewertungs -Benchmark für Empfehlungen mit großer Sprachmodell, Recsys 2023
- Nutzung von großsprachigen Modellen für sequentielle Empfehlungen, Recsys 2023/09, [Papier]
- LLMREC: Großsprachige Modelle mit Diagrammvergrößerung für Empfehlungen, WSDM 2024 Oral, [Papier] [Code]
- Sind ID -Einbettungen notwendig? Whitening Pre-ausgebildete Texteinbettung für eine effektive sequentielle Empfehlung, ARXIV 2024/02, [Papier]
Eingabeaufforderung mit LLM
- Großsprachige Modelle sind Null-Shot-Ranger für Empfehlungssysteme, ARXIV 2023/05, [Papier]
- Empfehlung als Sprachverarbeitung (RLP): Ein einheitliches Vorabend, personalisierte Eingabeaufforderung und Vorhersage von Paradigma (P5), Arxiv 2022/03, [Papier]
- Sprachmodelle als Empfehlungssysteme: Bewertungen und Einschränkungen, Neurips Workshop ICBINB 2021/10, [Papier]
- Sofortiges Lernen für Nachrichtenempfehlung, Sigir 2023/04, [Papier]
- LLM-REC: Personalisierte Empfehlung über Großsprachmodelle, Arxiv, 2023/07 [Papier]
CHATGPT [Link]
- Ist Chatgpt eine gute Empfehlung Eine vorläufige Studie, Arxiv 2023/04, [Papier]
- Ist Chatgpt gut bei der Suche? Untersuchung von großsprachigen Modellen als Wiederholungsagent, Arxiv 2023/04, [Papier]
- CHAT-REC: Auf dem Weg zu interaktivem und erklärbarem LLMS-Augmented Repectioned System, ARXIV 2023/04, [Papier]
- Empfehlung als Anweisungen folgt: Ein großsprachiges Modell ermächtigte Empfehlungsansatz, Arxiv 2023/05, [Papier]
- Nutzung von großsprachigen Modellen in Gesprächsempfehlungssystemen, ARXIV 2023/05, [Papier]
- Aufdeckung von Chatgpts Funktionen in Empfehlungssystemen, ARXIV 2023/05, [Papier] [Code]
- Funken von künstlichem General Repection (AGR): Frühe Experimente mit Chatgpt, Arxiv 2023/05, [Papier]
- Ist ChatGPT fair für Empfehlungen? Bewertung der Fairness in der Empfehlung des großsprachigen Modells, ARXIV 2023/05, [Papier] [Code]
- Funken von künstlichem General Repection (AGR): Frühe Experimente mit Chatgpt, Arxiv 2023/05, [Papier]
- BALR: Personalisierungsbewusste LLMs für Empfehlung, Arxiv 2023/05, [Papier]
- Privatsphäre-Präsenting-Empfehlungssysteme mit synthetischer Abfragerzeugung mit unterschiedlich privaten Großsprachenmodellen, ARXIV 2023/05, [Papier]
- Überdenken der Bewertung für die Konversationsempfehlung im Zeitalter großer Sprachmodelle, Arxiv 2023/05, [Papier]
- STRG: TABULUS- und Sprachmodell für die CTR -Vorhersage verbinden, ARXIV 2023/06, [Papier].
Multimodales Empfehlungssystem
- VBPR: Visual Bayesian Personalisierte Ranking aus implizitem Feedback, AAAI2016, [Papier]
- Gegenteiles Training für robustes Multimedia -Empfehlungssystem, TKDE2019, [Papier]
- Multimodale Wissensdiagramme für Empfehlungssysteme, CIKM 2020, [Papier]
- Online-Destillation-verstärkter multimodaler Transformator für sequentielle Empfehlungen, ACMMM 2023, [Papier]
- Selbsterbetriebene multimodale sequentielle Empfehlung, ARXIV2023/02, [Papier]
- FMMREC: Fairness-bewusstes multimodaler Empfehlung, ARXIV2023/10, [Papier]
- Selbsterbetrages multimodaler sequentieller Empfehlung, ARXIV 2024/02, [Papier]
- ID Einbettung als subtile Merkmale von Inhalt und Struktur für die multimodale Empfehlung, ARXIV2023/10, [Papier]
- Verbesserung der ID und der Textfusion durch alternatives Training in Sitzungen in der Sitzungsbasis, ARXIV2023/2, [Papier]
- BIVREC: Bidirektionale Ansichtsbasis multimodal sequentielle Empfehlung , ARXIV2023/2, [Papier]
- Ein großes Sprachmodell verbesserte sequentielle Empfehlungen für gemeinsame Video- und Kommentarempfehlungen, ARXIV2024/2, [Papier]
- Eine empirische Studie zur Trainings-ID-agnostischen multimodalen sequentiellen Empfehlungen, ARXIV2024/3, [Papier]
- Diskrete semantische Tokenisierung für die tiefe CTR -Vorhersage, ARXIV2024/3, [Papier]
- End-to-End-Training des multimodalen Modell- und Ranking-Modells, ARXIV2023/3, [Papier]
Fundament- und übertragbare Empfehlungsmodelle
- TransRec: Lernen übertragbare Empfehlungen aus der Mischung von Modalität Feedback, Arxiv 2022/06, [Papier]
- In Richtung Universal Sequence Repräsentation Lernen für Empfehlungssysteme, KDD2022,2022/06, [Papier]
- Lernvektor-quantisierte Elementdarstellung für übertragbare sequentielle Empfehlungen, www 2023, [Papier] [Code]
- UP5: Unvoreingenommenes Fundamentmodell für fairnessbewusste Empfehlung, ARXIV 2023/05, [Papier]
- Erforschung von Adapterbasis-Transferlernen für Empfehlungssysteme: Empirische Studien und praktische Erkenntnisse, Arxiv 2023/05, [Papier] [Code]
- OpenP5: Benchmarking Foundation -Modelle für Empfehlungen, ARXIV 2023/06, [Papier]
- Gründlich modellieren Multi-Domänen-Empfehlung als Sprache, ARXIV 2023/10, [Papier]
- MISSREC: Pre-Training und Transfer multimodal-zinsbewusster Sequenzdarstellung zur Empfehlung, ARXIV 2023/10, [Papier]
- Kollaborative wortbasierte vorgebrachte Elementdarstellung für übertragbare Empfehlungen, ARXIV 2023/11, [Papier]
- Universelle multi-modale Multi-Domänen-Empfehlung, ARXIV 2023/11, [Papier]
- Multi-Modalität ist alles, was Sie für übertragbare Empfehlungssysteme benötigen, ARXIV 2023, [Papier]
- TransFR: Empfehlung übertragbare Verbände mit vorgebildeten Sprachmodellen, ARXIV 2024/02, [Papier]
- Überdenken der sequentiellen Empfehlung von Cross-Domain unter Open-World-Annahmen, Arxiv 2024/02, [Papier]
- Großsprachige Modelle treffen die kollaborative Filterung: Ein effizientes Allround-LLM-basierter Empfehlungssystem, ARXIV 2024/04, [Papier]
- Sprachmodelle codieren kollaborative Signale in Empfehlung, Arxiv 2024/07, [Papier]
Universal Allgemeines, One4all-Benutzer-Repräsentation Lernen
- Parameter-effiziente Übertragung von sequentiellen Verhaltensweisen für die Modellierung und Empfehlung von Benutzer, Sigir 2020, [Papier], [Code]
- One4ALL-Benutzerdarstellung für Empfehlungssysteme in E-Commerce, ARXIV 2021, [Papier]
- Lernen übertragbarer Benutzerdarstellungen mit sequentiellem Verhalten über kontrastive Vorausbildung, ICDM 2021, [Papier]
- Benutzerspezifische adaptive Feinabstimmung für Cross-Domänen-Empfehlungen, TKDE 2021, [Papier]
- Skalierungsgesetz für Empfehlungsmodelle: In Richtung allgemeiner Benutzerdarstellungen, AAAI 2023, [Papier]
- U-Bert: Benutzerpräsentationen für eine verbesserte Empfehlung, AAAI 2021, [Papier]
- Eins für alle, alle für eins: Lernen und Übertragung von Benutzereinbettungen für die Cross-Domain-Empfehlung, WSDM 2022, [Papier]
- Field-Away Variational AutoCoders für milliarden Maßstäbe für Benutzerdarstellung, ICDE2022, [Papier]
- Lernen groß angelegte universelle Benutzerdarstellung mit spärlicher Mischung aus Experten, ICML2022WORKSHOP, [Papier]
- Multi -DataSource -LTV -Benutzerdarstellung (MDLUR), KDD2023, [Papier]
- Zentrale Rolle der Sprachmodellierung in Empfehlungssystemen: Anreicherung von aufgabenspezifischen und aufgabenagnostischen Repräsentationslernen. ARXIV2022/12, [Papier]
- Benutzermodellierung und Benutzerprofilierung: Eine umfassende Umfrage, 2024/02, [Papier]
- Verallgemeinerte Benutzerdarstellungen für Transferlernen, ARXIV 2024/03, [Papier]
- Überbrückungssprache und Elemente zum Abrufen und Empfehlungen , Arxiv 2024/04, [Papier]
Lebenslange Lernen von universeller Benutzerrepräsentation
- Eine Person, ein Modell, eine Welt: Lernen Sie kontinuierliche Benutzerdarstellung ohne Vergessen, Sigir 2021, [Papier], [Code]
- TENREC: Ein großflächiger Mehrzweck-Benchmark-Datensatz für Empfehlungssysteme, Neurips 2022 [Papier]
- STAN: Bühnenadaptive Netzwerk für Multitasking-Empfehlung durch Lernen von Leidenschaftszyklus-basierten Repräsentationg, Recsys 2023, [Papier]
- Task-Relation-Awesare Continual User Repräsentation Learning, KDD2023, [Papier]
- Rella: Retrieval-verbesserte Großsprachenmodelle für das lebenslange sequentielle Verhalten in Empfehlung, ARXIV2023/08, [Papier]
Generative Empfehlungssysteme [Link]
- Ein einfaches Faltungsnetzwerk für die nächste Elementempfehlung, WSDM 2018/08, [Papier] [Code]
- Zukünftige Daten hilft beim Training: Modellierung zukünftiger Kontexte für Sitzungsbasis, www 2020/04, [Papier] [Code]
- Empfehlung über Collaborative Diffusion Generative Model, KSEM 2022/08, [Papier]
- Verschwommene Sharpening-Prozessmodelle für die kollaborative Filterung, ARXIV 2022/09, [Papier]
- Generative Slate -Empfehlung mit Verstärkungslernen, Arxiv 2023/01, [Papier]
- Empfehlungssysteme mit generativem Abruf, Arxiv 2023/04, [Papier]
- Diffurec: Ein Diffusionsmodell für die sequentielle Empfehlung, ARXIV 2023/04, [Papier]
- Diffusions -Empfehlungsmodell, ARXIV 2023/04, [Papier]
- Ein erster Blick auf die Empfehlung für generative Nachrichten von LLM, ARXIV 2023/05, [Papier]
- Empfehlungssysteme mit generativem Abruf, Arxiv 2023/05, [Papier]
- Generatives Abruf als dichtes Abruf, Arxiv 2023/06, [Papier]
- Recfusion: Ein Binomialdiffusionsprozess für 1D -Daten zur Empfehlung, ARXIV 2023/06, [Papier]
- Generative sequentielle Empfehlung mit GPTREC, SIGIR Workshop 2023, [Papier]
- Fans: schnelle nicht autoregressive Sequenzgenerierung für die Fortsetzung der Artikelliste, www 2023, [Papier]
- Generative NEXT-Basket-Empfehlung, Recsys 2023
- Großsprachiges Modell Augmented Narrative Driven Empfehlungen, Recsys 2023, [Papier]
- LightLM: Ein leichtes, tiefes und schmales Sprachmodell für Verpackungsempfehlung, Arxiv 2023/10, [Papier]
Verwandte Ressourcen:
- Xiangyang Li Github [Link]
- NANCHENG58I GITHUB [LINK]
- Enoche Github [Link]
- Wlik Github [Link]
- https://github.com/chiangel/awesome-llm-for-recsys
- https://medium.com/@lifengyi_6964/a-large-scale-short-video-recommender-system-dataset-160fdfe81b79
- https://medium.com/@lifengyi_6964/rethinking-the-id-paradigm-in-recommender-systems-the-rise-of-modity-98f449dec016
- https://medium.com/@lifengyi_6964/one-model-for-all-universal-recommender-System-82dab214a07d
- https://zhuanlan.zhihu.com/p/437671278
- https://zhuanlan.zhihu.com/p/675213913
- https://zhuanlan.zhihu.com/p/684805058
- https://zhuanlan.zhihu.com/p/665467596