Promptkg Familie: Eine Galerie von Forschungsarbeiten, Toolkits und Papierlisten im Zusammenhang mit dem Lern- und KG-bezogenen Forschungsarbeiten.
| Verzeichnis | Beschreibung |
|---|
| Forschung | • Eine Sammlung prompt lernbezogener Forschungsmodellimplementierungen |
| Lambdakg | • Eine Bibliothek für PLM-basierte KG-Einbettungen und Anwendungen |
| Deltakg | • Eine Bibliothek zur dynamischen Bearbeitung von KG-Einbettungen von PLM-basierten |
| Tutorial-Notenbücher | • Tutorial -Notizbücher für Anfänger |
Inhaltsverzeichnis
- Tutorials
- Umfragen
- Papiere
- Wissen wie prompt
- 1. Sprachverständnis
- 2. Multimodal
- 3.. Fortgeschrittene Aufgaben
- Eingabeaufforderung (PLMS) für Wissen
- 1. Wissensuntersuchung
- 2. Einbettung für Wissensgrafik
- 3. Analyse
- Kontaktinformationen
Tutorials
- Null- und wenige Schuss-NLP mit vorbereiteten Sprachmodellen. AACL 2022 Tutorial [PPT]
- Dateneffiziente Wissensgrafikkonstruktion. CCKS2022 Tutorial [PPT]
- Effiziente und Robuts -Wissensgrafikkonstruktion. AACL-IJCNLP-Tutorial [PPT]
- Wissen informiertes schnelles Lernen. MLNLP 2022 Tutorial (Chinesisch) [PPT]
Umfragen
- Delta-Tuning: Eine umfassende Untersuchung von Parameter-effizienten Methoden für vorgebrachte Sprachmodelle (auf ARXIV 2021) [Papier]
- Pre-Train, Eingabeaufforderung und Vorhersage: Eine systematische Übersicht über die Anlaufmethoden in der Verarbeitung natürlicher Sprache (ACM Computing Surveys 2021) [Papier]
- Umstrukturierter Vorverbrauch (auf ARXIV 2022) [Papier]
- Eine Übersicht über wissensintensive NLP mit vorgeborenen Sprachmodellen (zu ARXIV 2022) [Papier]
- Eine Übersicht über kenntnisverstärkte vorgeborene Sprachmodelle (auf ARXIV 2022) [Papier]
- Eine Übersicht über Sprachmodelle als Wissensbasis (auf ARXIV 2022) [Papier]
- Generative Knowledge Graph Construction: Eine Übersicht (EMNLP, 2022) [Papier]
- Argumentation mit Sprachmodell Aufforderung: Eine Umfrage (zu ARXIV 2022) [Papier]
- Argumentation über verschiedene Arten von Wissensgraphen: Statisch, zeitliches und multimodal (auf ARXIV 2022) [Papier]
- Der Lebenszyklus des Wissens in großen Sprachmodellen: Eine Umfrage (zu ARXIV 2022) [Papier]
- Vereinheitliche Großsprachenmodelle und Wissensdiagramme: eine Roadmap (auf ARXIV 2023) [Papier]
Papiere
Wissen wie prompt
Sprachverständnis
- Retrieval-Augmented Generation für wissensintensive NLP-Aufgaben in Neurips 2020. [PDF]
- Realm: Abrufen-Sprachmodell vor dem Training, in ICML 2020. [PDF]
- Vorausgebildete Sprachmodelle besser wenige Schusslernende in ACL 2022 machen. [PDF]
- PTR: Einheitliches Tuning mit Regeln für die Textklassifizierung in OpenAI 2022. [PDF]
- Beschriftung Verbalisierung und Einbeziehung für eine effektive Extraktion von Null- und wenigen Schäden in EMNLP 2021. [PDF]
- RelationPrompt: Nutzungsaufforderungen zur Generierung von synthetischen Daten für die Null-Shot-Beziehungstriplett-Extraktion in EMNLP 2022 (Ergebnisse). [PDF]
- Sachkundige Aufgabe: Integration von Wissen in einen schnellen Verbalizer für die Textklassifizierung in ACL 2022. [PDF]
- PPT: Vorausgebildetes Umfang für wenige Schüsse-Lernen, in ACL 2022. [PDF]
- Kontrastive Demonstrationsabstimmung für vorgeborene Sprachmodelle in EMNLP 2022 (Befunde). [PDF]
- ADAPROMPT: Adaptives Modelltraining für prompt-basierte NLP, in ARXIV 2022. [PDF]
- KnowPrompt: Wissensbewusstes Einheitungseinstellung mit synergistischer Optimierung für die Beziehungsextraktion in www 2022. [PDF]
- Die Schema-bewährte Referenz als Eingabeaufforderung verbessert in Sigir 2023 die dateneffiziente Wissensgrafikkonstruktion. [PDF]
- Entkopplung von Kenntnissen aus dem Auswendiglernen: Abruf-ausgebildetes promptes Lernen, in Neurips 2022. [PDF]
- Relationsextraktion als Open-Book-Prüfung: Abrufenverstärkte, in Sigir 2022. [PDF]
- Lightner: Ein leichtes Tuning-Paradigma für Ner-Ressourcen-Ner durch Steckabkommen, in Coling 2022. [PDF]
- Einheitliche Strukturgenerierung für die universelle Informationsextraktion, in ACL 2022. [PDF]
- Lasuie: Einheitliche Informationsextraktion mit latenten adaptiven strukturbewussten generativen Sprachmodell in Neurips 2022. [PDF]
- Atlas: Wenige Schüsse Lernen mit Abrufenvergrößerungssprachmodellen, in Arxiv 2022. [PDF]
- Nicht fordern, suchen! Mining-basiertes Null-Shot-Lernen mit Sprachmodellen in ACL 2022. [PDF]
- Wissensaufforderung im vorgeborenen Sprachmodell für das Verständnis der natürlichen Sprache, in EMNLP 2022. [PDF]
- Unified Knowledge fordert die Dialoge für den Kundendienst in CIKM 2022. [PDF]
- Wissensaufforderung im vorgeborenen Sprachmodell für das Verständnis der natürlichen Sprache, in EMNLP 2022. [PDF]
- Selbststruktur: Sprachmodell mit selbst erzeugten Anweisungen in ARXIV 2022 ausrichten. [PDF]
- Ein Einbetter, jede Aufgabe: Befehlsfinetonte Text-Einbettungen, in Arxiv 2022. [PDF]
- Lernen, Eingabeaufforderungen für das Lernen in Kontext abzurufen, in NAACL 2022. [PDF]
- Trainingsdaten sind wertvoller als Sie denken: Eine einfache und effektive Methode durch Abrufen von Trainingsdaten in ACL 2022. [PDF]
- Ein Modell für alle Domänen: Collaborative Domain-Prefix-Tuning für Cross-Domain-Ner, in Arxiv 2023. [PDF]
- Wiederholung: Abrufen-Black-Box-Sprachmodelle in Arxiv 2023. [PDF]
- Wissensmodell Aufforderung zur Beantwortung von Wissensgrafikfragebestellungen in ARXIV 2023. [PDF]
Multimodal
- Eine gute visuelle Führung macht einen besseren Extraktor: hierarchisches visuelles Präfix für multimodale Entität und Beziehungsextraktion in NAACl 2022 (Befunde). [PDF]
- Visuelle Eingabeaufforderung in ECCV 2022. [PDF]
- CPT: Buntes Tuning für vorgebreitete Sichtsprüche-Modelle in EMNLP 2022. [PDF]
- Lernen, Sehversprachmodelle in IJCV 2022 aufzufordern. [PDF]
- Testzeit-Eingabeaufforderung für die Null-Shot-Verallgemeinerung in Visionsprachmodellen in Neurips 2022. [PDF]
Fortgeschrittene Aufgaben
- Empfehlung als Sprachverarbeitung (RLP): Ein einheitliches Vorabend, personalisierte Eingabeaufforderung und Vorhersage von Paradigma (P5) in ACM Recsys 2022. [PDF]
- In Richtung einheitlicher Konversationsempfehlungssysteme über das kenntnisverstärkte sofortige Lernen in KDD 2022. [PDF]
- Promptem: Eingabeaufgabe für eine geringe Ressourcenverallgemeinerung der Entitätsübereinstimmung in VLDB 2023. [PDF]
- VIMA: Allgemeine Robotermanipulation mit multimodalen Eingaben, in Arxiv 2022. [PDF]
- Unvoreingenommene Retrosynthese -Sprachmodelle mit Trennungsanforderungen in Arxiv 2022. [PDF]
- Progprompt: Generierung von Roboter -Taskplänen mit großer Sprachmodellen in Arxiv 2022. [PDF]
- Zusammenarbeit mit Sprachmodellen für verkörpertes Denken in Neurips 2022 Workshop Larel. [PDF]
Eingabeaufforderung (PLMS) für Wissen
Wissensuntersuchung
- Wie viel Wissen können Sie in die Parameter eines Sprachmodells einpacken? in EMNLP 2020. [PDF]
- Sprachmodelle als Wissensbasis? in EMNLP 2019. [PDF]
- Materialisierte Wissensbasis aus vernünftigen Transformatoren in CSRR 2022. [PDF]
- Zeitbewusste Sprachmodelle als zeitliche Wissensbasis in TaCl2022. [PDF]
- Können generative vorgebrachte Sprachmodelle als Wissensbasis für die QA für geschlossene Bücher dienen? in ACL2021. [PDF]
- Sprachmodelle als Wissensbasis: zu Entitätsdarstellungen, Speicherkapazitäten und umschriebenen Abfragen in EACL2021. [PDF]
- Wissenschaftliche Sprachmodelle für biomedizinische Wissensbasisabschluss: Eine empirische Studie in AKBC 2021. [PDF]
- Mehrsprachiger Lama: Untersuchung von Wissen in mehrsprachigen vorbereiteten Sprachmodellen, in EACL2021. [PDF]
- Wie können wir wissen, was Sprachmodelle wissen? in TaCl 2020. [PDF]
- Wie Kontext die sachlichen Vorhersagen der Sprachmodelle in AKBC 2020 beeinflusst. [PDF]
- Kopen: Konzeptuelle Kenntnisse in vorgeborenen Sprachmodellen in EMNLP 2022. [PDF]
- Prüfkenntnisse aus vorgebliebenen Sprachmodellen in ACL 2022. [PDF]
Einbettung von Wissensgrafiken (wir bieten eine Bibliothek und einen Benchmark -Lambdakg an)
- KG-Bert: Bert für den Abschluss des Wissensgrafiks, in Arxiv 2020. [PDF]
- Multi-Task-Lernen für Wissensgrafiken Abschluss mit vorgebildeten Sprachmodellen , in Coling 2020. [PDF]
- Struktur-ausgestattete Textrepräsentation Lernen für effiziente Wissensgrafikabschluss in www 2021. [PDF]
- Kepler: Ein einheitliches Modell für die Einbettung von Wissen und die Darstellung der vorgebrachten Sprache, TaCl 2021 [PDF]
- Statik: Struktur und Text für induktives Wissensgraphen in NAACl 2022. [PDF]
- Gemeinsame Sprachsemantik und Struktur einbetten, um den Kenntnisstand für Wissensgrafik zu vervollständigen. [PDF]
- Das Wissen ist flach: Ein SEQ2SEQ -Generativrahmen für verschiedene Wissensgrafikabschlüsse in Coling. [PDF]
- Profitieren vorgebildete Modelle den Kenntnisgrafikabschluss? Eine zuverlässige Bewertung und ein vernünftiger Ansatz in ACL 2022. [PDF]
- Sprachmodelle als Wissen Einbettung in IJCAI 2022. [PDF]
- Von der Diskriminierung bis zur Generation: Knowledge -Graph -Abschluss mit Generativen Transformator in www 2022. [PDF]
- Argumentation durch Auswendiglernen: Kenntnis der nächsten Nachbarn -Grafik -Einbettungen in Arxiv 2022. [PDF]
- SIMKGC: Einfache kontrastive Wissensgrafik-Vervollständigung mit vorgebildeten Sprachmodellen in ACL 2022. [PDF]
- Sequenz zur Abschluss und Beantwortung von Fragen zu Sequenzwissengrafiken in ACL 2022. [PDF]
- LP-Bert: Multi-Task-Knowledge-Graph Bert für die Link-Vorhersage in ARXIV 2022. [PDF]
- Maske und Vernunft: Wissensgrafiktransformatoren vor dem Training für komplexe logische Abfragen in KDD 2022. [PDF]
- Wissen ist flach: Ein SEQ2SEQ -generativer Rahmen für verschiedene Wissensgrafiken in Coling 2022. [PDF]
Analyse
- Kenntnisreiche oder gebildete Vermutungen? Überprüfung von Sprachmodellen als Wissensbasis in ACL 2021. [PDF]
- Kann eine promptierte Sonde -Sprachmodelle formuliert? Verständnis der unsichtbaren Risiken aus einer kausalen Sichtweise in ACL 2022. [PDF]
- Wie erfassen vorgebrachte Sprachmodelle Faktenwissen? Eine kausal inspirierte Analyse in ACL 2022. [PDF]
- Emergente Fähigkeiten großer Sprachmodelle in Arxiv 2022. [PDF]
- Wissensneuronen in vorbereiteten Transformatoren in ACL 2022. [PDF]
- Finden von Skill-Neuronen in vorgeborenen transformatorbasierten Sprachmodellen in EMNLP 2022. [PDF]
- Lösen Aufforderungen an NLP -Aufgaben mit natürlichen Sprachen? in Arxiv 2022. [PDF]
- Überdenken Sie die Rolle von Demonstrationen: Was macht das Lernen im Kontext zum Lernen? in EMNLP 2022. [PDF]
- Verstehen prompt-basierte Modelle wirklich die Bedeutung ihrer Eingabeaufforderungen? in Naacl 2022. [PDF]
- Wenn nicht zu Sprachmodellen vertrauen: Untersuchung der Effektivität und Einschränkungen parametrischer und nicht parametrischer Erinnerungen, in Arxiv 2022. [PDF]
- Warum kann GPT in Kontexten lernen? Sprachmodelle führen heimlich Gradientenabstieg als Meta-optimierende , in Arxiv 2022 durch. [PDF]
- Fantastisch geordnete Eingabeaufforderungen und wo man sie findet: Überwindung der Empfindlichkeit der Eingabeaufentwicklung von wenigen Schichten in ACL 2022. [PDF]
- Bearbeitung von großsprachigen Modellen: Probleme, Methoden und Chancen in Arxiv 2023. [PDF]
Kontaktinformationen
Für Hilfe oder Probleme mit den Takeits senden Sie bitte ein GitHub -Problem.