Wir haben ein Open-Source-Toolkit mit Open-Source-Toolkit veröffentlicht. Schauen Sie sich OpenPrompt an!
Wir ermutigen die Forscher, die ihre fantastische Arbeit für die Community fördern möchten, nachdrücklich, Pull -Anfrage zu stellen, um die Informationen ihrer Papier zu aktualisieren! (Siehe Beiträge anhand von Details)
Eine wirksame Anpassung von vorgeborenen Modellen könnte aus verschiedenen Perspektiven untersucht werden. Einheitlicher Lernlern konzentriert sich auf die Organisation des Schulungsverfahrens und die Vereinigung verschiedener Aufgaben, während die Delta-Tuning (Parameter-effiziente Methoden) eine weitere Richtung aus der spezifischen Optimierung vorgebliebener Modelle liefert. Überprüfen Sie die Deltapake!
Must-Read-Papiere zur schnellen Abstimmung für vorgebreitete Sprachmodelle. Die Papierliste wird hauptsächlich durch Ning Ding und Shengding Hu mantiniert. Sehen Sie sich dieses Repository für die neuesten Updates an!
Dies ist eine Papierliste über die schnelle Abstimmung für groß angelegte vorgebrachte Sprachmodelle. Anders als herkömmliche Feinabstimmung, bei der ein explizites Klassifikator verwendet wird, verwendet die prompt-basierte Abstimmung direkt die vorgebreiteten Modelle, um die Voraussetzungsaufgaben für die Klassifizierung oder Regression durchzuführen.
Die Abkürzung der Arbeit.
Die Schlüsselmerkmale in Bezug auf das in der Arbeit verwendete schnelle Lernen.
Die hauptsächlich untersuchte Aufgabe der Arbeit.
Die hauptsächlich untersuchte Eigenschaft von prompten Lernmethoden in der Arbeit.
Dieser Abschnitt enthält die Arbeiten, die die allgemeinen Trends in der jüngsten natürlichen Sprachverarbeitung mit großen (vorgefertigten) Modellen übersehen.
OpenPrompt: Ein Open-Source-Framework für ein schnelles Lernen. Vordruck.
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zheng, Maoson Sun [PDF] [Projekt], 2021.11
Vorausgebildete Modelle: Vergangenheit, Gegenwart und Zukunft. Vordruck.
Xu Han, Zhengyan Zhang, Ning Ding, Yuxian Gu, Xiao Liu, Yuqi Huo, Jiezhong Qiu, Yuan Yao, Ao Zhang, Liang Zhang, Wentao Han, Minlie Huang, Qin Jin, Yanyan Lan, Yang Liu, Zhiyuan Liu, Zhiwu Lu , Xipeng Qiu, Ruihua Song, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu. [PDF], 2021.6
Pre-Train, Eingabeaufforderung und Vorhersage: Eine systematische Übersicht über die Anlaufmethoden in der Verarbeitung natürlicher Sprache. Vordruck.
Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi und Graham Neuubig. [PDF] [Projekt], 2021.7
Paradigmenverschiebung in der Verarbeitung natürlicher Sprache. Forschungsforschung für Maschinenintelligenz.
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [Projekt], 2021.9
Dieser Abschnitt enthält die Pilotwerke, die zur Prävalenz des schnellen Lernparadigmas beitragen könnten.
Parameter-effizientes Transferlernen für NLP. ICML 2019.
Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, Sylvain Gelly . [PDF], [Projekt], 2019.6
Erforschung der Grenzen des Transferlernens mit einem einheitlichen Text-zu-Text-Transformator. JMLR. Colin Raffel, Noam Sazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Mantena, Yanqi Zhou, Wei Li, Peter J. Liu. [PDF], [Projekt]. 2019.10.
Sprachmodelle als Wissensbasis? EMNLP 2019.
Fabio Petroni, Tim Rocktaschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel. [PDF], [Projekt], 2019.9
Wie können wir wissen, was Sprachmodelle wissen? TaCl 2020.
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neuubig . [PDF], [Projekt], 2019.11
Sprachmodelle sind nur wenige Lernende. Neurips 2020.
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. [PDF], [Website], 2020.5
Adaprompt: Adaptive Modelltraining für prompt-basierte NLP
Yulong Chen, Yang Liu, Li Dong, Shuohang Wang, Chenguang Zhu, Michael Zeng, Yue Zhang [PDF], 2022.02
Dieser Abschnitt enthält die Untersuchung der grundlegenden Aspekte des schnellen Abtauchens, wie z. B. Vorlage, Verbalizer, Trainingsparadigmen usw.
Nutzung von Zierfragen für wenige Schusstextklassifizierung und Inferenz für natürliche Sprache. EACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [Projekt], 2020.1
Es ist nicht nur die Größe, die zählt: kleine Sprachmodelle sind auch wenige Schienenlernende. NAACl 2021.
Timo Schick, Hinrich Schütze. [PDF], [Projekt], 2020.9
Autoprompt: Wissen aus Sprachmodellen mit automatisch generierten Eingabeaufforderungen auslösen. Vordruck.
Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, Sameer Singh. [PDF], [Website], 2020.10
Automatisch Identifizieren von Wörtern, die als Beschriftungen für die Klassifizierung von nur wenigen Schichten dienen können. Coling 2020.
Timo Schick, Helmut Schmid, Hinrich Schütze. [PDF], [Projekt], 2020.12
Vorausgebildete Sprachmodelle besser wenige Lernende machen. ACL 2021.
Tianyu Gao, Adam Fisch, Danqi Chen. [PDF], [Projekt], 2020.12
Präfix-Tuning: Optimieren Sie kontinuierliche Eingabeaufforderungen für die Generation . ACL 2021.
Xiang Lisa Li, Percy Liang. [PDF], [Projekt], 2021.1
Schnellprogrammierung für Großsprachmodelle: Über das wenige Paradigma hinaus. Vordruck.
Laria Reynolds, Kyle McDonell. [PDF], 2021.2
Verbesserung und Vereinfachung des Musters Ausnutzung von Training. Vordruck.
Derek Tam, Rakesh R Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel. [PDF], 2021.3
GPT versteht auch. Vordruck.
Xiao Liu, Yanan Zheng, Zhengxiao du, Ming Ding, Yujie Qian, Zhilin Yang, Jie Tang . [PDF], [Projekt], 2021.3
Die Skalierungsleistung für das Parameter-unfreundliche Eingabeaufentwicklung. Vordruck.
Brian Lester, Rami al-Rfou, Noah Constant . [PDF], [Projekt], 2021.4
Lernen, wie man fragt: LMS mit Mischungen aus weichen Eingabeaufforderungen abfragen. NAACl 2021.
Guanghui Qin, Jason Eisner. [PDF] [Projekt], 2021.4
Tatsachenprüfung ist [Maske]: Lernen vs. Lernen zum Rückruf. NAACl 2021.
Zexuan Zhong, Dan Friedman, Danqi Chen. [PDF], [Projekt], 2021.4
Eingabeaufforderungen und Parameter reduzieren: Einfaches Lernen mit wenigen Schüssen mit Sprachmodellen. Vordruck.
Robert L. Logan IV, Ivana Balažević, Eric Wallace, Fabio Petroni, Sameer Singh, Sebastian Riedel . [PDF], 2021.6
Warp: Gegentliche Reprogrammierung auf Wortebene. ACL 2021.
Karen Hambardzumyan, Hrant Khachatrian, Jonathan May. [PDF], [Projekt], 2021.6
PTR: Einheitlich mit Regeln für die Textklassifizierung. Vordruck.
Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun. [PDF], 2021.5
NSP-Bert: Ein promptbasierter Zero-Shot-Lerner durch eine ursprüngliche Voraussetzung--nächste Satzvorhersage
Yi sun*, yu zheng*, chao hao, hängende qiu , [pdf], [project], 2021.9
Finetuned-Sprachmodelle sind Null-Shot-Lernende.
ASON Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan du, Andrew M. Dai, Quoc V. Le. [PDF], 2021.9
PPT: Vorbereitete sofortige Stimmung für wenige Schüsse-Lernen
Yuxian Gu*, Xu Han*, Zhiyuan Liu, Minlie Huang. [PDF], 2021.9
Durch die differenzierbare Eingabeaufforderung bessere Sprachmodelle sind einige wenige Lernende besser. ICLR 2022.
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen BI, Chuanqi Tan, Fei Huang, Huajun Chen. [PDF], [Projekt], 2021.10
Multitasking, das zum Training gefordert wurde, ermöglicht die Verallgemeinerung von Aufgaben in der Null-Shot-Aufgabe.
Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Sauli BARI, Canwen Xu, Urmish Thakker, Shanya, Shanya Sharya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya, Shanya Sharma, SHARYA, SHANYA, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neeraj, Jos Rozen, Abheesht Sharma , Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, Alexander M. Rush. [PDF], 2021.10
P-Tuning V2: Sofort-Tuning kann vergleichbar sein mit dem universellen Finetun über Skalen und Aufgaben. ACL 2022.
Xiao Liu, Kaixuan JI, Yicheng Fu, Zhengxiao DU, Zhilin Yang, Jie Tang [PDF], [Projekt], 2021.10
Black-Box-Abstimmung für Sprachmodell-AS-A-Service. ICML 2022.
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF], [Projekt], 2022.1
Black-Box-Eingabeaufforderung für vorgebliebene Sprachmodelle. Vordruck.
Shizhe Diao, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
Bindende Sprachmodelle in symbolischen Sprachen. Vordruck.
Zhoujun Cheng*, Tianbao Xie*, Peng Shi, Chengzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu [pdf], [project], [website] , 2022.10
Ein sofortiger Musterkatalog zur Verbesserung der schnellen Engineering mit ChatGPT. Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt [PDF], 2023.2
Dieser Abschnitt enthält die Analyse schneller Lernmethoden, einschließlich, aber nicht beschränkt darauf, warum sofortige Lernarbeit, verschiedene Eigenschaften von schnellen Lernmethoden und Begrenzung von schnellen Lernmethoden.
Was macht gute In-Kontext-Beispiele für GPT-3? . Vordruck.
Jiachang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, Weizhu Chen . [PDF] 2021.1
Wie viele Datenpunkte ist eine Eingabeaufforderung wert? NAACl 2021.
Teven Le Scao, Alexander M. Rush. [PDF], [Projekt], 2021.3
Oberflächenformwettbewerb-Warum die höchste Wahrscheinlichkeitsantwort nicht immer richtig ist. Vordruck. Vordruck.
Ari Holtzman, Peter West, Vered Schwartz, Yejin Choi, Luke Zettlemoyer. [PDF] [Projekt], 2021.4
Natürliche Anweisungen: Benchmarking -Verallgemeinerung auf neue Aufgaben aus natürlichen Sprachanweisungen. Vordruck.
Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi. [PDF], [Projekt], 2021.4
Fantastisch geordnete Eingabeaufforderungen und wo man sie findet: Überwindung einiger Empfindlichkeit der Auftragsanordnung . Vordruck.
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp . [PDF] 2021.4
Meta-Tuning-Sprachmodelle zur Beantwortung von Auffordern besser. Vordruck.
Ruiqi Zhong, Kristy Lee*, Zheng Zhang*, Dan Klein . [PDF] 2021.4
Lernen Wege-Shot-Lernen mit Sprachmodellen . Vordruck.
Ethan Perez, Douwe Kiela, Kyunghyun Cho . [PDF], [Projekt] 2021.5
Warum helfen vorbereitete Sprachmodelle bei nachgelagerten Aufgaben? Eine Analyse des Kopfes und einer sofortigen Stimmung . Vordruck.
Colin Wei sang Michael Xie Tengyu Ma [PDF], 2021.6
Verstehen prompt-basierte Modelle wirklich die Bedeutung ihrer Eingabeaufforderungen? Vordruck.
Albert Webson, Ellie Pavlick. [PDF], [Projekt] 2021.9
Vermeiden Sie Inferenzheuristiken in wenigen Schuss-Eingabeaufentwicklungsfinetuning. Vordruck.
Prasetya Ajie Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych. [PDF], 2021.9
Auf eine einheitliche Ansicht des parameter-effizienten Transferlernens. Vordruck.
JUNXIAN HE, ZHOU, XUEZHE MA, TAYLOR BERG-KIRKPATRICK, GRAHAM NEBIG. [PDF], 2021.10
Erforschung niedrigdimensionaler intrinsischer Task-Subspaspace über ein schnelles Tuning. Vordruck.
Yujia Qin, Xiaozhi Wang, Yusheng Su, Yankai Lin, Ning Ding, Zhiyuan Liu, Juanzi Li, Lei Hou, Peng Li, Maosong Sun, Jie Zhou [PDF]
Erkundung der universellen Verwundbarkeit des prompten basierten Lernparadigmas. Ergebnisse von NAACl 2022.
Lei Xu, Yangyi Chen, Ganqu Cui, Hongcheng Gao, Zhiyuan Liu [PDF], [Projekt]
Überdenken Sie die Rolle von Demonstrationen: Was macht das Lernen des Kontextes zum Lernen? ARXIV 2022.
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], [Projekt]
Die parametereffiziente Eingabeaufentwicklung macht verallgemeinerte und kalibrierte Neuraltext-Retriever. Vordruck.
Weng Lam Tam, Xiao Liu, Kaixuan JI, Lilong Xue, Yuxiao Dong, Jiahua Liu, Maodi Hu, Jie Tang [PDF] [Projekt]
Vorherige Eingabeaufforderung ignorieren: Angriffstechniken für Sprachmodelle. Best Papier Award @ Neurips ML Safety Workshop 2022.
Fábio Perez, Ian Ribeiro [PDF] [Projekt], 2022.11
Dieser Abschnitt enthält die Verbesserung der grundlegenden Umformmethoden, umfassen, aber nicht begrenzt für die Verwendung zusätzlicher Ressourcen zur Verbesserung der Leistungen, die Erstellung der Mängel früherer Arbeiten oder die Durchführung eines sofortigen Abtauchens auf ungewöhnliche Weise.
Kalibrieren Sie vor der Verwendung: Verbesserung der Leistung von Sprachmodellen wenige Schüsse. Vordruck.
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh. [PDF], [Projekt], 2021.2
Textgenerierung mit effizientem (weichem) Q-Learning. Vordruck.
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu. [PDF], 2021.6
Sachkundige schnelle Einstellung: Integration von Wissen in einen schnellen Verbalizer für die Textklassifizierung einbeziehen. Vordruck.
Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Juanzi Li, Maosong Sun. [PDF], [Projekt], 2021.8
Lautes Kanal-Sprachmodell, der für wenige Schuss-Textklassifizierung auffordert. Vordruck.
Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer. [PDF], 2021.8
Anpassung von Sprachmodellen für das Lernen von Zero-Shot-Lernen durch Meta-Einstellung auf Datensatz und Eingabeaufforderung.
Ruiqi Zhong, Kristy Lee* Zheng Zhang*, Dan Klein. [PDF], 2021.9
Überprüfung der Selbsttraining für wenige Schüsse des Sprachmodells. Vordruck.
Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li. [PDF], 2021.10
LISTE: Lite Self-Draining macht effiziente wenige Schusslernende. Vordruck.
Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed Hassan Awadallah, Jianfeng Gao. [PDF], 2021.10
Prototypischer Verbalizer für ein schnelles Tuning von wenigen Schäden. ACL 2022.
Ganqu Cui, Shengding Hu, Ning Ding, Longao Huang, Zhiyuan Liu . [PDF], [Projekt], 2022.3
BBTV2: Die Optimierung der reinen Schwarzbox kann mit Gradientenabstieg für wenige Schusslernen vergleichbar sein. Vordruck.
Tianxiang Sun, Zhengfu HE, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF] [Projekt], 2022.5
Dieser Abschnitt enthält die für verschiedene NLP -Aufgaben entwickelten Lernmethoden.
Laut denken: Die dynamische Kontextgenerierung verbessert die Leistung der Null-Shot-Argumentation von GPT-2. Vordruck.
Gregor Betz, Kyle Richardson, Christian Voigt. [PDF] 2021.3
GPT3MIX: Nutzung großer Sprachmodelle für die Textvergrößerung. Vordruck.
Kang Min Yoo, Dongju Park, Jaewook Kang, Sang-woo Lee, Woomyeong Park. [PDF] 2021.4
Eingeschränkte Sprachmodelle ergeben nur wenige semantische Parsers. Vordruck.
Richard Shin, Christopher H. Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme. [PDF] 2021.4
Kennzeichnung verbalisierung und mit der effektiven Null- und wenigen Shot-Beziehungsextraktion. EMNLP 2021.
Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Anders Barrena, Eneko Agirre. [PDF], 2021.4
PADA: Ein prompt basierter autoregressiver Ansatz für die Anpassung an unsichtbare Domänen -Präprint.
Eyal Ben-David, Nadav Oved, Roi Reichart. [PDF] [Projekt] 2021.5
Eingabeaufforderung für die typische Einheit der feinkörnigen Entität. Vordruck.
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Xie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi Li, Hong-Gee Kim [PDF], 2021.8
KnowPrompt: Wissensbewusstseinheit mit synergistischer Optimierung für die Beziehungsextraktion. Www 2022.
Xiang Chen, Xin Xie, Ningyu Zhang, Jiahuan Yan, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. . [PDF], [Projekt], 2021.9
Erforschen Sie ein schnelles Lernen von Few-Shot-Lernen für geerdete Dialoggenerierung. Vordruck.
Chujie Zheng, Minlie Huang. [PDF], 2021.9
Sentiprompt: Sentiment-Wissen verbesserte die Eingabeaufnahme für eine Aspekt-basierte Stimmungsanalyse. Vordruck.
Chengxi Li, Feiyu Gao, Jiajun Bu, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu. [PDF] 2021.9
Vorlagenfreies Einort-Tuning für wenige Schuss-Ner. Vordruck.
Ruotian Ma*, Xin Zhou*, Tao Gui, Yiding Tan, Qi Zhang, Xuanjing Huang. [PDF], 2021.9
Lernen, Sehversprachmodelle zu fordern. Vordruck.
Kaiyang Zhou, Jingkang Yang, Chen Change Loy und Ziwei Liu. [PDF], 2021.9
CPT: Farbenfrohes Tuning für vorgeborene Sichtsprüche-Modelle. Vordruck.
Yuan Yao*, Ao Zhang*, Zhengyan Zhang, Zhiyuan Liu, Tat-Seng Chua, Maosong Sun. [PDF], 2021.10
MSP: Mehrstufige Aufforderung zur Herstellung von vorgeborenen Sprachmodellen zu besseren Übersetzern. Vordruck.
Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu. [PDF], 2021.10
Wenig-Shot-Bot: promptes Lernen für Dialogsysteme. Vordruck.
Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, Pascale Fung [PDF], 2021.10
Steuerungspräfixe für die Textgenerierung. Vordruck.
Jordan Clive, Kris Cao, Marek Rei. [PDF], 2021.10
Die Kraft des schnellen Einstellens für die semantische Parsen mit niedrigem Ressourcen. Vordruck.
Nathan Schucher, Siva Reddy, Harm de Vries. [PDF], 2021.10
Eine gute Eingabeaufforderung ist Millionen von Parametern wert? Niedrigressourcen-prompt-basiertes Lernen für Visionsprachenmodelle.
Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren. [PDF]
Lightner: Ein leichtes generatives Framework mit sofortiger Aufmerksamkeit für NER-RESOURCE-NER. Coling 2022.
Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo SI, Huajun Chen, Ningyu Zhang. [PDF], [Projekt], 2021.8
UNIDIEDSKG: Einheitliche und multitasking strukturierte Wissens Erdung mit Text-zu-Text-Sprachmodellen.
Tianbao Xie*, Chen Henry Wu*, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Ni, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu. [PDF], [Projekt], [Website], 2022.1
Ontologie-verstärkte Eingabeaufnahme für wenige Schüsse-Lernen. Www 2022.
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen. [PDF], 2022.1
Lernen, nach kontinuierlichem Lernen zu fordern. CVPR 2022.
Zifeng Wang, Zizhao Zhang, Chen-yu Lee, Han Zhang, Ruoxi Sun, Xiaoqi Ren, Guolong Su, Vincent Perot, Jennifer Dy, Tomas Pfister. [PDF], [Projekt], 2021.12
Beziehungsextraktion als Open-Book-Prüfung: Abrufenverstärkte sofortiges Tuning. Sigir 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [Projekt], 2022.5
Eine gute visuelle Führung macht einen besseren Extraktor: hierarchisches visuelles Präfix für multimodale Entität und Beziehungsextraktion. Ergebnisse von NAACl 2022.
Xiang Chen, Ningyu Zhang, Lei Li, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [Projekt], 2022.5
Kette von Denkweisen, die dazu führen, dass sie in großer Sprachmodellen Begründung ausgelöst haben. Preprint 2022.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, Denny Zhou. [PDF]
Selbstkonsistenz verbessert die Kette des Denkens in Sprachmodellen. Preprint 2022.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [PDF]
Großsprachige Modelle sind Null-Shot-Vernunft. Preprint 2022.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [PDF]
Die am wenigsten zu meistversteigende Erscheinung ermöglicht komplexe Argumentation in Großsprachenmodellen. Preprint 2022.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [PDF]
Maieutische Aufforderung: Logisch konsequentes Denken mit rekursiven Erklärungen. Preprint 2022.
Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
Über den Vormarsch der Sprachmodelle zu besseren Dennzeichen. Preprint 2022.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weishu Chen [PDF]
Lernen, weiche Eingabeaufforderungen für das Lernen von Kompositionalern zu komponieren. Preprint 2022.
Nihal V. Nayak*, Peilin Yu*, Stephen H. Bach [PDF], [Projekt]
Entkopplung von Wissen aus dem Auswendiglernen: Abruf-ausgebildetes sofortiges Lernen. Neurips 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Xiaozhuan Liang, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [Projekt], 2022.5
Erforschung der Länge der Verallgemeinerung in Großsprachenmodellen. Preprint 2022.
Cem Anil, Yuhuai Wu, Anders Andreasssen, Aitor Lewkowycz, Vedant Misra, Vinay Ramasesch, Ambrose Slone, Guy Gur-Ari, Ethan Dyer, Behnam Neyshabur [PDF]
Fragen Sie mich alles: Eine einfache Strategie, um Sprachmodelle aufzufordern. Preprint 2022.
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré [PDF]
Messen und Verengung der Kompositionalitätslücke in Sprachmodellen Preprint 2022.
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis [PDF]
RLPROMPT: Optimierung diskreter Textaufforderungen mit Verstärkungslernenvorabdruck 2022.
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
Argumentation mit Sprachmodell Aufforderung: eine Umfragepräprint 2022.
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [PDF]
Wir danken Yujia Qin, Xiachong Feng, Chenglei SI, Tianbao Xie, Muhtasham Obrokulov für die Papierempfehlung.
Machen Sie sich keine Sorgen, wenn Sie all dies falsch legen, wir werden sie für Sie reparieren. Tragen Sie einfach bei und bewerben Sie Ihre großartige Arbeit hier!
Wenn Sie eine Arbeit empfohlen haben, die Ihnen nicht gehörte, werden Sie der Mitwirkungsliste hinzugefügt (stellen Sie Ihre Informationen in anderen Mitwirkenden an).