Nous avons publié une boîte à outils à apprentissage invite open source, consultez OpenPrompt!
Nous encourageons fortement les chercheurs qui souhaitent promouvoir leur travail fantastique auprès de la communauté pour faire une demande de traction pour mettre à jour les informations de leur article! (Voir les détails contributifs)
Une adaptation efficace des modèles pré-formés pourrait être sondée sous différents angles. L'apprentissage rapide se concentre davantage sur l'organisation de la procédure de formation et l'unification de différentes tâches, tandis que le réglage delta (méthodes efficaces des paramètres) fournit une autre direction de l'optimisation spécifique des modèles pré-formés. Vérifiez Deltapapers!
Doit lire les articles sur un réglage basé sur une base pour les modèles de langue pré-formés. La liste des papier est principalement entretenue par Ning Ding et Shengding Hu. Regardez ce référentiel pour les dernières mises à jour!
Il s'agit d'une liste de papier sur un réglage basé sur une base pour les modèles de langue pré-formés à grande échelle. Différent du réglage fin traditionnel qui utilise un classificateur explicite, un réglage basé sur une invite utilise directement les modèles pré-formés pour effectuer les tâches pré-formation pour la classification ou la régression.
L'abréviation de l'œuvre.
Les caractéristiques clés en termes d'apprentissage rapide utilisés dans le travail.
La tâche principalement explorée du travail.
La propriété principalement explorée des méthodes d'apprentissage rapides dans le travail.
Cette section contient les articles qui visitent les tendances générales du traitement récent du langage naturel avec de grands modèles (pré-étendus).
OpenPrompt: un cadre open-source pour l'apprentissage rapide. Préimprimée.
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zheng, Maoson Sun [PDF] [Projet], 2021.11
Modèles pré-formés: passé, présent et futur. Préimprimée.
Xu Han, Zhengyan Zhang, Ning Ding, Yuxian Gu, Xiao Liu, Yuqi Huo, Jiezhong Qiu, Yuan Yao, Ao Zhang, Liang Zhang, Wentao Han, Minlie Huang, Qin Jin, Yanyan Lan, Yang Liu, Zhiyuan Liu, Zhiwu Lu , Xipeng Qiu, Song Ruihua, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu. [PDF], 2021.6
Pré-train, rapide et prédire: une étude systématique des méthodes d'incitation dans le traitement du langage naturel. Préimprimée.
Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi et Graham Neubig. [PDF] [Projet], 2021.7
Changement de paradigme dans le traitement du langage naturel. Recherche d'intelligence machine.
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [Projet], 2021.9
Cette section contient les travaux pilotes qui pourraient contribuer à la prévalence du paradigme d'apprentissage rapide.
Apprentissage par les paramètres économe en paramètres pour NLP. ICML 2019.
Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, Sylvain Gelly . [PDF], [Projet], 2019.6
Exploration des limites de l'apprentissage du transfert avec un transformateur de texte à texte unifié. JMLR. Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. [PDF], [Projet]. 2019.10.
Modèles linguistiques comme bases de connaissances? EMNLP 2019.
Fabio Petroni, Tim Rocktaschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel. [PDF], [Projet], 2019.9
Comment pouvons-nous savoir ce que les modèles de langue savent? TACL 2020.
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neubig . [PDF], [Projet], 2019.11
Les modèles de langue sont des apprenants à quelques tirs. Neirips 2020.
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askel Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. [PDF], [Site Web], 2020.5
AdapRomppt: formation de modèle adaptative pour une PNL basée sur une base
Yulong Chen, Yang Liu, Li Dong, Shuohang Wang, Chenguang Zhu, Michael Zeng, Yue Zhang [PDF], 2022.02
Cette section contient l'exploration sur les aspects de base du réglage rapide, tels que le modèle, le verbaliseur, les paradigmes de formation, etc.
Exploiter les questions Cloze pour quelques classifications de texte de tir et l'inférence du langage naturel. EACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [Projet], 2020.1
Ce n'est pas seulement la taille qui compte: les petits modèles de langue sont également des apprenants à quelques tirs. NAACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [Projet], 2020.9
AutoPrompt: provoquer des connaissances à partir de modèles de langage avec des invites générées automatiquement. Préimprimée.
Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, Sameer Singh. [PDF], [Site Web], 2020.10
Identification automatique des mots qui peuvent servir d'étiquettes pour la classification de texte à quelques coups. Coling 2020.
Timo Schick, Helmut Schmid, Hinrich Schütze. [PDF], [Projet], 2020.12
Faire de modèles de langue pré-formés meilleurs apprenants à quelques tirs. ACL 2021.
Tianyu Gao, Adam Fisch, Danqi Chen. [PDF], [Projet], 2020.12
Préfixe-réglage: optimisation des invites continues pour la génération . ACL 2021.
Xiang Lisa Li, Percy Liang. [PDF], [Projet], 2021.1
Programmation rapide pour les grands modèles de langage: au-delà du paradigme à quelques coups. Préimprimée.
Laria Reynolds, Kyle McDonell. [PDF], 2021.2
Amélioration et simplification des modèles exploitant la formation. Préimprimée.
Derek Tam, Rakesh R Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel. [PDF], 2021.3
GPT comprend aussi. Préimprimée.
Xiao Liu, Yanan Zheng, Zhengxiao Du, Ming Ding, Yujie Qian, Zhilin Yang, Jie Tang . [PDF], [Projet], 2021.3
La puissance de l'échelle pour le réglage rapide par les paramètres-effectifs. Préimprimée.
Brian Lester, Rami al-Rfou, Noah constante . [PDF], [Projet], 2021.4
Apprendre à demander: interroger LMS avec des mélanges d'invites douces. NAACL 2021.
Guanghui Qin, Jason Eisner. [PDF] [Projet], 2021.4
Le sondage factuel est [Masque]: Apprentissage vs apprentissage à rappeler. NAACL 2021.
Zexuan Zhong, Dan Friedman, Danqi Chen. [PDF], [Projet], 2021.4
Réduire les invites et les paramètres: apprentissage simple avec des modèles de langue. Préimprimée.
Robert L. Logan IV, Ivana Balažević, Eric Wallace, Fabio Petroni, Sameer Singh, Sebastian Riedel . [PDF], 2021.6
WARP: Reprogrammation controversée de niveau mot. ACL 2021.
Karen Hambardzumyan, Hrant Khachatrian, Jonathan May. [PDF], [Projet], 2021.6
PTR: Autorisation rapide avec des règles pour la classification du texte. Préimprimée.
Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun. [PDF], 2021.5
NSP-BERT
Yi Sun *, Yu Zheng *, Chao Hao, Hangping Qiu , [PDF], [Projet], 2021.9
Les modèles de langage à finet sont des apprenants à tirs zéro.
Ason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan DU, Andrew M. Dai, Quoc V. LE. [PDF], 2021.9
PPT: réglage rapide pré-formé pour l'apprentissage à quelques tirs
Yuxian Gu *, Xu Han *, Zhiyuan Liu, Minlie Huang. [PDF], 2021.9
L'invite différenciable rend les modèles de langue pré-formés meilleurs apprenants à quelques tirs. ICLR 2022.
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen BI, Chuanqi Tan, Fei Huang, Huajun Chen. [PDF], [Projet], 2021.10
La formation invitée à plusieurs tâches permet une généralisation des tâches zéro-shot.
Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Urmish Thakker, Shanya Sharma Sharma, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neera, Jos Rozen, Abheesht , Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, Alexander M. Rush. [PDF], 2021.10
P-Tuning V2: le réglage rapide peut être comparable à la fin de la finening à travers les échelles et les tâches. ACL 2022.
Xiao Liu, Kaixuan JI, Yicheng Fu, Zhengxiao DU, Zhilin Yang, Jie Tang [PDF], [Projet], 2021.10
Digne-boîte noire pour le modélisation de la langue en tant que service. ICML 2022.
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF], [Projet], 2022.1
Apprentissage rapide de la boîte noire pour les modèles de langue pré-formés. Préimprimée.
Shizhe Dioo, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
Modèles de langue de liaison dans les langues symboliques. Préimprimée.
Zhoujun Cheng *, Tianbao Xie *, Peng Shi, Chengzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu [PDF], [Project], [site Web] , 2022.10
Un catalogue de motifs rapides pour améliorer l'ingénierie rapide avec Chatgpt. Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt [PDF], 2023.2
Cette section contient l'analyse des méthodes d'apprentissage rapides, y compris, mais sans s'y limiter, pourquoi l'apprentissage rapide du travail, diverses propriétés des méthodes d'apprentissage rapides, la limilation des méthodes d'apprentissage rapides.
Qu'est-ce qui fait de bons exemples dans le contexte pour GPT-3? . Préimprimée.
Jichang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, Weizhu Chen . [PDF] 2021.1
Combien de points de données vaut une invite? NAACL 2021.
Teven Le Scao, Alexander M. Rush. [PDF], [Projet], 2021.3
Concours de forme de surface - Pourquoi la réponse la plus élevée de probabilité n'est pas toujours juste. Préimprimée. Préimprimée.
Ari Holtzman, Peter West, Vered Schwartz, Yejin Choi, Luke Zettlemoyer. [PDF] [Projet], 2021.4
Instructions naturelles: Benchmarking Generalization aux nouvelles tâches à partir d'instructions en langage naturel. Préimprimée.
Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi. [PDF], [Projet], 2021.4
Invites fantastiquement commandées et où les trouver: surmonter la sensibilité à quelques coups d'ordre invite . Préimprimée.
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp . [PDF] 2021.4
Les modèles de langage de méta-tun pour répondre mieux. Préimprimée.
Ruiqi Zhong, Kristy Lee *, Zheng Zhang *, Dan Klein . [PDF] 2021.4
Vraie-shot apprentissage avec des modèles de langue . Préimprimée.
Ethan Perez, Douwe Kiela, Kyunghyun Cho . [PDF], [Projet] 2021.5
Pourquoi les modèles de langue pré-étendue aident-ils aux tâches en aval? Une analyse de la tête et du réglage rapide . Préimprimée.
Colin Wei a chanté Michael Xie Tengyu Ma [PDF], 2021.6
Les modèles basés sur des invites comprennent-ils vraiment la signification de leurs invites? Préimprimée.
Albert Webson, Ellie Pavlick. [PDF], [Projet] 2021.9
Éviter l'heuristique d'inférence dans les finetuning rapides à quelques coups. Préimprimée.
Prasetya Ajie Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych. [PDF], 2021.9
Vers une vision unifiée de l'apprentissage du transfert économe en paramètres. Préimprimée.
Junxian He, Chunting Zhou, Xuezhe MA, Taylor Berg-Kirkpatrick, Graham Neubig. [PDF], 2021.10
Exploration du sous-espace de tâche intrinsèque de faible dimension via un réglage rapide. Préimprimée.
Yujia Qin, Xiaozhi Wang, Yusheng Su, Yankai Lin, Ning Ding, Zhiyuan Liu, Juanzi Li, Lei Hou, Peng Li, Maosong Sun, Jie Zhou [PDF]
Exploration de la vulnérabilité universelle du paradigme d'apprentissage basé sur une base rapide. Résultats de NAACL 2022.
Lei Xu, Yangyi Chen, Ganqu Cui, Hongcheng Gao, Zhiyuan Liu [PDF], [Projet]
Repenser le rôle des démonstrations: qu'est-ce qui fait du travail d'apprentissage en contexte ?. Arxiv 2022.
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], [Project]
Le réglage rapide économe en paramètres fait des retrievers de texte neuronal généralisés et calibrés. Préimprimée.
Weng Lam Tam, Xiao Liu, Kaixuan JI, Lilong Xue, Yuxiao Dong, Jiahua Liu, Maodi HU, Jie Tang [PDF] [Projet]
Ignorez l'invite précédente: Techniques d'attaque pour les modèles de langue. Best Paper Award @ Neirips ML Safety Workshop 2022.
Fábio Perez, Ian Ribeiro [PDF] [Projet], 2022.11
Cette section contient l'amélioration des méthodes de réglage de base de base, inclut, mais sans s'y limiter, l'utilisation de ressources supplémentaires pour améliorer les performances, constituer les lacunes des travaux précédents ou effectuer un réglage rapide de manière non habituelle.
Calibrer avant utilisation: améliorer les performances à quelques coups des modèles de langage. Préimprimée.
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh. [PDF], [Projet], 2021.2
Génération de texte avec un apprentissage Q efficace (doux). Préimprimée.
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu. [PDF], 2021.6
Invite bien informé: incorporer les connaissances dans un verbin rapide pour la classification du texte. Préimprimée.
Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Juanzi Li, Maosong Sun. [PDF], [Projet], 2021.8
Modèle de langage de la canne bruyante, invitation pour la classi fi cation de texte à quelques coups. Préimprimée.
Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer. [PDF], 2021.8
Adapter les modèles de langage pour l'apprentissage zéro-shot par méta-tuning sur l'ensemble de données et la collection invite.
Ruiqi Zhong, Kristy Lee * Zheng Zhang *, Dan Klein. [PDF], 2021.9
Revisiter l'auto-entraînement pour l'apprentissage à petit coup du modèle de langue. Préimprimée.
Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li. [PDF], 2021.10
Liste: l'auto-formation Lite fait des apprenants efficaces à quelques tirs. Préimprimée.
Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed Hassan Awadallah, Jianfeng Gao. [PDF], 2021.10
Verbalizer prototypique pour un réglage à quelques tirs basé sur une base. ACL 2022.
Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu . [PDF], [Projet], 2022.3
BBTV2: L'optimisation pure de la boîte noire peut être comparable à la descente de gradient pour l'apprentissage à quelques coups. Préimprimée.
Tianxiang Sun, Zhengfu He, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF] [Projet], 2022.5
Cette section contient les méthodes d'apprentissage rapides conçues pour diverses tâches PNL.
Penser à haute voix: la génération de contexte dynamique améliore les performances de raisonnement zéro de GPT-2. Préimprimée.
Gregor Betz, Kyle Richardson, Christian Voigt. [PDF] 2021.3
GPT3MIX: tirant parti des modèles de langue à grande échelle pour l'augmentation du texte. Préimprimée.
Kang Min Yoo, Dongju Park, Jaewook Kang, Sang-woo Lee, Woomyeong Park. [PDF] 2021.4
Les modèles de langage contraints donnent des analyseurs sémantiques à quelques coups. Préimprimée.
Richard Shin, Christopher H. Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Paul, Dan Klein, Jason Eisner, Benjamin Van Durme. [PDF] 2021.4
Étiqueter la verbalisation et l'implication pour une extraction efficace de relation zéro et à quelques tirs. EMNLP 2021.
Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre. [PDF], 2021.4
PADA: une approche autorégressive rapide pour l'adaptation à la préimpression des domaines invisibles .
Eyal Ben-David, Nadav Oved, Roi Reichart. [PDF] [Projet] 2021.5
Apprentissage rapide pour la saisie des entités à grain fin. Préimprimée.
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Xie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi Li, Hong-Gee Kim [PDF], 2021.8
Knowprorompt: Taune rapide de connaissances avec une optimisation synergique pour l'extraction des relations. Www 2022.
Xiang Chen, Xin Xie, Ningyu Zhang, Jiahuan Yan, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. . [PDF], [Projet], 2021.9
Explorer l'apprentissage rapide basé sur un coup pour la génération de dialogue fondée. Préimprimée.
Chujie Zheng, Minlie Huang. [PDF], 2021.9
SentipRomppt: Connaissance des sentiments a amélioré l'invite pour l'analyse des sentiments basés sur l'aspect. Préimprimée.
Chengxi Li, Feiyu Gao, Jiajun Bu, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu. [PDF] 2021.9
Réglage rapide sans modèle pour le NER à quelques coups. Préimprimée.
Ruotian MA *, Xin Zhou *, Tao Gui, Yiding Tan, Qi Zhang, Xuanjing Huang. [PDF], 2021.9
Apprendre à provoquer des modèles de vision. Préimprimée.
Kaiyang Zhou, Jingkang Yang, Chen Change Loy et Ziwei Liu. [PDF], 2021.9
CPT: réglage rapide coloré pour les modèles pré-formés en langue de vision. Préimprimée.
Yuan Yao *, Ao Zhang *, Zhengyan Zhang, Zhiyuan Liu, Tat-Seng Chua, Maosong Sun. [PDF], 2021.10
MSP: Invitation en plusieurs étapes pour faire de modèles de langue pré-formés de meilleurs traducteurs. Préimprimée.
Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu. [PDF], 2021.10
Bot à quelques coups: apprentissage rapide pour les systèmes de dialogue. Préimprimée.
Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, Pascale Fung [PDF], 2021.10
Contrôler les préfixes pour la génération de texte. Préimprimée.
Jordan Clive, Kris Cao, Marek Rei. [PDF], 2021.10
La puissance du réglage rapide pour l'analyse sémantique à faible ressource. Préimprimée.
Nathan Schucher, Siva Reddy, Harm de Vries. [PDF], 2021.10
Une bonne invite vaut des millions de paramètres? Apprentissage basé sur une faible ressource pour les modèles de langue visuelle.
Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren. [PDF]
Lightner: un cadre génératif léger avec une attention guidée rapide pour le NER à faible ressource. Coling 2022.
Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo SI, Huajun Chen, Ningyu Zhang. [PDF], [Projet], 2021.8
UnifiedSkg: Unifier et multitâche des connaissances structurées à la terre avec des modèles de langage text-to-texte.
Tianbao Xie *, Chen Henry Wu *, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Wang, Victor Zhong, Bailin Wang, Chengzu Li, Connor Boyle, Ansong, Ni, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu. [PDF], [Projet], [Site Web], 2022.1
Le réglage rapide de l'ontologie a amélioré l'apprentissage à quelques coups. Www 2022.
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen. [PDF], 2022.1
Apprendre à provoquer un apprentissage continu. CVPR 2022.
Zifeng Wang, Zizhao Zhang, Chen-Yu Lee, Han Zhang, Ruoxi Sun, Xiaoqi Ren, Guolong Su, Vincent Perot, Jennifer Dy, Tomas Pfister. [PDF], [Projet], 2021.12
Extraction de relation comme examen des livres ouverts: réglage rapide amélioré de la récupération. Sigir 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [Projet], 2022.5
Une bonne guise visuelle fait un meilleur extracteur: préfixe visuel hiérarchique pour les entités multimodales et l'extraction de relation. Résultats de NAACL 2022.
Xiang Chen, Ningyu Zhang, Lei Li, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [Projet], 2022.5
Chaîne de réflexion suscitant un raisonnement dans des modèles de grande langue. Preprint 2022.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc LE, Denny Zhou. [PDF]
L'auto-cohérence améliore le raisonnement de la chaîne de pensée dans les modèles de langues. Preprint 2022.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc LE, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [PDF]
Les grands modèles de langue sont des raisonneurs à tirs zéro. Preprint 2022.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [PDF]
La moindre incitation la plus importante permet un raisonnement complexe dans les modèles de grande langue. Preprint 2022.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [PDF]
Invite maieutique: raisonnement logiquement cohérent avec des explications récursives. Preprint 2022.
Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
À l'avance de faire de modèles de langue de meilleurs raisonneurs. Preprint 2022.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen [PDF]
Apprendre à composer des invites douces pour l'apprentissage de la composition zéro. Preprint 2022.
Nihal V. Nayak *, Peilin Yu *, Stephen H. Bach [PDF], [Projet]
Découpler les connaissances de la mémorisation: apprentissage rapide de la récupération. Neirips 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Xiaozhuan Liang, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [Projet], 2022.5
Exploration de la généralisation de la longueur dans les modèles de grande langue. Preprint 2022.
Cem Anil, Yuhuai Wu, Anders Andreassen, Aitor Lewkowycz, Vedant Misra, Vinay Ramasesh, Ambrose Slone, Guy Gur-Ari, Ethan Dyer, Behnam Neyshabur [PDF]
Demandez-moi n'importe quoi: une stratégie simple pour inciter les modèles linguistiques. Preprint 2022.
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré [PDF]
Mesurer et rétrécir l'écart de compositionnalité dans les modèles de langage Preprint 2022.
OFir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis [PDF]
RLPrompt: Optimisation des invites de texte discrètes avec Reinforcement Learning Preprint 2022.
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
Raisonnement avec un modèle de langue Invite: une préimpression de l'enquête 2022.
Shuofei Qiao, Yixin OU, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [PDF]
Nous remercions Yujia Qin, Xiachong Feng, Chenglei SI, Tianbao Xie, Muhtasham oblokulov pour la recommandation du papier.
Ne vous inquiétez pas si vous mettez tout cela mal, nous les réparerons pour vous. Contribuez et faites la promotion de votre travail formidable ici!
Si vous avez recommandé une œuvre qui n'était pas la vôtre, vous serez ajouté à la liste des contributeurs (assurez-vous de fournir vos informations dans d'autres contributeurs).