Hemos lanzado un kit de herramientas de aprendizaje de aviso de código abierto, ¡consulte OpenPrompt!
¡Alentamos encarecidamente a los investigadores que desean promover su trabajo fantástico a la comunidad para hacer una solicitud de extracción para actualizar la información de su documento! (Ver detalles contribuyentes)
La adaptación efectiva de los modelos previamente capacitados podría ser probada desde diferentes perspectivas. El aprendizaje inmediato se centra más en la organización del procedimiento de capacitación y la unificación de diferentes tareas, mientras que la ajuste delta (métodos eficientes de parámetros) proporciona otra dirección desde la optimización específica de los modelos previamente capacitados. ¡Visite Deltapapers!
Documentos de lectura imprescindible en un ajuste basado en el aviso para modelos de idiomas previamente capacitados. La lista de documentos se mantiene principalmente por Ning Ding y Shengding Hu. ¡Mira este repositorio para ver las últimas actualizaciones!
Esta es una lista de documentos sobre el ajuste basado en el aviso para modelos de lenguaje previamente capacitados a gran escala. A diferencia del ajuste fino tradicional que utiliza un clasificador explícito, la afinación basada en el aviso utiliza directamente los modelos previamente capacitados para realizar las tareas de pre-entrenamiento para la clasificación o regresión.
La abreviatura del trabajo.
Las características clave en términos de aprendizaje rápido utilizado en el trabajo.
La tarea principalmente explorada del trabajo.
La propiedad explorada principalmente de los métodos de aprendizaje rápido en el trabajo.
Esta sección contiene los documentos que generalizan las tendencias generales en el procesamiento reciente del lenguaje natural con modelos grandes (previos a los petróleo).
OpenPrompt: un marco de código abierto para el aprendizaje adicional. Preimpresión.
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zheng, Maoson Sun [PDF] [Proyecto], 2021.11
Modelos previamente capacitados: pasado, presente y futuro. Preimpresión.
Xu Han, Zhengyan Zhang, Ning Ding, Yuxian Gu, Xiao Liu, Yuqi Huo, Jiezhong Qiu, Yuan Yao, Ao Zhang, Liang Zhang, Wentao Han, Minlie Huang, Qin Jin, Yanyan Lan, Yang, Zhiyuan Liu, Zhiwu, Zhiwu, Qin Jin, Yanyan Lan, Yang, Zhiyuan Liu, Zhiwu, Zhiwu, Qin Jin, Yanyan Lan, Yang, Zhiyuan Liu, Zhiwu, Zhiwu, Zhiwu, Zhiwu, , Xipeng Qiu, Ruihua Song, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu. [PDF], 2021.6
Precinete, aviso y predicen: una encuesta sistemática de métodos de solicitación en el procesamiento del lenguaje natural. Preimpresión.
Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi y Graham Neubig. [PDF] [Proyecto], 2021.7
Cambio de paradigma en el procesamiento del lenguaje natural. Investigación de inteligencia de máquinas.
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [Proyecto], 2021.9
Esta sección contiene los trabajos piloto que podrían contribuir a la prevalencia del paradigma de aprendizaje rápido.
Aprendizaje de transferencia de parámetros-eficiente para PNL. ICML 2019.
Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, Sylvain Gelly . [PDF], [proyecto], 2019.6
Explorando los límites del aprendizaje de transferencia con un transformador de texto a texto unificado. Jmlr. Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. [PDF], [proyecto]. 2019.10.
¿Modelos de idiomas como bases de conocimiento? EMNLP 2019.
Fabio Petroni, Tim Rocktaschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel. [PDF], [proyecto], 2019.9
¿Cómo podemos saber lo que saben los modelos de idiomas? TACL 2020.
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neubig . [PDF], [proyecto], 2019.11
Los modelos de idiomas son alumnos de pocos disparos. Neurips 2020.
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, ADATRES Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. [PDF], [Sitio web], 2020.5
Adaprpt: capacitación en modelo adaptativo para la PNL basada en el aviso
Yulong Chen, Yang Liu, Li Dong, Shuohang Wang, Chenguang Zhu, Michael Zeng, Yue Zhang [PDF], 2022.02
Esta sección contiene la exploración en los aspectos básicos de la sintonización rápida, como la plantilla, el verbalizador, los paradigmas de entrenamiento, etc.
Explotando preguntas de Cloze para pocas clasificaciones de texto de disparo e inferencia del lenguaje natural. EACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [proyecto], 2020.1
Lo que importa no es solo el tamaño: los modelos de lenguaje pequeño también son alumnos de pocos disparos. NAACL 2021.
Timo Schick, Hinrich Schütze. [PDF], [proyecto], 2020.9
Autoprompt: obteniendo el conocimiento de los modelos de idiomas con indicaciones generadas automáticamente. Preimpresión.
Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, Sameer Singh. [PDF], [Sitio web], 2020.10
Identificar automáticamente palabras que pueden servir como etiquetas para la clasificación de texto de pocos disparos. Coling 2020.
Timo Schick, Helmut Schmid, Hinrich Schütze. [PDF], [proyecto], 2020.12
Hacer que los modelos de lenguaje previamente entrenados sean mejores estudiantes de pocos disparos. ACL 2021.
Tianyu Gao, Adam Fisch, Danqi Chen. [PDF], [proyecto], 2020.12
Prefijo-ajuste: optimización de indicaciones continuas para la generación . ACL 2021.
Xiang Lisa Li, Percy Liang. [PDF], [proyecto], 2021.1
Programación rápida para modelos de lenguaje grandes: más allá del paradigma de pocos disparos. Preimpresión.
Laria Reynolds, Kyle McDonell. [PDF], 2021.2
Mejorar y simplificar el entrenamiento de explotación de patrones. Preimpresión.
Derek Tam, Rakesh R Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel. [PDF], 2021.3
GPT también entiende. Preimpresión.
Xiao Liu, Yanan Zheng, Zhengxiao Du, Ming Ding, Yujie Qian, Zhilin Yang, Jie Tang . [PDF], [proyecto], 2021.3
El poder de la escala para el ajuste de solicitud de parámetro-eficiente. Preimpresión.
Brian Lester, Rami al-Rfou, Noah Constant . [PDF], [proyecto], 2021.4
Aprender a preguntar: consulta LMS con mezclas de indicaciones suaves. NAACL 2021.
Guanghui Qin, Jason Eisner. [PDF] [proyecto], 2021.4
El sondeo objetivo es [máscara]: aprendizaje versus aprender a recordar. NAACL 2021.
Zexuan Zhong, Dan Friedman, Danqi Chen. [PDF], [proyecto], 2021.4
Reduce las indicaciones y parámetros: aprendizaje simple de pocos disparos con modelos de idiomas. Preimpresión.
Robert L. Logan IV, Ivana Balažević, Eric Wallace, Fabio Petroni, Sameer Singh, Sebastian Riedel . [PDF], 2021.6
Warp: reprogramación adversa a nivel de palabra. ACL 2021.
Karen Hambardzumyan, Hrant Khachatrian, Jonathan May. [PDF], [proyecto], 2021.6
PTR: ANTINGUNO ANTERIOR con reglas para la clasificación de texto. Preimpresión.
Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun. [PDF], 2021.5
NSP-Bert: un alumno de disparo cero basado en un aviso a través de una tarea original de pre-entrenamiento--Predicción de la siguiente oración
Yi Sun*, Yu Zheng*, Chao Hao, Hangping Qiu , [PDF], [Proyecto], 2021.9
Los modelos de idiomas finetos son alumnos de cero disparos.
Ason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan du, Andrew M. Dai, Quoc V. LE. [PDF], 2021.9
PPT: ajuste de pedido previamente capacitado para un aprendizaje de pocos disparos
Yuxian Gu*, Xu Han*, Zhiyuan Liu, Minlie Huang. [PDF], 2021.9
El aviso diferenciable hace que los modelos de lenguaje previamente capacitados sean mejores alumnos de pocos disparos. ICLR 2022.
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen Bi, Chuanqi Tan, Fei Huang, Huajun Chen. [PDF], [proyecto], 2021.10
La capacitación impulsada por múltiples tareas permite la generalización de tareas de disparo cero.
Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Urmish Thakker, Shanya Sharma, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala NEERAZJ, JOSHEEST , Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Stella Biderman, Leo Gao, Tali Bers, Thomas Wolf, Alexander M. Rush. [PDF], 2021.10
P-ajuste P V2: el ajuste de inmediato puede ser comparable a Finetuning universalmente a través de escalas y tareas. ACL 2022.
Xiao Liu, Kaixuan JI, Yicheng Fu, Zhengxiao Du, Zhilin Yang, Jie Tang [PDF], [Proyecto], 2021.10
Ajuste de la caja negra para el model de lenguaje como servicio. ICML 2022.
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF], [Proyecto], 2022.1
Aprendizaje indicador de la caja negra para modelos de idiomas previamente capacitados. Preimpresión.
Shizhe Diao, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
Modelos de lenguaje vinculante en idiomas simbólicos. Preimpresión.
Zhoujun Cheng*, Tianbao Xie*, Peng Shi, Chengzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettleemoyer, Noah A. Smith, Tao Yu [PDF], [proyecto], [sitio web] , 2022.10
Un catálogo de patrones rápidos para mejorar la ingeniería rápida con CHATGPT. Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, Douglas C. Schmidt [PDF], 2023.2
Esta sección contiene el análisis de métodos de aprendizaje rápido, que incluye, entre otros, el trabajo de aprendizaje rápido, varias propiedades de los métodos de aprendizaje rápido, limilación de métodos de aprendizaje rápido.
¿Qué hace buenos ejemplos en contexto para GPT-3? . Preimpresión.
Jiachang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, Weizhu Chen . [PDF] 2021.1
¿Cuántos puntos de datos vale un aviso? NAACL 2021.
Teven le Scao, Alexander M. Rush. [PDF], [proyecto], 2021.3
Competencia de forma superficial, por qué la respuesta de mayor probabilidad no siempre es correcta. Preimpresión. Preimpresión.
Ari Holtzman, Peter West, versado Schwartz, Yejin Choi, Luke Zettlemoyer. [PDF] [proyecto], 2021.4
Instrucciones naturales: generalización de evaluación comparativa a nuevas tareas de instrucciones de lenguaje natural. Preimpresión.
Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi. [PDF], [proyecto], 2021.4
Solicitudes fantásticamente ordenadas y dónde encontrarlas: superar la sensibilidad de pedido de pocos disparos . Preimpresión.
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp . [PDF] 2021.4
Los modelos de lenguaje meta-ajuste para responder se indican mejor. Preimpresión.
Ruiqi Zhong, Kristy Lee*, Zheng Zhang*, Dan Klein . [PDF] 2021.4
Verdadero aprendizaje de pocos disparos con modelos de idiomas . Preimpresión.
Ethan Pérez, Douwe Kiela, Kyunghyun Cho . [PDF], [proyecto] 2021.5
¿Por qué los modelos lingüísticos previos a la aparición ayudan en tareas aguas abajo? Un análisis de la cabeza y el juicio rápido . Preimpresión.
Colin Wei Sang Michael Xie Tengyu Ma [PDF], 2021.6
¿Los modelos basados en el aviso realmente entienden el significado de sus indicaciones? Preimpresión.
Albert Webson, Ellie Pavlick. [PDF], [proyecto] 2021.9
Evitar la heurística de inferencia en pocos disparos basados en el fino. Preimpresión.
Prasetya Ajie Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych. [PDF], 2021.9
Hacia una visión unificada del aprendizaje de transferencia de parámetros y eficientes. Preimpresión.
Junxian He, Chunding Zhou, Xuezhe MA, Taylor Berg-Kirkpatrick, Graham Neubig. [PDF], 2021.10
Explorando el subespacio de tareas intrínsecas de baja dimensión a través de un ajuste rápido. Preimpresión.
Yujia Qin, Xiaozhi Wang, Yusheng Su, Yankai Lin, Ning Ding, Zhiyuan Liu, Juanzi Li, Lei Hou, Peng Li, Maosong Sun, Jie Zhou [PDF]
Explorando la vulnerabilidad universal del paradigma de aprendizaje basado en el aviso. Hallazgos de NAACL 2022.
Lei Xu, Yangyi Chen, Ganqu Cui, Hongcheng Gao, Zhiyuan Liu [PDF], [Proyecto]
Repensar el papel de las demostraciones: ¿Qué hace que el aprendizaje en contexto funcione? ARXIV 2022.
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], [Proyecto]
La sintonización rápida eficiente de los parámetros hace que los recolectores de texto neuronales generalizados y calibrados. Preimpresión.
Weng Lam Tam, Xiao Liu, Kaixuan JI, Lilong Xue, Yuxiao Dong, Jiahua Liu, Maodi Hu, Jie Tang [PDF] [Proyecto]
Ignore el aviso anterior: técnicas de ataque para modelos de lenguaje. Mejor premio de papel @ Neurips ML Taller de seguridad 2022.
Fábio Pérez, Ian Ribeiro [PDF] [Proyecto], 2022.11
Esta sección contiene la mejora de los métodos de ajuste de inmediato básicos, incluye, entre otros, el uso de recursos adicionales para mejorar las actuaciones, constituir las deficiencias de los trabajos anteriores o realizar un ajuste rápido de maneras poco habituales.
Calibrar antes de su uso: Mejora del rendimiento de pocos disparos de los modelos de idiomas. Preimpresión.
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh. [PDF], [proyecto], 2021.2
Generación de texto con aprendizaje Q eficiente (suave). Preimpresión.
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu. [PDF], 2021.6
Agradable con conocimiento: incorporar el conocimiento en el verbalizador rápido para la clasificación de texto. Preimpresión.
Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Juanzi Li, Maosong Sun. [PDF], [proyecto], 2021.8
Modelo de lenguaje de canal ruidoso solicitar la clasificación de texto de pocos disparos. Preimpresión.
Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer. [PDF], 2021.8
Adaptando modelos de lenguaje para el aprendizaje de disparo cero mediante meta-ajuste en el conjunto de datos y la recopilación de inmediato.
Ruiqi Zhong, Kristy Lee* Zheng Zhang*, Dan Klein. [PDF], 2021.9
Revisando la autocomisión para el aprendizaje de pocos disparos del modelo de idioma. Preimpresión.
Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li. [PDF], 2021.10
Lista: el autocreno de lite hace que los alumnos de pocos disparos eficientes. Preimpresión.
Yaqing Wang, Subhabrata Mukherjee, Xiaodong Liu, Jing Gao, Ahmed Hassan Awadallah, Jianfeng Gao. [PDF], 2021.10
Verbalizador prototípico para un ajuste de pocos disparos basado en el aviso. ACL 2022.
Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu . [PDF], [proyecto], 2022.3
BBTV2: la optimización pura de la caja negra puede ser comparable al descenso de gradiente para el aprendizaje de pocos disparos. Preimpresión.
Tianxiang Sun, Zhengfu HE, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF] [Proyecto], 2022.5
Esta sección contiene los métodos de aprendizaje inmediato diseñados para varias tareas de PNL.
Pensando en voz alta: la generación de contexto dinámico mejora el rendimiento de razonamiento de disparo cero de GPT-2. Preimpresión.
Gregor Betz, Kyle Richardson, Christian Voigt. [PDF] 2021.3
GPT3MIX: Aprovechando modelos de lenguaje a gran escala para el aumento de texto. Preimpresión.
Kang Min Yoo, Dongju Park, Jaewook Kang, Sang-Woo Lee, Woomyeong Park. [PDF] 2021.4
Los modelos de lenguaje restringidos producen analizadores semánticos de pocos disparos. Preimpresión.
Richard Shin, Christopher H. Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme. [PDF] 2021.4
Verbalización de etiquetas e implicación para una extracción efectiva de relación cero y pocas disparos. EMNLP 2021.
Oscar Sainz, Oier López de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre. [PDF], 2021.4
PADA: Un enfoque autorregresivo basado en aviso para la adaptación a la preimpresión de dominios invisibles .
Eyal Ben-David, Nadav Oved, Roi Reichart. [PDF] [proyecto] 2021.5
Learning-Learning para la tipificación de entidad de grano fino. Preimpresión.
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Xie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi LI, Hong-Gee Kim [PDF], 2021.8
KnowPrompt: Conocimiento de conocimiento Atentamiento con optimización sinérgica para la extracción de relaciones. Www 2022.
Xiang Chen, Xin Xie, Ningyu Zhang, Jiahuan Yan, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. . [PDF], [proyecto], 2021.9
Explorando el aprendizaje de pocos disparos basado en el aviso para la generación de diálogo fundamental. Preimpresión.
Chujie Zheng, Minlie Huang. [PDF], 2021.9
SENTIPROMPT: Conocimiento de sentimiento mejorado con el ajuste de inmediato para el análisis de sentimientos basado en aspectos. Preimpresión.
Chengxi Li, Feiyu Gao, Jiajun BU, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu. [PDF] 2021.9
Ajuste de inmediato sin plantilla para pocos disparos ner. Preimpresión.
Ruotian Ma*, Xin Zhou*, Tao Gui, Yiding Tan, Qi Zhang, Xuanjing Huang. [PDF], 2021.9
Aprender a solicitar modelos en idioma de visión. Preimpresión.
Kaiyang Zhou, Jingkang Yang, Chen Change Loy y Ziwei Liu. [PDF], 2021.9
CPT: Colorido ajuste de inmediato para modelos de lenguaje de visión previamente capacitados. Preimpresión.
Yuan Yao*, Ao Zhang*, Zhengyan Zhang, Zhiyuan Liu, Tat-Seng Chua, Maosong Sun. [PDF], 2021.10
MSP: solicitante de múltiples etapas para hacer que los modelos de lenguaje previamente entrenados sean mejores traductores. Preimpresión.
Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu. [PDF], 2021.10
Bot de pocos disparos: aprendizaje basado en el aviso para sistemas de diálogo. Preimpresión.
Andrea Madotto, Zhaojiang Lin, Genta Indra Winata, Pascale Fung [PDF], 2021.10
Controle los prefijos para la generación de texto. Preimpresión.
Jordan Clive, Kris Cao, Marek Rei. [PDF], 2021.10
El poder de la rápida ajuste para un análisis semántico de bajo recurso. Preimpresión.
Nathan Schucher, Siva Reddy, Harm de Vries. [PDF], 2021.10
¿Un buen mensaje vale millones de parámetros? Aprendizaje rápido de baja recursos para modelos en idioma de visión.
Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren. [PDF]
Lightner: un marco generativo liviano con atención guiada por aviso para NER de baja recursos. Coling 2022.
Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo SI, Huajun Chen, Ningyu Zhang. [PDF], [proyecto], 2021.8
Unifiedskg: conocimiento estructurado de unificaciones y multitarea con modelos de lenguaje de texto a texto.
Tianbao Xie*, Chen Henry Wu*, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Wang, Victor Zhong, Bailin Wang, Chengzu Li, Connor Boyle, Ansong Ni, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu. [PDF], [Proyecto], [Sitio web], 2022.1
Atrada de inmediato mejorada en la ontología para un aprendizaje de pocos disparos. Www 2022.
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen. [PDF], 2022.1
Aprender a solicitar el aprendizaje continuo. CVPR 2022.
Zifeng Wang, Zizhao Zhang, Chen-Yu Lee, Han Zhang, Ruoxi Sun, Xiaoqi Ren, Guolong Su, Vincent Perot, Jennifer Dy, Tomas Pfister. [PDF], [proyecto], 2021.12
Extracción de relaciones como examen de libro abierto: ajuste rápido de recuperación. Sigir 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Chuanqi Tan, Fei Huang, Luo SI, Huajun Chen. [PDF], [proyecto], 2022.5
La buena guía visual hace un mejor extractor: prefijo visual jerárquico para entidad multimodal y extracción de relaciones. Hallazgos de NAACL 2022.
Xiang Chen, Ningyu Zhang, Lei Li, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [proyecto], 2022.5
La cadena de pensamiento provoca un razonamiento en modelos de idiomas grandes. Preimpresión 2022.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, Denny Zhou. [PDF]
La autoconsistencia mejora el razonamiento de la cadena de pensamiento en los modelos de idiomas. Preimpresión 2022.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. [PDF]
Los modelos de idiomas grandes son razonadores de cero disparos. Preimpresión 2022.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. [PDF]
La solicitud de menos a la mayoría permite un razonamiento complejo en modelos de idiomas grandes. Preimpresión 2022.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi. [PDF]
Información de Maieutic: razonamiento lógicamente consistente con explicaciones recursivas. Preimpresión 2022.
Jaehun Jung, Lianhui Qin, Sean Welleck, Feeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
Con el avance de hacer que los modelos de idiomas sean mejores razonadores. Preimpresión 2022.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen [PDF]
Aprender a componer indicaciones suaves para el aprendizaje compositivo de disparo cero. Preimpresión 2022.
Nihal V. Nayak*, Peilin Yu*, Stephen H. Bach [PDF], [Proyecto]
Conocimiento de desacoplamiento de la memorización: aprendizaje rápido de recuperación. Neurips 2022.
Xiang Chen, Lei Li, Ningyu Zhang, Xiaozhuan Liang, Shumin Deng, Chuanqi Tan, Fei Huang, Luo Si, Huajun Chen. [PDF], [proyecto], 2022.5
Explorando la generalización de la longitud en modelos de idiomas grandes. Preimpresión 2022.
Cem Anil, Yuhuai Wu, Anders Andreassen, Aitor Lewkowycz, Vedant Misra, Vinay Ramasesh, Ambrose Slone, Guy Gur-Ari, Ethan Dyer, Behnam Neyshabur [PDF]
Pregúntame cualquier cosa: una estrategia simple para solicitar modelos de idiomas. Preimpresión 2022.
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré [PDF]
Medir y reducir la brecha de composición en los modelos de lenguaje Preimpresión 2022.
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis [PDF]
RLPROMPT: Optimización de las indicaciones de texto discretos con preimpresión de aprendizaje de refuerzo 2022.
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
Razonamiento con indicación del modelo de idioma: una preimpresión de la encuesta 2022.
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [PDF]
Agradecemos a Yujia Qin, Xiachong Feng, Chenglei SI, Tianbao Xie, Muhtasham Oblokulov por la recomendación del documento.
No se preocupe si pone todo esto mal, los arreglaremos para usted. ¡Solo contribuye y promueve su increíble trabajo aquí!
Si recomendó un trabajo que no fuera suyo, se le agregará a la lista de contribuyentes (asegúrese de proporcionar su información en otros contribuyentes).