Мы выпустили инструментарий для быстрого обучения с открытым исходным кодом, посетите OpenPrompt!
Мы настоятельно рекомендуем исследователям, которые хотят продвигать свою фантастическую работу в сообществе, чтобы сделать запрос на то , чтобы обновить информацию своей статьи! (См. Подробные подробности)
Эффективная адаптация предварительно обученных моделей может быть исследована с разных точек зрения. Быстрое обучение больше внимания уделяется организации процедуры обучения и объединению различных задач, в то время как настройка Delta (эффективные методы параметров) обеспечивает другое направление от конкретной оптимизации предварительно обученных моделей. Проверьте Deltapapers!
Обязательные документы на настройке на основе быстрого на основе предварительно обученных языковых моделей. Список бумаги в основном украшен Ning Ding и Shengding Hu. Посмотрите этот репозиторий для последних обновлений!
Это бумажный список о быстрого настройки для крупномасштабных предварительно обученных языковых моделей. В отличие от традиционной тонкой настройки, в котором используется явный классификатор, настройка на основе быстрого на основе быстрого на основе быстрого использования предварительно обученных моделей для выполнения задач предварительного обучения для классификации или регрессии.
Сокращение работы.
Ключевые функции с точки зрения быстрого обучения, используемого в работе.
В основном исследуемая задача работы.
В основном изучалась свойство методов быстрого обучения в работе.
В этом разделе содержится документы, которые обзор общих тенденций в недавней обработке естественного языка с большими (предварительными) моделями.
OpenPrompt: рамка с открытым исходным кодом для быстрого обучения. Препринт.
Ning Ding, Shengding Hu, Weilin Zhao, Yulin Chen, Zhiyuan Liu, Hai-Tao Zhheng, Maoson Sun [PDF] [Project], 2021.11
Предварительно обученные модели: прошлое, настоящее и будущее. Препринт.
Сюй Хан, Чженгьян Чжан, Нин Дин, Юсиан Гу, Сяо Лю, Юки Хуо, Цзехон Цю, Юань Яо, Ао Чжан, Лян Чжан, Вено Хан, Минли Хуанг, Цинь, Яньян Лан, Ян Ли, Зию, Зиу, Цинь, Яньян Лан, Ян Ли, Зия, Зиу, Цинь, Яньян Лан, Ян Ли , Xipeng Qiu, Ruihua Song, Jie Tang, Ji-Rong Wen, Jinhui Yuan, Wayne Xin Zhao, Jun Zhu. [PDF], 2021.6
Предварительный тренировки, быстро и прогнозируйте: систематический обзор методов подсказки в обработке естественного языка. Препринт.
Лю, Пенгфей, Вейца Юань, Джинлан Фу, Чжэнбао Цзян, Хироаки Хаяси и Грэм Нойбиг. [PDF] [Project], 2021.7
Сдвиг парадигмы в обработке естественного языка. Исследование машинного интеллекта.
Tianxiang Sun, Xiangyang Liu, Xipeng Qiu, Xuanjing Huang [PDF] [Project], 2021.9
Этот раздел содержит пилотные работы, которые могут способствовать распространенности парадигмы быстрого обучения.
Параметр Эффективного переноса обучения для NLP. ICML 2019.
Нил Хоулсби, Андрей Джургиу, Станислав Джастзбски, Бруна Моррон, Квентин де Ларуссильхе, Андреа Гесмундо, Мона Аттарияян, Сильвен Гелли . [PDF], [Project], 2019.6
Изучение пределов обучения передачи с помощью единого трансформатора текста в текст. Jmlr. Колин Раффель, Ноам Шейзер, Адам Робертс, Кэтрин Ли, Шаран Наранг, Майкл Матена, Янки Чжоу, Вэй Ли, Питер Дж. Лю. [PDF], [Project]. 2019.10.
Языковые модели как базы знаний? EMNLP 2019.
Фабио Петрони, Тим Рокташиль, Патрик Льюис, Антон Бахтин, Юсиан Ву, Александр Х. Миллер, Себастьян Ридель. [PDF], [Project], 2019.9
Как мы можем узнать, какие языковые модели знают? TACL 2020.
Чжэнбао Цзян, Фрэнк Ф. Сюй, Джун Араки, Грэм Нойбиг . [PDF], [Project], 2019.11
Языковые модели-это несколько выстрелов. Neurips 2020.
Том Б. Браун, Бенджамин Манн, Ник Райдер, Мелани Суббия, Джаред Каплан, Прафулла Дхаривал, Арвинд Нилакантан, Пранав Шьям, Гириш Састри, Аманда Аскелл, Сандхини Агарвал, Ариэль Герберт-Вус, Гретхен Кру, Том Хэниген, Ревон, Адита Арберт-Вус, Гретхен Кру. Рамеш, Даниэль М. Зиглер, Джеффри Ву, Клеменс Винтер, Кристофер Хесс, Марк Чен, Эрик Сиглер, Матеуш Литвин, Скотт Грей, Бенджамин Шахмат, Джек Кларк, Кристофер Бернер, Сэм МакКандлиш, Алек Рэдфорд, Илью Сатскевер, Дарио Амодеей. [PDF], [веб -сайт], 2020.5
Adaprompt: адаптивная модель обучения для быстрого на основе НЛП
Юлонг Чен, Ян Лю, Ли Донг, Шуоханг Ванг, Ченгуан Чжу, Майкл Зенг, Юэ Чжан [PDF], 2022.02
Этот раздел содержит исследование основных аспектов быстрого настройки, таких как шаблон, вербализатор, тренировочные парадигмы и т. Д.
Использование вопросов об убоге для нескольких выстрелов в классификацию текста и вывод естественного языка. EAL 2021.
Тимо Шик, Хинрих Шютце. [PDF], [Project], 2020.1
Это не только размер: модели мелких языков также являются учащимися. NAACL 2021.
Тимо Шик, Хинрих Шютце. [PDF], [Project], 2020.9
AutoPrompt: выявление знаний из языковых моделей с автоматически сгенерированными подсказками. Препринт.
Тейлор Шин, Ясаман Разеги, Роберт Л. Логан IV, Эрик Уоллес, Самир Сингх. [PDF], [Веб -сайт], 2020.10
Автоматически идентифицируя слова, которые могут служить метками для нескольких выстрелов. Coling 2020.
Тимо Шик, Хельмут Шмид, Хинрих Шюцце. [PDF], [Project], 2020.12
Сделать предварительно обученные языковые модели лучше учащихся. ACL 2021.
Tianyu Gao, Adam Fisch, Danqi Chen. [PDF], [Project], 2020.12
Префикс-настройка: оптимизация непрерывных подсказок для генерации . ACL 2021.
Сян Лиза Ли, Перси Лян. [PDF], [Project], 2021.1
Быстрое программирование для крупных языковых моделей: помимо нескольких выстрелов. Препринт.
Лари Рейнольдс, Кайл Макдонелл. [PDF], 2021.2
Улучшение и упрощение образец, эксплуатируя обучение. Препринт.
Дерек Там, Ракеш Р. Менон, Мохит Бансал, Шашанк Шривастава, Колин Раффель. [PDF], 2021.3
GPT тоже понимает. Препринт.
Сяо Лю, Янан Чжэн, Чжэнсиао Д.У., Мин Дин, Юджи Цянь, Чжилин Ян, Цзе Тан . [PDF], [Project], 2021.3
Мощность масштаба для настройки быстрого настройки параметров. Препринт.
Брайан Лестер, Рами аль-Рфу, Ной Константа . [PDF], [Project], 2021.4
Учимся спрашивать: запрос LMS со смесями мягких подсказок. NAACL 2021.
Гуанхуй Цин, Джейсон Эйснер. [PDF] [Project], 2021.4
Фактическое зондирование [маска]: обучение против обучения вспоминанию. NAACL 2021.
Зексуан Чжун, Дэн Фридман, Данки Чен. [PDF], [Project], 2021.4
Сокращение подсказок и параметров: простое обучение с несколькими выстрелами с языковыми моделями. Препринт.
Роберт Л. Логан IV, Ивана Балажевич, Эрик Уоллес, Фабио Петрони, Самир Сингх, Себастьян Ридель . [PDF], 2021.6
Варп: Аккурсное перепрограммирование на уровне слов. ACL 2021.
Карен Хамбардзумьян, Хрант Хачатриан, Джонатан Мэй. [PDF], [Project], 2021.6
PTR: быстрое настройка с правилами для классификации текста. Препринт.
Сюй Хан, Вейлин Чжао, Нин Дин, Чжиюань Лю, Маосонг Сан. [PDF], 2021.5
NSP-BERT: ученик с нулевым выстрелом на основе быстрого выступления с помощью оригинальной задачи перед тренировкой--предсказание следующего предложения
Yi Sun*, Yu Zheng*, Chao Hao, Hanging Qiu , [pdf], [Project], 2021.9
Созданные языковые модели являются учениками с нулевым выстрелом.
Ason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le. [PDF], 2021.9
PPT: предварительно обученная настройка для нескольких выстрелов
Yuxian Gu*, Xu Han*, Zhiyuan Liu, Minlie Huang. [PDF], 2021.9
Дифференцируемая подсказка делает предварительно обученные языковые модели лучше учащихся. ICLR 2022.
Ningyu Zhang, Luoqiu Li, Xiang Chen, Shumin Deng, Zhen Bi, Chuanqi Tan, Fei Huang, Huajun Chen. [PDF], [Project], 2021.10
Многозадачность, вызванная обучением, позволяет обобщать задачи с нулевым выстрелом.
Виктор Санх, Альберт Вебсон, Колин Раффель, Стивен Х. Бах, Линтанг Сутавика, Заид Алифей, Антуан Чаффин, Арно Стиглер, Тевен Ле Скао, Арун Раджа, Манан Дей, М. Сайфул Бари, Канвен Сюм, Урмиш Таккер, Шани Шарма Шарма, М. Элиза Шечла, Таевон Ким, Гунджан Чхаблани, Нихал Наяк, Дебаджёти Датта, Джонатан Чанг, Майк Тянь-Цзян Цзян, Хан Ван, Маттео Маника, Шенг Шен, Чжэн Синь Юн, Харшит Пандей, Рэйчел Бауден, Томас Ванг, Тришала Нирадж, Жос Рузен, Абхен, Абхт. Андреа Сантилли, Тибо Феври, Джейсон Алан Фрис, Райан Тихан, Стелла Бидерман, Лео Гао, Тали Берс, Томас Вольф, Александр М. Раш. [PDF], 2021.10
P-tuning v2: быстрое настройка может быть сравнимой с универсальностью в масштабах и задачах. ACL 2022.
Xiao Liu, Kaixuan Ji, Yicheng Fu, Zhengxiao Du, Zhilin Yang, Jie Tang [pdf], [Project], 2021.10
Черная настройка для языковой модели как услуга. ICML 2022.
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF], [Project], 2022.1
Черное яблоко быстрое обучение для предварительно обученных языковых моделей. Препринт.
Shizhe Diao, Xuechun Li, Yong Lin, Zhichao Huang, Tong Zhang [PDF], 2022.1
Привязывающие языковые модели на символических языках. Препринт.
Zhoujun Cheng*, Tianbao Xie*, Peng Shi, Chengzzu Li, Rahul Nadkarni, Yushi Hu, Caiming Xiong, Dragomir Radev, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu [Pdf], [Project], [веб -сайт] , 2022.10
Быстрый каталог шаблонов для улучшения инженерии быстрого с помощью CHATGPT. Жюль Уайт, Кухен Фу, Сэм Хейс, Майкл Сэндборн, Карлос Олеа, Генри Гилберт, Ашраф Эльнашар, Джесси Спенсер-Смит, Дуглас С. Шмидт [PDF], 2023.2
В этом разделе содержится анализ методов быстрого обучения, включая, помимо прочего, почему быстрое обучение работает, различные свойства методов быстрого обучения, ограничение методов быстрого обучения.
Что делает хорошие примеры в контексте для GPT-3? Полем Препринт.
Цзячан Лю, Дингхан Шен, Йиже Чжан, Билл Долан, Лоуренс Карин, Вейху Чен . [PDF] 2021.1
Сколько точек данных стоит? NAACL 2021.
Тевен Ле Скао, Александр М. Раш. [PDF], [Project], 2021.3
Поверхностная форма конкуренции-ЧИ Ответ с наибольшей вероятностью не всегда правильный. Препринт. Препринт.
Ари Хольцман, Питер Уэст, Веред Шварц, Еджин Чой, Люк Зеттлемуер. [PDF] [Project], 2021.4
Естественные инструкции: Процедура обобщения по новым задачам из инструкций по естественному языку. Препринт.
Сваруп Мишра, Даниэль Хашаби, Читта Барал, Ханнане Хаджиширзи. [PDF], [Project], 2021.4
Фантастически упорядоченные подсказки и где их найти: преодоление чувствительности к быстрому удару . Препринт.
Яо Лу, Макс Бартоло, Аластер Мур, Себастьян Ридель, Понтус Стентерп . [PDF] 2021.4
Meta-Tuning Language Models, чтобы лучше ответить на подсказки. Препринт.
Руики Чжун, Кристи Ли*, Чжэн Чжан*, Дэн Кляйн . [PDF] 2021.4
Истинное несколько выстрелов с языковыми моделями . Препринт.
Этан Перес, Дуве Киела, Кюнхён Чо . [PDF], [Project] 2021.5
Почему предварительные языковые модели помогают в нижестоящих задачах? Анализ головы и быстрой настройки . Препринт.
Колин Вэй пел Майкл Си Тенгю Ма [PDF], 2021.6
Понимают ли быстрые модели смысл их подсказок? Препринт.
Альберт Вебсон, Элли Павлик. [PDF], [Project] 2021.9
Избегание эвристики вывода в нескольких выстрелах на основе быстрого набора. Препринт.
Prasetya Ajie Utama, Nafise Sadat Moosavi, Виктор Сан, Ирина Гуревич. [PDF], 2021.9
На пути к единому представлению об обучении переноса, эффективного. Препринт.
Junxian He, Chunting Zhou, Xuezhe MA, Taylor Berg-Kirkpatrick, Graham Neubig. [PDF], 2021.10
Изучение низкоразмерной внутренней подпространства задач с помощью быстрого настройки. Препринт.
Юдзия Цинь, Сяожи Ван, Юшэн С.У., Янкай Лин, Нин Дин, Чжиюань Лю, Хуанзи Ли, Лей Ху, Пенг Ли, Маосонг Солнца, Цзе Чжоу [PDF]
Изучение универсальной уязвимости парадигмы обучения на основе быстрого обучения. Результаты NAACL 2022.
Lei Xu, Yangyi Chen, Ganqu Cui, Hongcheng Gao, Zhiyuan Liu [PDF], [Project]
Переосмысление роли демонстраций: что делает в условиях обучения в контексте? Arxiv 2022.
Sewon Min, Xinxi Lyu, Ari Holtzman, Mikel Artetxe, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer [PDF], [Project]
Параметр-эффективная настройка приглашения делает обобщенные и калиброванные ретеверы нейронного текста. Препринт.
Венг Лам Там, Сяо Лю, Кайсуань Джи, Лилонг Сюэ, Юсиао Донг, Цзяхуа Лю, Маоди Ху, Цзе Тан [PDF] [Project]
Игнорируйте предыдущую подсказку: методы атаки для языковых моделей. Best Paper Award @ Neurips ML Safety Workshop 2022.
Фабио Перес, Ян Рибейро [PDF] [Project], 2022.11
В этом разделе содержится улучшение основных методов настройки быстрого настройки, включающих, но не ограниченные для использования дополнительных ресурсов для улучшения выступлений, соблюдения недостатков предыдущей работы или проведения оперативной настройки необычными способами.
Калибровать перед использованием: улучшение производительности языковых моделей. Препринт.
Тони З. Чжао, Эрик Уоллес, Ши Фэн, Дэн Кляйн, Самир Сингх. [PDF], [Project], 2021.2
Генерация текста с эффективным (мягким) Q-обучением. Препринт.
Хан Го, Боуэн Тан, Чжэнчжонг Лю, Эрик П. Син, Жейт Ху. [PDF], 2021.6
Знающий подстройка: включение знаний в быстрый вербализатор для классификации текста. Препринт.
Шенгдинг Ху, Нин Дин, Хуадон Ван, Чжиюань Лю, Хуанзи Ли, Маосонг Солнце . [PDF], [Project], 2021.8
Чудому каналу языковой модели подсказка для нескольких выстрелов в классификации текста. Препринт.
Sewon Min, Майк Льюис, Ханнане Хаджиширзи, Люк Зеттлемуер. [PDF], 2021.8
Адаптация языковых моделей для нулевого обучения с помощью мета-подъема на наборе данных и быстрого сбора.
Руики Чжун, Кристи Ли* Чжэн Чжан*, Дэн Кляйн. [PDF], 2021.9
Повторное самостоятельное подготовку для нескольких выстрелов в изучении языковой модели. Препринт.
Йиминг Чен, Ян Чжан, Чен Чжан, Гранди Ли, Ран Ченг, Хайчжоли Ли. [PDF], 2021.10
СПИСОК: LITE самостоятельное подготовку делает эффективных учащихся. Препринт.
Якин Ван, Субхабрата Мукерджи, Сяодон Лю, Цзин Гао, Ахмед Хасан Авадалла, Цзянфенг Гао. [PDF], 2021.10
Прототипический вербализатор для быстрого настройки на основе нескольких выстрелов. ACL 2022.
Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu . [PDF], [Project], 2022.3
BBTV2: чистая оптимизация черного ящика может быть сопоставимой с градиентным спусканием для нескольких выстрелов. Препринт.
Tianxiang Sun, Zhengfu He, Hong Qian, Xuanjing Huang, Xipeng Qiu [PDF] [Project], 2022.5
Этот раздел содержит методы быстрого обучения, предназначенные для различных задач NLP.
Мышление вслух: динамическая генерация контекста улучшает результаты рассуждений с нулевым выстрелом GPT-2. Препринт.
Грегор Бетц, Кайл Ричардсон, Кристиан Войгт. [PDF] 2021.3
GPT3MIX: использование крупномасштабных языковых моделей для увеличения текста. Препринт.
Кан Мин Ю, парк Дунджу, Jaewook Kang, Sang-Woo Lee, Woomyeong Park. [PDF] 2021.4
Ограниченные языковые модели дают несколько выстрелов семантических анализаторов. Препринт.
Ричард Шин, Кристофер Х. Лин, Сэм Томсон, Чарльз Чен, Субро Рой, Эммануил Антониос Платаниос, Адам Полс, Дэн Кляйн, Джейсон Эйснер, Бенджамин Ван Дурм. [PDF] 2021.4
Метка вербализации и въезда для эффективного извлечения отношений с нулевым и небольшим количеством выстрелов. EMNLP 2021.
Оскар Сайнс, Ойер Лопес де Лакалле, Горка Лабака, Андер Баррена, Энеко Агирре. [PDF], 2021.4
PADA: быстрый авторегрессивный подход к адаптации к невидимым доменам препринта.
Эяль Бен-Давид, Надав Овен, Рой Рейхарт. [PDF] [Project] 2021.5
Быстрое обучение для мелкозернистого набора сущностей. Препринт.
Ning Ding, Yulin Chen, Xu Han, Guangwei Xu, Pengjun Sie, Hai-Tao Zheng, Zhiyuan Liu, Juanzi Li, Hong-gee Kim [PDF], 2021.8
KnowPrompt: быстрое настройка знаний с синергетической оптимизацией для извлечения отношений. Www 2022.
Сян Чен, Синьси, Нинью Чжан, Цзяуан Ян, Шумин Денг, Чуанки Тан, Фей Хуанг, Луо Си, Хуаджун Чен. Полем [PDF], [Project], 2021.9
Изучение быстрого обучения на основе быстрого выстрела для основополагаемого генерации диалогов. Препринт.
Чудзи Чжэн, Минли Хуанг. [PDF], 2021.9
Sondiprompt: Знание настроения Увеличение подстройки быстрого настройки для анализа настроений на основе аспектов. Препринт.
Chengxi Li, Feiyu Gao, Jiajun Bu, Lu Xu, Xiang Chen, Yu Gu, Zirui Shao, Qi Zheng, Ningyu Zhang, Yongpan Wang, Zhi Yu. [PDF] 2021.9
Без шаблона настройка для нескольких выстрелов. Препринт.
Ruotian MA*, Xin Zhou*, Tao Gui, Yoyding Tan, Qi Zhang, Xuanjing Huang. [PDF], 2021.9
Обучение моделям на языке зрения. Препринт.
Кайян Чжоу, Цзингканг Ян, Чен Изменение Лой и Зивей Лю. [PDF], 2021.9
CPT: Красочная оперативная настройка для моделей на языке зрений. Препринт.
Юань Яо*, Ао Чжан*, Чженген Чжан, Чжиюань Лю, Тэт-Сенг Чуа, Маосонг Сан. [PDF], 2021.10
MSP: многоэтапное подсказка для обеспечения предварительно обученных языковых моделей лучшими переводчиками. Препринт.
Чикс Тан, Сянвен Чжан, Шуо Ван, Ян Лю. [PDF], 2021.10
Несколько выстрелов: обучение на основе быстрого обучения для систем диалога. Препринт.
Андреа Мадотто, Чжаоцзян Лин, Генда Инра Вината, Паскаль Фунг [PDF], 2021.10
Управляющие префиксы для генерации текста. Препринт.
Джордан Клайв, Крис Цао, Марек Рей. [PDF], 2021.10
Сила быстрой настройки для семантического анализа с низким ресурсом. Препринт.
Натан Шучер, Шива Редди, Харм де Врис. [PDF], 2021.10
Хорошая подсказка стоит миллионов параметров? Обучение на основе быстрого ресурса на основе моделей на языке зрения.
Вуджён Джин, Ю Ченг, Йелонг Шен, Вайху Чен, Сян Рен. [PDF]
Lightner: легкая генеративная структура с приглашенным вниманием к NER с низким ресурсом. Coling 2022.
Сян Чен, Лей Ли, Шумин Денг, Чуанки Тан, Чандлиан Сюй, Фей Хуанг, Луо С.И., Хуаджун Чен, Ниню Чжан. [PDF], [Project], 2021.8
Unifiedskg: Объединение и многозадачные структурированные знания заземляют модели текста в тексте.
Tianbao Xie*, Chen Henry Wu*, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Wang, Victor Zhong, Bailein Wang, Chengzu Li, Connor Boyle, Ansong Ни, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu. [PDF], [Project], [Веб -сайт], 2022.1
Онтология усилила быстрое настройку для нескольких выстрелов. Www 2022.
Hongbin Ye, Ningyu Zhang, Shumin Deng, Xiang Chen, Hui Chen, Feiyu Xiong, Xi Chen, Huajun Chen. [PDF], 2022.1
Обучение подсказке для постоянного обучения. CVPR 2022.
Зифенг Ван, Зжао Чжан, Чэнь-Ю Ли, Хан Чжан, Руокс Сан, Сяоки Рен, Гулонг Су, Винсент Перо, Дженнифер Да, Томас Пфистер. [PDF], [Project], 2021.12
Извлечение отношений в качестве экзамена с открытой книгой: быстрое настройка с усилением. Сигир 2022.
Сян Чен, Лей Ли, Ниню Чжан, Чуанки Тан, Фей Хуанг, Луо Си, Хуаджун Чен. [PDF], [Project], 2022.5
Хорошее визуальное руководство делает лучшим экстрактором: иерархический визуальный префикс для мультимодальной сущности и извлечения отношений. Результаты NAACL 2022.
Сян Чен, Ниню Чжан, Лей Ли, Юньчхи Яо, Шумин Денг, Чуанки Тан, Фей Хуанг, Луо Си, Хуаджун Чен. [PDF], [Project], 2022.5
Цепочка мыслительного подсказки вызывает рассуждения в крупных языковых моделях. Препринт 2022.
Джейсон Вэй, Сюэжи Ван, Дейл Шуурманс, Мартен Босма, Эд Чи, Кук Ле, Денни Чжоу. [PDF]
Самосогласованность улучшает цепочку мышления в языковых моделях. Препринт 2022.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdery, Denny Zhou. [PDF]
Большие языковые модели-это с нулевые выстрелы. Препринт 2022.
Такеши Кодзима, Шиксиан Шейн Гу, Мачел Рейд, Ютака Мацуо, Юсуке Ивасава. [PDF]
Наименьшее количество подсказок позволяет сложные рассуждения в крупных языковых моделях. Препринт 2022.
Денни Чжоу, Натанаэль Шарли, Ле Хоу, Джейсон Вей, Натан Шелкс, Сюэжи Ван, Дейл Шуурманс, Оливье Букет, Кук Ле, Эд Чи. [PDF]
Маеутическое подсказка: логически последовательные рассуждения с рекурсивными объяснениями. Препринт 2022.
Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, Yejin Choi [PDF]
На продвижение языковых моделей лучшими обоснователями. Препринт 2022.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen [PDF]
Обучение составлению мягких подсказок для композиционного нулевого обучения. Препринт 2022.
Нихал В. Наяк*, Пейлин Ю*, Стивен Х. Бах [PDF], [Project]
Отправление знаний от запоминания: поиск-август, быстрое обучение. Neurips 2022.
Сян Чен, Лей Ли, Нинью Чжан, Сяочюан Лян, Шумин Денг, Чуанки Тан, Фей Хуанг, Луо Си, Хуаджун Чен. [PDF], [Project], 2022.5
Изучение обобщения длины в больших языковых моделях. Препринт 2022.
Cem Anil, Yuhuai Wu, Anders Andreassen, Aitor Lewkowycz, Ведант Мисра, Винай Рамасеш, Амброуз Слон, Гай Гур-ари, Итан Дайер, Беднам Нейшабур [PDF]
Спросите меня о чем угодно: простая стратегия для подготовки языковых моделей. Препринт 2022.
Симран Арора, Аваника Нараян, Майи Ф. Чен, Лорел Орр, Нил Гуха, Куш Бхатия, Инес Чами, Фредерик Сала, Кристофер Рене [PDF]
Измерение и сужение пробела композиционности в языковых моделях Препринт 2022.
Офир Пресс, Муру Чжан, Сьюон Мин, Людвиг Шмидт, Ноа А. Смит, Майк Льюис [PDF]
RLPROMPT: оптимизация дискретных текстовых подсказок с помощью подкрепления обучения Preprint 2022.
Mingkai Deng, Jianyu Wang, Cheng-Ping Sieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu [PDF]
Рассуждение с подсказкой на языковой модели: предварительный отрыв 2022 года.
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen [pdf]
Мы благодарим Юджию Цинь, Сячонг Фэн, Ченглей С.И., Тянбао Се, Мухташам Обокулов за рекомендацию бумаги.
Не волнуйтесь, если вы ошибетесь, мы исправим их для вас. Просто внесите и продвигайте свою потрясающую работу здесь!
Если вы рекомендовали работу, которая не была вашей, вы будете добавлены в список участников (обязательно предоставьте свою информацию в других участниках).