Семья rackkg: галерея быстрого обучения и исследовательских работ, связанных с КГ, инструментарий и бумажного списка.
| Каталог | Описание |
|---|
| исследовать | • Сборник быстрого обучения, связанных с обучением, реализации моделей исследований |
| лямбдакг | • Библиотека для встроенных и приложений на основе PLM |
| Deltakg | • Библиотека для динамического редактирования КГ на основе PLM |
| Учебные ноты | • Учебные записные книжки для начинающих |
Оглавление
- Учебные пособия
- Опросы
- Документы
- Знание как быстрое
- 1. Языковое понимание
- 2. Мультимодальный
- 3. Усовершенствованные задачи
- Быстро (PLMS) для знаний
- 1. Знание зонда
- 2. Внедрение графа знаний
- 3. Анализ
- Контактная информация
Учебные пособия
- Нулевые и несколько выстрелов NLP с предварительно проведенными языковыми моделями. Учебник AACL 2022 [PPT]
- Строительство графа знаний. Учебник CCKS2022 [PPT]
- Эффективная и робота построить график знаний. AACL-IJCNLP Учебник [PPT]
- Знание информировано о быстрого обучения. MLNLP 2022 Учебник (китайский) [ppt]
Опросы
- Дельта-настройка: всестороннее исследование эффективных параметров методов для предварительно обученных языковых моделей (на ARXIV 2021) [Paper]
- Предварительный тренировки, быстро и прогнозируйте: систематический обзор методов подсказки в обработке естественного языка (ACM Computing Surveys 2021) [Paper]
- Реструктурированная предварительная тренировка (на Arxiv 2022) [Paper]
- Обследование НЛП с интенсивным знанием с предварительно обученными языковыми моделями (на ARXIV 2022) [Paper]
- Обследование предварительно обученных языковых моделей с повышенными знаниями (On Arxiv 2022) [Paper]
- Обзор языковых моделей как базы знаний (на ARXIV 2022) [Paper]
- Конструкция графа генеративных знаний: обзор (EMNLP, 2022) [Paper]
- Рассуждение с подсказкой языковой модели: опрос (On Arxiv 2022) [Paper]
- Рассуждение о различных типах графиков знаний: статический, временный и мультимодальный (On Arxiv 2022) [Paper]
- Жизненный цикл знаний в моделях большого языка: опрос (On Arxiv 2022) [Paper]
- Объединение крупных языковых моделей и графиков знаний: дорожная карта (на Arxiv 2023) [Paper]
Документы
Знание как быстрое
Языковое понимание
- Полученное поколение для задач NLP, интенсивных, в Neurips 2020. [PDF]
- Царство: до тренировки языковой модели поиска-августа, в ICML 2020. [PDF]
- Сделать предварительно обученные языковые модели лучшими учащимися, в ACL 2022. [PDF] [PDF]
- PTR: оперативная настройка с правилами для классификации текста, в Openai 2022. [PDF]
- Метка вербализации и въезда для эффективного экстракции отношений с нулевым и небольшим количеством выстрелов, в EMNLP 2021. [PDF]
- Соотношение Профморт: использование подсказок для генерации синтетических данных для экстракции триплета с нулевым выстрелом, в EMNLP 2022 (результаты). [PDF]
- Означальная подстройка: включение знаний в быстрый вербализатор для классификации текста, в ACL 2022. [PDF]
- PPT: предварительно обученная настройка для нескольких выстрелов, в ACL 2022. [PDF]
- Контрастная демонстрационная настройка для предварительно обученных языковых моделей, в EMNLP 2022 (результаты). [PDF]
- Adaprompt: адаптивная модель обучения для быстрого на основе NLP, в Arxiv 2022. [PDF]
- KnowPrompt: быстрое настройка с учетом знаний с синергетической оптимизацией для извлечения отношений, в www 2022. [PDF]
- Ссылка на схему как быстрое улучшает построение графа знаний, в Sigir 2023. [PDF]
- Отделение знаний от запоминания: поиск-аугментированное быстрое обучение, в Neurips 2022. [PDF]
- Извлечение отношений в качестве обследования открытой книги: быстрое настройка, усиленная на поиске, в Sigir 2022. [PDF]
- Lightner: легкая парадигма настройки для NER с низким ресурсом через подключаемое подсказка, в Coling 2022. [PDF]
- Современная генерация структуры для универсальной извлечения информации, в ACL 2022. [PDF]
- Lasuie: объединение извлечения информации с помощью скрытой адаптивной структурной структуры модели языка, в Neurips 2022. [PDF]
- Атлас: несколько выстрелов с помощью извлечения на дополненных языковых моделях, в Arxiv 2022. [PDF]
- Не запрашивайте, ищите! Обучение с нулевым выстрелом на основе майнинга с языковыми моделями, в ACL 2022. [PDF]
- Подсказка знаний в модели с предварительно обученным языком для понимания естественного языка, в EMNLP 2022. [PDF]
- Объединенные знания по приглашению на предварительное обучение для диалогов службы поддержки клиентов, в CIKM 2022. [PDF]
- Подсказка знаний в модели с предварительно обученным языком для понимания естественного языка, в EMNLP 2022. [PDF]
- Самоубийство: выравнивание языковой модели с самого сгенерированными инструкциями, в Arxiv 2022. [PDF]
- Один встроенный, любая задача: текстовые встроенные инструкции, в Arxiv 2022. [PDF]
- Обучение для получения подсказок для обучения в контексте, в NAACL 2022. [PDF]
- Данные обучения более ценны, чем вы думаете: простой и эффективный метод путем извлечения из учебных данных, в ACL 2022. [PDF]
- Одна модель для всех доменов: настройка совместной доменной домены для междоменного NER, в Arxiv 2023. [PDF]
- Replug: Поискание-аугментированные модели черного ящика, в Arxiv 2023. [PDF]
- Ответ на вопрос о том, что в Arxiv 2023. [PDF]
Мультимодальный
- Хорошее визуальное руководство делает лучшим экстрактором: иерархический визуальный префикс для мультимодальной сущности и экстракции отношений, в NAACL 2022 (результаты). [PDF]
- Настройка визуальной подсказки, в ECCV 2022. [PDF]
- CPT: Красочная оперативная настройка для предварительно обученных моделей языка зрения, в EMNLP 2022. [PDF]
- Обучение моделям на языке зрения, в IJCV 2022. [PDF]
- Настройка быстрого настройки времени тестирования для обобщения с нулевым выстрелом в моделях языка зрения, в Neurips 2022. [PDF]
Усовершенствованные задачи
- Рекомендация в качестве языковой обработки (RLP): единый предварительный, персонализированный подсказка и прогнозируйте парадигму (P5), в ACM Recsys 2022. [PDF]
- На пути к единым разговорным рекомендательным системам посредством быстрого обучения, усиленного знаниями, в KDD 2022. [PDF]
- Приглашение: настройка приглашения для обобщенного сопоставления сущностей с низким ресурсом, в VLDB 2023. [PDF]
- VIMA: общие манипуляции с роботом с помощью мультимодальных подсказок, в Arxiv 2022. [PDF]
- Беспризнание ретросинтеза языковых моделей с подсказками отключения, в Arxiv 2022. [PDF]
- Progprompt: генерирование планов задач робота с использованием больших языковых моделей, в Arxiv 2022. [PDF]
- Сотрудничество с языковыми моделями для воплощенных рассуждений, в Neurips 2022 Workshop Larel. [PDF]
Быстро (PLMS) для знаний
Знание зондирование
- Сколько знаний вы можете собрать в параметры языковой модели? в EMNLP 2020. [PDF]
- Языковые модели как базы знаний? В EMNLP 2019. [PDF]
- Материализованные базы знаний от Commonsense Transformers, в CSRR 2022. [PDF]
- Языковые модели с учетом времени как временные базы знаний, в TACL2022. [PDF]
- Могут ли генеративные предварительно обученные языковые модели служить базой знаний для QA с закрытой книгой? в ACL2021. [PDF]
- Языковые модели как базы знаний: на представлениях сущности, емкостью хранения и перефразированных запросах в EACL2021. [PDF]
- Научно -языковые модели для биомедицинской базы знаний: эмпирическое исследование, в AKBC 2021. [PDF]
- Многоязычная лама: исследование знаний в многоязычных предварительных языковых моделях, в EACL2021. [PDF]
- Как мы можем узнать, какие языковые модели знают? в Tacl 2020. [PDF]
- Как контекст влияет на фактические прогнозы языковых моделей, в AKBC 2020. [PDF]
- Копен: зондирование концептуальных знаний в предварительно обученных языковых моделях, в EMNLP 2022. [PDF]
- Зондирование знаний о предварительно обученных языковых моделях, в ACL 2022. [PDF]
Внедрение графа знаний (мы предоставляем библиотеку и эталонный лямбдакг)
- KG-BERT: BERT для завершения графа знаний, в Arxiv 2020. [PDF]
- Многозадачное обучение для завершения графа знаний с предварительно обученными языковыми моделями , в Coling 2020. [PDF]
- Структурное авторское обучение
- Кеплер: унифицированная модель для встраивания знаний и предварительно обученного языка, TACL 2021 [PDF]
- Statik: Структура и текст для графа индуктивного знания, в NAACL 2022. [PDF]
- Совместный язык семантический и структура внедряет для завершения графа знаний, в Coling. [PDF]
- Знание является плоским: генеративная структура SEQ2SEQ для различного завершения графа знаний, в Coling. [PDF]
- Получают ли предварительно обученные модели завершение графа знаний? Надежная оценка и разумный подход, в ACL 2022. [PDF]
- Языковые модели как знания внедряют, в IJCAI 2022. [PDF]
- От дискриминации к поколению: завершение графа знаний с генеративным трансформатором, в www 2022. [PDF]
- Рассуждение через запоминание: ближайший график знаний соседа, в Arxiv 2022. [PDF]
- SIMKGC: простое завершение графа знаний с предварительно обученными языковыми моделями, в ACL 2022. [PDF]
- Последовательность к последовательности Графа знаний и ответа на вопросы, в ACL 2022. [PDF]
- LP-BERT: многозадачный график знаний до тренировок BERT для прогнозирования ссылок, в ARXIV 2022. [PDF]
- Маска и причина: перед тренировками графиков знаний для сложных логических запросов, в KDD 2022. [PDF]
- Знание является плоским: генеративная структура SEQ2SEQ для различного завершения графа знаний, в Coling 2022. [PDF]
Анализ
- Знание или образованное предположение? Пересмотр языковых моделей как базы знаний, в ACL 2021. [PDF]
- Могут ли предварительно предварительно провести предварительные языковые модели? Понимание невидимых рисков с причинно -следственной точки зрения, в ACL 2022. [PDF]
- Как предварительно обученные языковые модели отражают фактические знания? Анализ, вдохновленный причиной, в ACL 2022. [PDF]
- Эффективные способности крупных языковых моделей, в Arxiv 2022. [PDF]
- Нейроны знаний у предварительно проведенных трансформеров, в ACL 2022. [PDF]
- Поиск нейронов навыков в предварительно обученных языковых моделях на основе трансформаторов в EMNLP 2022. [PDF]
- Решают ли подсказки задачи NLP с использованием естественных языков? В Arxiv 2022. [PDF]
- Переосмысление роли демонстраций: что делает в условиях обучения в контексте? в EMNLP 2022. [PDF]
- Понимают ли быстрые модели смысл их подсказок? в NAACL 2022. [PDF]
- Когда не доверять языковым моделям: изучение эффективности и ограничений параметрических и непараметрических воспоминаний, в Arxiv 2022. [PDF]
- Почему GPT может учиться в контексте? Языковые модели тайно выполняют градиентное происхождение в качестве мета-оптимизатора , в Arxiv 2022. [PDF]
- Фантастически упорядоченные подсказки и где их найти: преодоление чувствительности к максимум быстрого порядка, в ACL 2022. [PDF]
- Редактирование больших языковых моделей: проблемы, методы и возможности, в Arxiv 2023. [PDF]
Контактная информация
Для получения помощи или проблем с использованием «Вопрос», пожалуйста, отправьте проблему GitHub.