awesome sentence embedding
1.0.0
Куратор моделей предварительного предложения и встраивания слов
| дата | бумага | Счет цитирования | код обучения | Предварительные модели |
|---|---|---|---|---|
| - | WebVectors: инструментарий для создания веб -интерфейсов для векторных семантических моделей | N/a | - | Rusvectōrēs |
| 2013/01 | Эффективная оценка представлений слов в векторном пространстве | 999+ | В | Word2VEC |
| 2014/12 | Представления слов через гауссовое встрадание | 221 | Кифон | - |
| 2014/?? | Вероятностная модель для изучения многопрототиповых слов | 127 | DMTK | - |
| 2014/?? | На основе зависимостей встроения слов | 719 | C ++ | Word2Vecf |
| 2014/?? | Перчатка: глобальные векторы для представления слов | 999+ | В | Перчатка |
| 2015/06 | Разреженные представления о переполнении слов вектор | 129 | C ++ | - |
| 2015/06 | От базы данных перефразирования до модели перефразирования композиции и обратно | 3 | Теано | Параграмма |
| 2015/06 | Недоседовые векторные представления | 68 | Питон | WordFeat |
| 2015/ | Совместное изучение характера и встроения слов | 195 | В | - |
| 2015/ | Sensembed: Учебное чувство встраиваемость для слова и реляционного сходства | 249 | - | Sensembed |
| 2015/ | Актуальные слова встраивания | 292 | Кифон | |
| 2016/02 | Поворот: улучшение встраиваний, заметив, чего не хватает | 61 | Тфу | - |
| 2016/03 | Противостояние слов векторов на лингвистические ограничения | 232 | Питон | контр-подход (сломан) |
| 2016/05 | Смешивание тематических моделей Dirichlet и вставки Word для создания LDA2VEC | 91 | Цепь | - |
| 2016/06 | Сиамский Cbow: оптимизация встроенных слов для представлений о предложении | 166 | Теано | Сиамский Кбоу |
| 2016/06 | Матричная факторизация с использованием отбора проб окон и отрицательной выборки для улучшенных представлений слов | 58 | Идти | LexVec |
| 2016/07 | Обогащение векторов слов с помощью информации о подноде | 999+ | C ++ | Фасттекст |
| 2016/08 | Морфологические априоры для вероятностных нейронных слов | 34 | Теано | - |
| 2016/11 | Совместная модель много заданий: выращивание нейронной сети для нескольких задач NLP | 359 | C ++ | charngram2vec |
| 2016/12 | ConceptNet 5.5: открытый многоязычный график общих знаний | 604 | Питон | Номера |
| 2016/?? | Учебное слово meta-embeddings | 58 | - | Мета-Эмб (сломан) |
| 2017/02 | Оффлайн двуязычные векторы слов, ортогональные преобразования и перевернутый Softmax | 336 | Питон | - |
| 2017/04 | Мультимодальное распределение слов | 57 | Тфу | Word2gm |
| 2017/05 | POUNCARE ENTARDINGS для обучения иерархическим представлениям | 413 | Пирог | - |
| 2017/06 | Контекст кодеры как простое, но мощное расширение Word2VEC | 13 | Питон | - |
| 2017/06 | Семантическая специализация векторных векторных промежутков распределения с использованием одноязычных и кросс-лингальных ограничений | 99 | Тфу | Привлечение |
| 2017/08 | Изучение китайских представлений слов из глифов персонажей | 44 | В | - |
| 2017/08 | Смысл вторжения слов | 92 | Питон | Sensegram |
| 2017/09 | Хэш -встроения для эффективных представлений слов | 25 | Керас | - |
| 2017/10 | BPEMB: предварительно обученные подбороды, не имеющие токенизации, на 275 языках | 91 | Генсим | BPEMB |
| 2017/11 | Позвоночник: редкие интерпретируемые нейронные встраивания | 48 | Пирог | ПОЗВОНОЧНИК |
| 2017/?? | ARAVEC: набор моделей арабского слова для использования в арабском НЛП | 161 | Генсим | Аравек |
| 2017/?? | NGRAM2VEC: Обучение Улучшено представления слов из статистики NGRAM Co-occruerrence | 25 | В | - |
| 2017/?? | DICT2VEC: изучение слов встраивания с использованием лексических словарей | 49 | C ++ | DICT2VEC |
| 2017/?? | Совместные встроения китайских слов, персонажей и мелкозернистых подставных компонентов | 63 | В | - |
| 2018/04 | Парфорт для представлений для гиперболических встраиваний | 120 | Пирог | H-MDS |
| 2018/04 | Динамические мета-эмбединги для улучшения представлений о предложении | 60 | Пирог | DME/CDME |
| 2018/05 | Аналогичные рассуждения о китайских морфологических и семантических отношениях | 128 | - | Китайские слова |
| 2018/06 | Вероятностный быстрый текст для многопользовательских слов | 39 | C ++ | Вероятностный быстрый текст |
| 2018/09 | Включение синтаксической и семантической информации в встроения Word с использованием графических сверточных сетей | 3 | Тфу | Syngcn |
| 2018/09 | Фраг: частота-агрессическое представление слов | 64 | Пирог | - |
| 2018/12 | Wikipedia2VEC: оптимизированный инструмент для обучения слов и сущностям из Википедии | 17 | Кифон | Википедия2VEC |
| 2018/?? | Направленное скип-грамм: явно отличающе | 106 | - | Китайский |
| 2018/?? | CW2VEC: изучение китайских встроенных слов с помощью информации о инсультах N-грамме | 45 | C ++ | - |
| 2019/02 | Vcwe: визуальные слова, усиленные характером | 5 | Пирог | Vcwe |
| 2019/05 | Изучение межсовых встроений из Twitter через далекий надзор | 2 | Текст | - |
| 2019/08 | Нейронный подход с учетом неконтролируемого характера к тому, чтобы | 5 | Тфу | - |
| 2019/08 | VICO: Слово встроения из визуальных совпадений | 7 | Пирог | Вико |
| 2019/11 | Сферический текст встраивает | 25 | В | - |
| 2019/?? | Неконтролируемые встроенные слова захватывают скрытые знания из литературы о материалоне науки | 150 | Генсим | - |
| дата | бумага | Счет цитирования | код | Предварительные модели |
|---|---|---|---|---|
| - | Языковые модели - это неконтролируемые многозадачные ученики | N/a | Тфу Pytorch, TF2.0 Керас | GPT-2 (117M, 124M, 345M, 355M, 774M, 1558M) |
| 2017/08 | Узнан в переводе: контекстуализированные векторы слов | 524 | Пирог Керас | Бухта |
| 2018/01 | Универсальная языковая модель тонкая настройка для классификации текста | 167 | Пирог | Ulmfit (английский, зоопарк) |
| 2018/02 | Глубокие контекстуализированные представления слов | 999+ | Пирог Тфу | Elmo (Allennlp, TF-Hub) |
| 2018/04 | Эффективное контекстуализированное представление: обрезка языковой модели для маркировки последовательности | 26 | Пирог | LD-сеть |
| 2018/07 | На пути к лучшему анализу: глубокие контекстуализированные встроенные слова, ансамбль и конкатенация деревьев | 120 | Пирог | Эльмо |
| 2018/08 | Прямой выходной подключение для модели с высоким уровнем ранга | 24 | Пирог | Док |
| 2018/10 | Берт: предварительное обучение глубоких двунаправленных трансформаторов для понимания языка | 999+ | Тфу Керас Pytorch, TF2.0 MXNET Паддлпаддл Тфу Керас | Берт (Берт, Эрни, Коберт) |
| 2018/?? | Контекстуальные строки встраивания для маркировки последовательности | 486 | Пирог | Талант |
| 2018/?? | Улучшение понимания языка путем генеративного предварительного обучения | 999+ | Тфу Керас Pytorch, TF2.0 | Гф |
| 2019/01 | Глубокие нейронные сети с несколькими задачами для понимания естественного языка | 364 | Пирог | MT-DNN |
| 2019/01 | Biobert: предварительно обученная модель представления биомедицинского языка для майнинга биомедицинского текста | 634 | Тфу | Биоберт |
| 2019/01 | Поперечная языковая модель предварительная подготовка | 639 | Пирог Pytorch, TF2.0 | XLM |
| 2019/01 | Transformer-XL: внимательные языковые модели за пределами контекста с фиксированной длиной | 754 | Тфу Пирог Pytorch, TF2.0 | Трансформатор-XL |
| 2019/02 | Эффективное обучение контекстного представления без слоя SoftMax | 2 | Пирог | - |
| 2019/03 | Scibert: предварительно подготовленные контекстуализированные встраивания для научного текста | 124 | Pytorch, Tf | Скиберт |
| 2019/04 | Общедоступные клинические встроения BERT | 229 | Текст | Клиникберт |
| 2019/04 | Clinicalbert: моделирование клинических заметок и прогнозирование реадмиссии в больнице | 84 | Пирог | Клиникберт |
| 2019/05 | Эрни: улучшенное представление языка с информативными сущностями | 210 | Пирог | ЭРНИ |
| 2019/05 | Unified Language Model перед тренировкой для понимания естественного языка и поколения | 278 | Пирог | UNILMV1 (CONILM1-кар |
| 2019/05 | Hibert: уровень документов до обучения иерархических двунаправленных трансформаторов для обобщения документов | 81 | - | |
| 2019/06 | Предварительная тренировка с целым словом маскируется для китайского берта | 98 | Pytorch, Tf | Берт-УВМ |
| 2019/06 | XLnet: генерализованная авторегрессивная предварительная подготовка для понимания языка | 999+ | Тфу Pytorch, TF2.0 | Xlnet |
| 2019/07 | Ernie 2.0: постоянная рамка предварительного обучения для понимания языка | 107 | Паддлпаддл | Эрни 2.0 |
| 2019/07 | Spanbert: улучшение предварительного обучения, представляя и предсказав пролеты | 282 | Пирог | Spanbert |
| 2019/07 | Роберта: надежно оптимизированный берт -подход | 999+ | Пирог Pytorch, TF2.0 | Роберта |
| 2019/09 | Подвод Эльмо | 1 | Пирог | - |
| 2019/09 | Знание улучшает контекстуальные представления слов | 115 | - | |
| 2019/09 | Tinybert: Distilling Bert для понимания естественного языка | 129 | - | |
| 2019/09 | Megatron-LM: обучение многомиллиардных моделей языков параметров с использованием модели параллелизма | 136 | Пирог | Megatron-LM (Bert-345M, GPT-2-345M) |
| 2019/09 | Multifit: эффективная многоязычная языковая модель тонкая настройка | 29 | Пирог | - |
| 2019/09 | Сжатие модели экстремального языка с оптимальными подчиками и общими прогнозами | 32 | - | |
| 2019/09 | Мул: мультимодальный универсальный язык | 5 | - | |
| 2019/09 | Unicoder: универсальный языковой кодер, предварительно тренируясь с множественными межязычными задачами | 51 | - | |
| 2019/09 | K-Bert: Включение языкового представления с графом знаний | 59 | - | |
| 2019/09 | Uniter: обучение универсальным представлениям изображений-текста | 60 | - | |
| 2019/09 | Альберт: Lite Bert для самоотверженного изучения языковых представлений | 803 | Тфу | - |
| 2019/10 | BART: дженочная последовательность к последовательности предварительной тренировки для генерации, перевода и понимания естественного языка | 349 | Пирог | Bart (Bart.base, Bart.large, Bart.large.mnli, Bart.large.cnn, Bart.large.xsum) |
| 2019/10 | Дистилберт, дистиллированная версия Bert: меньше, быстрее, дешевле и легче | 481 | Pytorch, TF2.0 | Дистильберт |
| 2019/10 | Изучение пределов обучения передачи с помощью унифицированного трансформатора текста в текст | 696 | Тфу | T5 |
| 2019/11 | Камаберт: вкусная модель французского языка | 102 | - | Камамбер |
| 2019/11 | Дзен: предварительно обучение китайского текстового энкодера, усиленного N-граммовыми представлениями | 15 | Пирог | - |
| 2019/11 | Неконтролируемое обучение в масштабе неконтролируемого представления в масштабе | 319 | Пирог | Xlm-r (xlm-roberta) (xlmr.large, xlmr.base) |
| 2020/01 | Пророкнет: прогнозирование будущего N-грамма для предварительного обучения последовательности к последовательности | 35 | Пирог | Prophetnet (Prophetnet-Large-16GB, Prophetnet-Large-160GB) |
| 2020/02 | Codebert: предварительно обученная модель для программирования и естественных языков | 25 | Пирог | Кодерт |
| 2020/02 | Unilmv2: псевдо-маскируемые языковые модели для единой языковой модели предварительное обучение | 33 | Пирог | - |
| 2020/03 | Electra: предварительно тренировочные текстовые кодеры в виде дискриминаторов, а не генераторов | 203 | Тфу | Electra (Electra-Small, Electra-Base, Electra-Large) |
| 2020/04 | Mpnet: замаскирован и пересмотренный предварительный тренинг для понимания языка | 5 | Пирог | Mpnet |
| 2020/05 | Парсберт: модель на основе трансформатора для понимания персидского языка | 1 | Пирог | Парсберт |
| 2020/05 | Языковые модели-несколько учеников | 382 | - | - |
| 2020/07 | Infoxlm: теоретика информационной теоретики для кросс-лингальной языковой модели перед тренировкой | 12 | Пирог | - |
| дата | бумага | Счет цитирования | код | model_name |
|---|---|---|---|---|
| - | Адаптация инкрементной области для перевода нейронной машины в условиях с низким разрешением | N/a | Питон | Арасиф |
| 2014/05 | Распределенные представления предложений и документов | 999+ | Пирог Питон | DOC2VEC |
| 2014/11 | Объединение визуально-семантических встраиваний с мультимодальными моделями нейронного языка | 849 | Теано Пирог | Vse |
| 2015/06 | Выравнивание книг и фильмов: к истории, подобным сюжету, визуальные объяснения, просмотрев фильмы и читая книги | 795 | Теано Тфу Pytorch, Torch | Скипт |
| 2015/11 | Порядок-погрузки изображений и языка | 354 | Теано | порядок |
| 2015/11 | На пути к универсальному встраиванию предложений. | 411 | Теано | Пункт |
| 2015/ | От встроенных слов до документов расстояния | 999+ | C, Python | Расстояние слов |
| 2016/02 | Обучение распределенным представлениям предложений из немапендированных данных | 363 | Питон | Быстро |
| 2016/07 | Чараграмма: встраивая слова и предложения с помощью символов N-граммов | 144 | Теано | Чараграмма |
| 2016/11 | Обучение общего предложения с использованием сверточных нейронных сетей | 76 | Теано | Принудительно |
| 2017/03 | Неконтролируемое изучение встроенных предложений с использованием композиционных функций N-грамма | 319 | C ++ | Sent2VEC |
| 2017/04 | Научиться генерировать отзывы и обнаружение настроений | 293 | Тфу Пирог Пирог | Чувства нейрон |
| 2017/05 | Пересмотр повторяющихся сетей для встраиваемых предложений. | 60 | Теано | Грань |
| 2017/05 | Контролируемое изучение универсальных представлений о предложении из данных о естественном языке | 999+ | Пирог | Проведите |
| 2017/07 | VSE ++: улучшение визуальных встраиваний с жесткими негативами | 132 | Пирог | VSE ++ |
| 2017/08 | Использование миллионов событий эмодзи для изучения домена для обнаружения настроений, эмоций и сарказма | 357 | Керас Пирог | Deepmoji |
| 2017/09 | Starspace: встроить все вещи! | 129 | C ++ | Starspace |
| 2017/10 | Несогласное: | 47 | Пирог | Несогласие |
| 2017/11 | Раздвигая границы перефрастических встроенных предложений с миллионами машинных переводов | 128 | Теано | Para-nmt |
| 2017/11 | Встроенный с двумя дорожками в потерю экземпляра с двойным путем | 44 | Матлаб | Изображение-текстовое ввод |
| 2018/03 | Эффективная основа для представлений о обучении предложения | 183 | Тфу | Быстрая мысль |
| 2018/03 | Универсальный предложенный кодер | 564 | TF-Hub | ИСПОЛЬЗОВАТЬ |
| 2018/04 | Ориентированное на конечную задачу текстовое включение посредством глубоких исследований взаимодействий межцентральных взаимодействий | 14 | Теано | Дейст |
| 2018/04 | Обучение общего назначения распределенные предложения с помощью крупномасштабного многозадачного обучения | 198 | Пирог | Генсен |
| 2018/06 | Встроение текста в гиперболические пространства | 50 | Тфу | Гипертекст |
| 2018/07 | Обучение представлению с контрастным прогнозном кодированием | 736 | Керас | CPC |
| 2018/08 | Расстояние и барицентры контекста: оптимальный транспорт контекстов для зданий | 8 | Питон | CMD |
| 2018/09 | Обучение универсальным представлениям предложения с AutoEncoder Attection Max Max | 14 | Тфу | Средний максааа |
| 2018/10 | Обучение представления о перекрестном предложении через многозадачную модель с двойным кодером | 35 | TF-Hub | USE-xling |
| 2018/10 | Улучшение представлений о предложении с максимизацией консенсуса | 4 | - | Многовидение |
| 2018/10 | BiosentVec: создание предложений для биомедицинских текстов | 70 | Питон | BiosentVec |
| 2018/11 | Внедрение Word Mover: от Word2VEC до документирования встраивания | 47 | C, Python | WordMoversembeddings |
| 2018/11 | Иерархический многозадачный подход для обучения встраиванию из семантических задач | 76 | Пирог | HMTL |
| 2018/12 | Массовые многоязычные встроенные предложения для перекрестного переноса с нулевым выстрелом и за его пределами | 238 | Пирог | Лазер |
| 2018/?? | Сверточная нейронная сеть для универсальных предложений. | 6 | Теано | CSE |
| 2019/01 | Обучение не требуется: Изучение случайных кодеров для классификации предложений | 54 | Пирог | Рандсент |
| 2019/02 | CBOW - это не все, что вам нужно: объединение CBOW с моделью космической матричной матрицы | 4 | Пирог | Cmow |
| 2019/07 | Глянец: генеративная скрытая оптимизация представлений предложений | 1 | - | Глянец |
| 2019/07 | Многоязычный универсальный предложенный кодер | 52 | TF-Hub | Многоязычная |
| 2019/08 | Приговор-Берт: встраивание приговора с использованием сиамских берт-сети | 261 | Пирог | Предложение-берт |
| 2020/02 | Sbert-WK: метод встраивания предложения путем рассечения моделей слов на основе Берта | 11 | Пирог | Sbert-WK |
| 2020/06 | Declutr: глубокое контрастное обучение для неконтролируемых текстовых представлений | 4 | Пирог | Declutr |
| 2020/07 | Языко-агрессивный берт-предложение встраиваемое предложение | 5 | TF-Hub | Лабсе |
| 2020/11 | В предложении встроенных из предварительно обученных языковых моделей | 0 | Тфу | Берт-Флоу |