awesome sentence embedding
1.0.0
Uma lista com curadoria de frases pré -tenhadas e modelos de incorporação de palavras
| data | papel | Contagem de citações | Código de treinamento | modelos pré -terem sido pretados |
|---|---|---|---|---|
| - | WebVectores: um kit de ferramentas para criar interfaces da web para modelos semânticos vetoriais | N / D | - | Rusvectōrēs |
| 2013/01 | Estimativa eficiente de representações de palavras no espaço vetorial | 999+ | C | Word2vec |
| 2014/12 | Representações de palavras via incorporação gaussiana | 221 | Cython | - |
| 2014/?? | Um modelo probabilístico para aprender incorporações de palavras multiprotipos | 127 | DMTK | - |
| 2014/?? | Incorporações de palavras baseadas em dependência | 719 | C ++ | Word2vecf |
| 2014/?? | Luva: vetores globais para representação de palavras | 999+ | C | Luva |
| 2015/06 | Representações vetoriais de palavras excepcionadas e esparsas | 129 | C ++ | - |
| 2015/06 | Do banco de dados parafraseados ao modelo de paráfrase composicional e traseiro | 3 | Theano | Paragrama |
| 2015/06 | Representações vetoriais de palavras não distributivas | 68 | Python | WordFeat |
| 2015/?? | Aprendizagem conjunta de caráter e incorporações de palavras | 195 | C | - |
| 2015/?? | Sensebed: Learning Sense Incordações para a palavra e similaridade relacional | 249 | - | Sensível |
| 2015/?? | Incorporação de palavras tópicas | 292 | Cython | |
| 2016/02 | Girando: melhorando as incorporações, percebendo o que está faltando | 61 | Tf | - |
| 2016/03 | Vetores de palavras contra-ajustes para restrições linguísticas | 232 | Python | contra-ajuste (quebrado) |
| 2016/05 | Misturando modelos de tópicos Dirichlet e incorporações de palavras para fazer LDA2VEC | 91 | Chainner | - |
| 2016/06 | Siamese CBOW: otimizando incorporações de palavras para representações de sentenças | 166 | Theano | Siamese CBOW |
| 2016/06 | Fator da matriz usando amostragem de janelas e amostragem negativa para representações de palavras aprimoradas | 58 | Ir | Lexvec |
| 2016/07 | Vetores de palavras enriquecedores com informações de subpainhas | 999+ | C ++ | FastText |
| 2016/08 | Priores morfológicos para incorporação de palavras neurais probabilísticas | 34 | Theano | - |
| 2016/11 | Um modelo conjunto de muitas tarefas: cultivar uma rede neural para várias tarefas de PNL | 359 | C ++ | Charngram2vec |
| 2016/12 | ConceptNet 5.5: Um gráfico multilíngue aberto de conhecimento geral | 604 | Python | NumBatch |
| 2016/?? | Aprendendo meta-incorporação de palavras | 58 | - | Meta-EMB (quebrado) |
| 2017/02 | Vetores de palavras bilíngues offline, transformações ortogonais e o softmax invertido | 336 | Python | - |
| 2017/04 | Distribuições de palavras multimodais | 57 | Tf | word2gm |
| 2017/05 | INCLIMAÇÕES POIncaré para aprender representações hierárquicas | 413 | Pytorch | - |
| 2017/06 | Codificadores de contexto como uma extensão simples, mas poderosa do Word2vec | 13 | Python | - |
| 2017/06 | Especialização semântica de espaços de vetor de palavras distributivos usando restrições monolíngues e cruzadas | 99 | Tf | ATRAT-REPEL |
| 2017/08 | Aprendendo representações de palavras chinesas de glifos de personagens | 44 | C | - |
| 2017/08 | Compreendendo as incorporações de palavras | 92 | Python | SenseGram |
| 2017/09 | Incorporações de hash para representações de palavras eficientes | 25 | Keras | - |
| 2017/10 | BPEMB: Subbornos pré-treinados sem tokenização em 275 idiomas | 91 | Gensim | BPEMB |
| 2017/11 | Coluna: incorporações neurais interpretáveis esparsas | 48 | Pytorch | COLUNA |
| 2017/?? | Aravec: um conjunto de modelos de incorporação de palavras em árabe para uso em PNs de árabe | 161 | Gensim | Aravec |
| 2017/?? | Ngram2vec: Aprendendo representações de palavras aprimoradas da estatística de co-ocorrência do Ngram | 25 | C | - |
| 2017/?? | Dict2vec: Aprendendo incorporações de palavras usando dicionários lexicais | 49 | C ++ | Dict2vec |
| 2017/?? | Incorporações conjuntas de palavras, caracteres e componentes de subcharacter de grão fino | 63 | C | - |
| 2018/04 | Compensações de representação para incorporações hiperbólicas | 120 | Pytorch | h-mds |
| 2018/04 | Meta-incorporados dinâmicos para representações de sentenças aprimoradas | 60 | Pytorch | DME/CDME |
| 2018/05 | Raciocínio analógico nas relações morfológicas e semânticas chinesas | 128 | - | WHINDWORDVETORS |
| 2018/06 | Texto rápido probabilístico para incorporações de palavras com vários sensos | 39 | C ++ | TEXT FASTE DE FASTIDO PROBABILISTA |
| 2018/09 | Incorporando informações sintáticas e semânticas em incorporações de palavras usando redes convolucionais de gráficos | 3 | Tf | Syngcn |
| 2018/09 | Fraia: representação de palavras-agnósticas de frequência | 64 | Pytorch | - |
| 2018/12 | Wikipedia2vec: uma ferramenta otimizada para a aprendizagem de palavras e entidades da Wikipedia | 17 | Cython | Wikipedia2vec |
| 2018/?? | Direcional Skip-Gram: Distinguindo explicitamente o contexto esquerdo e direito para incorporação de palavras | 106 | - | Chinesembedding |
| 2018/?? | CW2VEC: Aprendendo incorporações de palavras chinesas com informações sobre N-gramas | 45 | C ++ | - |
| 2019/02 | VCWE: incorporação de palavras com personagem visual | 5 | Pytorch | Vcwe |
| 2019/05 | Aprendendo incorporações cruzadas do Twitter por meio de supervisão distante | 2 | Texto | - |
| 2019/08 | Uma abordagem neural não supervisionada de caráter de caráter para a aprendizagem de representação de palavras e contexto | 5 | Tf | - |
| 2019/08 | VICO: INCLIMAÇÕES DE PALAVRAS DE CO-OCCRENCIES VISUAL | 7 | Pytorch | VICO |
| 2019/11 | Incorporação de texto esférico | 25 | C | - |
| 2019/?? | Incorporações de palavras não supervisionadas capturam conhecimento latente da literatura sobre ciência de materiais | 150 | Gensim | - |
| data | papel | Contagem de citações | código | modelos pré -terem sido pretados |
|---|---|---|---|---|
| - | Modelos de idiomas são aprendizes multitarefa sem supervisão | N / D | Tf Pytorch, TF2.0 Keras | GPT-2 (117m, 124m, 345m, 355m, 774m, 1558m) |
| 2017/08 | Aprendido na tradução: vetores de palavras contextualizados | 524 | Pytorch Keras | Enseada |
| 2018/01 | Modelo de linguagem universal Tuneamento fino para classificação de texto | 167 | Pytorch | Ulmfit (inglês, zoológico) |
| 2018/02 | Representações de palavras contextualizadas profundas | 999+ | Pytorch Tf | Elmo (Allennlp, TF-Hub) |
| 2018/04 | Representação contextualizada eficiente: poda do modelo de idioma para rotulagem de sequência | 26 | Pytorch | Ld-net |
| 2018/07 | Rumo a uma melhor análise de UD: incorporações de palavras contextualizadas profundas, conjuntos e concatenação em árvores | 120 | Pytorch | Elmo |
| 2018/08 | Conexão de saída direta para um modelo de linguagem de alto rank | 24 | Pytorch | Doc |
| 2018/10 | Bert: pré-treinamento de transformadores bidirecionais profundos para compreensão de idiomas | 999+ | Tf Keras Pytorch, TF2.0 Mxnet Paddlepddle Tf Keras | Bert (Bert, Ernie, Kobert) |
| 2018/?? | Incorporação de string contextual para rotulagem de sequência | 486 | Pytorch | Flair |
| 2018/?? | Melhorando a compreensão da linguagem por pré-treinamento generativo | 999+ | Tf Keras Pytorch, TF2.0 | Gpt |
| 2019/01 | Redes neurais profundas de várias tarefas para compreensão da linguagem natural | 364 | Pytorch | Mt-dnn |
| 2019/01 | BioBert: Modelo de representação de linguagem biomédica pré-treinada para mineração de texto biomédico | 634 | Tf | BioBert |
| 2019/01 | Modelo de idioma transversal pré-treinamento | 639 | Pytorch Pytorch, TF2.0 | Xlm |
| 2019/01 | Transformer-xl: modelos de linguagem atentos além de um contexto de comprimento fixo | 754 | Tf Pytorch Pytorch, TF2.0 | Transformer-xl |
| 2019/02 | Aprendizagem eficiente de representação contextual sem camada softmax | 2 | Pytorch | - |
| 2019/03 | Scibert: incorporações contextualizadas pré -ridadas para texto científico | 124 | Pytorch, tf | Scibert |
| 2019/04 | INCLIMENTOS CLÍNICOS DISPONÍVEIS DISPONÍVEIS | 229 | Texto | Clinicalbert |
| 2019/04 | Clinicalbert: modelando notas clínicas e previsão de readmissão hospitalar | 84 | Pytorch | Clinicalbert |
| 2019/05 | Ernie: representação aprimorada de linguagem com entidades informativas | 210 | Pytorch | Ernie |
| 2019/05 | Modelo de linguagem unificada Pré-treinamento para compreensão e geração da linguagem natural | 278 | Pytorch | UNILMV1 (UNILM1-LARGED, CASADO UNILM1-BASE) |
| 2019/05 | Hibert: Nível de documento pré-treinamento de transformadores bidirecionais hierárquicos para resumo de documentos | 81 | - | |
| 2019/06 | Pré-treinamento com mascaramento de palavras inteiras para o chinês Bert | 98 | Pytorch, tf | Bert-wwm |
| 2019/06 | XLNET: pré -treinamento auto -regressivo generalizado para compreensão da linguagem | 999+ | Tf Pytorch, TF2.0 | Xlnet |
| 2019/07 | Ernie 2.0: Uma estrutura de pré-treinamento contínua para a compreensão do idioma | 107 | Paddlepddle | Ernie 2.0 |
| 2019/07 | Spanbert: melhorando o pré-treinamento representando e prevendo vãos | 282 | Pytorch | Spanbert |
| 2019/07 | Roberta: Uma abordagem de pré -treinamento de Bert robustamente otimizada | 999+ | Pytorch Pytorch, TF2.0 | Roberta |
| 2019/09 | SubbORT ELMO | 1 | Pytorch | - |
| 2019/09 | Representações contextuais de palavras contextuais aprimoradas | 115 | - | |
| 2019/09 | Tinybert: destilar Bert para a compreensão da linguagem natural | 129 | - | |
| 2019/09 | Megatron-LM: Treinando modelos de linguagem de parâmetros de bilhões de bilhões usando o paralelismo do modelo | 136 | Pytorch | Megatron-lm (Bert-345m, GPT-2-345m) |
| 2019/09 | Multifit: modelo de linguagem multilíngue eficiente de ajuste fino | 29 | Pytorch | - |
| 2019/09 | Compressão do modelo de linguagem extrema com subbordas ideais e projeções compartilhadas | 32 | - | |
| 2019/09 | Mule: incorporação de linguagem universal multimodal | 5 | - | |
| 2019/09 | Unicoder: um codificador de linguagem universal por pré-treinamento com várias tarefas transversais | 51 | - | |
| 2019/09 | K-Bert: Habilitando a representação de linguagem com o Gráfico de Conhecimento | 59 | - | |
| 2019/09 | Uniter: Aprendendo representações de texto de imagem universal | 60 | - | |
| 2019/09 | Albert: Um Lite Bert para o aprendizado auto-supervisionado de representações de idiomas | 803 | Tf | - |
| 2019/10 | BART: DenOising Sequence-Sensence Pré-treinamento para geração de linguagem natural, tradução e compreensão | 349 | Pytorch | Bart (Bart.base, Bart.large, Bart.large.mnli, Bart.large.cnn, Bart.large.xsum) |
| 2019/10 | Distilbert, uma versão destilada de Bert: menor, mais rápido, mais barato e mais leve | 481 | Pytorch, TF2.0 | Distilbert |
| 2019/10 | Explorando os limites do aprendizado de transferência com um transformador de texto em texto unificado | 696 | Tf | T5 |
| 2019/11 | Camembert: um saboroso modelo de língua francesa | 102 | - | Camembert |
| 2019/11 | Zen: codificador de texto chinês pré-treinamento, aprimorado por representações de n-gramas | 15 | Pytorch | - |
| 2019/11 | Aprendizagem de representação cruzada não supervisionada em escala | 319 | Pytorch | Xlm-r (xlm-roberta) (xlmr.large, xlmr.base) |
| 2020/01 | Profetnet: Prevendo o N-Gram futuro para o pré-treinamento de sequência a sequência | 35 | Pytorch | Profetnet (Profetnet-Large-16GB, ProphetNet-Large-160GB) |
| 2020/02 | Codebert: Um modelo pré-treinado para programação e linguagens naturais | 25 | Pytorch | Codebert |
| 2020/02 | UNILMV2: Modelos de idiomas pseudo-masculino para modelo de idioma unificado pré-treinamento | 33 | Pytorch | - |
| 2020/03 | Electra: codificadores de texto pré-treinamento como discriminadores em vez de geradores | 203 | Tf | Electra (Electra-Small, Electra-Base, Electra-Large) |
| 2020/04 | MPNET: pré-treinamento mascarado e permutado para compreensão do idioma | 5 | Pytorch | Mpnet |
| 2020/05 | Parsbert: Modelo baseado em transformadores para compreensão da linguagem persa | 1 | Pytorch | Parsbert |
| 2020/05 | Modelos de idiomas são poucos alunos | 382 | - | - |
| 2020/07 | Infoxlm: uma estrutura teórica da informação para o modelo de linguagem transversal pré-treinamento | 12 | Pytorch | - |
| data | papel | Contagem de citações | código | Model_name |
|---|---|---|---|---|
| - | Adaptação de domínio incremental para tradução para máquinas neurais em configurações de baixo recurso | N / D | Python | Arasif |
| 2014/05 | Representações distribuídas de frases e documentos | 999+ | Pytorch Python | DOC2VEC |
| 2014/11 | Unificar incorporações visuais-semânticas com modelos multimodais de linguagem neural | 849 | Theano Pytorch | VSE |
| 2015/06 | Alinhando livros e filmes: para explicações visuais semelhantes a histórias assistindo filmes e lendo livros | 795 | Theano Tf Pytorch, tocha | Skipthought |
| 2015/11 | Ordembeddings de imagens e idioma | 354 | Theano | Encadeamento de pedidos |
| 2015/11 | Em direção a incorporações parafrásticas universais | 411 | Theano | Paragrama |
| 2015/?? | De incorporações de palavras para documentar distâncias | 999+ | C, Python | Distância do motor de palavras |
| 2016/02 | Aprendizagem distribuída Representações de frases de dados não marcados | 363 | Python | Rápido |
| 2016/07 | Charagrama: incorporando palavras e frases por meio de N-Grams de caracteres | 144 | Theano | Charagram |
| 2016/11 | Aprendendo representações genéricas de frases usando redes neurais convolucionais | 76 | Theano | Se convidar |
| 2017/03 | Aprendizagem não supervisionada de incorporações de sentença usando recursos de n-gramas composicionais | 319 | C ++ | Sent2vec |
| 2017/04 | Aprendendo a gerar críticas e descobrir o sentimento | 293 | Tf Pytorch Pytorch | Neurônio do sentimento |
| 2017/05 | Revisitando redes recorrentes para incorporações parafrásticas | 60 | Theano | Gran |
| 2017/05 | Aprendizagem supervisionada de representações universais de sentenças de dados de inferência de linguagem natural | 999+ | Pytorch | Infecsent |
| 2017/07 | VSE ++: melhorando as incorporações visuais-semânticas com negativos difíceis | 132 | Pytorch | VSE ++ |
| 2017/08 | Usando milhões de ocorrências emoji para aprender representações de qualquer domínio para detectar sentimentos, emoção e sarcasmo | 357 | Keras Pytorch | Deepmoji |
| 2017/09 | Starspace: Incorpore todas as coisas! | 129 | C ++ | Starspace |
| 2017/10 | Dissidência: Aprendendo as representações de sentenças de relações explícitas do discurso | 47 | Pytorch | Dissidência |
| 2017/11 | Empurrando os limites das incorporações parafrásticas de sentença com milhões de traduções de máquinas | 128 | Theano | para-nmt |
| 2017/11 | TEXT-TEXTIMENTO DE IMAGEM CONCOISTIONAL DO PATH DA INCORMAÇÃO COM PERDA DE CASA | 44 | Matlab | Image-text-Embetingding |
| 2018/03 | Uma estrutura eficiente para representações de sentenças de aprendizado | 183 | Tf | Pensamento rápido |
| 2018/03 | Codificador de frase universal | 564 | Tf-hub | USAR |
| 2018/04 | TEXTUAL ORIENTADO DA TASSAGEM DE TARDA EXTRIBUIÇÃO ATRANTRAS ATRAVÉS DE EXPLORAÇÕES DE INTERAÇÕES INTER-SEMENCIANTES | 14 | Theano | Deiste |
| 2018/04 | Aprendendo de uso geral Representações de sentenças distribuídas por meio de aprendizado de várias tarefas em escala | 198 | Pytorch | Gensen |
| 2018/06 | Incorporar texto em espaços hiperbólicos | 50 | Tf | Hipertexto |
| 2018/07 | Aprendizagem de representação com codificação preditiva contrastiva | 736 | Keras | CPC |
| 2018/08 | Distância e baricentros do Mover Context: Transporte ideal de contextos para representações de construção | 8 | Python | Cmd |
| 2018/09 | Aprendendo representações de sentenças universais com Atenção Média de Atenção AutoEncoder | 14 | Tf | Maxae média |
| 2018/10 | Aprendendo representações de sentenças transfulpanas por meio de um modelo de codificador duplo de várias tarefas | 35 | Tf-hub | Uso-Xling |
| 2018/10 | Melhorando as representações de frases com maximização de consenso | 4 | - | Multi-View |
| 2018/10 | Biosentvec: criando incorporações de frases para textos biomédicos | 70 | Python | Biosentvec |
| 2018/11 | A incorporação do Word Mover: do Word2vec para a incorporação de documentos | 47 | C, Python | WordMoverSEMBEDDINGS |
| 2018/11 | Uma abordagem hierárquica de várias tarefas para aprender incorporações de tarefas semânticas | 76 | Pytorch | Hmtl |
| 2018/12 | Incorporações de frases multilíngues massivamente para transferência cruzada de tiro zero e além | 238 | Pytorch | LASER |
| 2018/?? | Rede neural convolucional para incorporações de sentenças universais | 6 | Theano | CSE |
| 2019/01 | Não é necessário treinamento: explorando codificadores aleatórios para classificação de frases | 54 | Pytorch | Randsent |
| 2019/02 | CBOW não é tudo o que você precisa: combinar CBOW com o modelo de espaço da matriz composicional | 4 | Pytorch | Cmow |
| 2019/07 | Gloss: otimização latente generativa das representações de frases | 1 | - | LUSTRO |
| 2019/07 | Codificador de frases universal multilíngue | 52 | Tf-hub | Multilíngue |
| 2019/08 | Sentença-Bert: incorporações de sentença usando Siamese Bert-Networks | 261 | Pytorch | Frase-bert |
| 2020/02 | Sbert-WK: Um método de incorporação de frase dissecando modelos de palavras baseados em Bert | 11 | Pytorch | Sbert-wk |
| 2020/06 | Declaração: Aprendizagem contrastiva profunda para representações textuais não supervisionadas | 4 | Pytorch | Declútrido |
| 2020/07 | Sentença Bert de Bert, idioma, incorporação | 5 | Tf-hub | Labse |
| 2020/11 | Nas incorporações da frase de modelos de idiomas pré-treinados | 0 | Tf | Bert-Flow |