AD: Um repositório para redes convolucionais de gráficos em https://github.com/jiakui/awesome-gcn (Recursos para redes convolucionais de gráficos (图卷积神经网络相关资源).
ARXIV: 1812.06705, Aumentação contextual condicional de Bert, Autores: Xing Wu, Shangwen LV, Liangjun Zang, Jizhong Han, Songlin Hu
ARXIV: 1812.03593, SDNET: Rede profunda contextualizada baseada em atenção para a resposta de perguntas de conversação, autores: Chenguang Zhu, Michael Zeng, Xuedong Huang
ARXIV: 1901.02860, Transformer-xl: modelos de linguagem atentos além de um contexto de comprimento fixo, autores: Zihang Dai, Zhilin Yang, Yiming Yang, William W. Cohen, Jaime Carbonell, Quoc V. Le e Ruslan Salakhutdinov.
ARXIV: 1901.04085, Passagem Reanking com Bert, Autores: Rodrigo Nogueira, Kyunghyun Cho
ARXIV: 1902.02671, Bert e PALS: Camadas de atenção projetadas para adaptação eficiente em aprendizado de várias tarefas, autores: Asa Cooper Stickland, Iain Murray
ARXIV: 1904.02232, Bert Pós-treinamento para compreensão de leitura de revisão e análise de sentimentos baseados em aspectos, Autores: Hu Xu, Bing Liu, Lei Shu, Philip S. Yu, [Código]
Codertimo/Bert-Pytorch, Google AI 2018 Bert Pytorch Implementação,
Huggingface/Pytorch-Preserd-Bert, uma implementação de Pytorch do modelo BERT do Google AI com script para carregar os modelos pré-treinados do Google,
DMLC/GLUON-NLP, Gluon + MXNET Implementação que reproduz Bert Pré-Trerendo e Finetuning na referência de cola, esquadrão, etc.
DBIIR/UER-PY, UER-PY é um kit de ferramentas para pré-treinamento em corpus de domínio geral e ajuste fino na tarefa a jusante. O UER-PY mantém a modularidade do modelo e suporta extensibilidade de pesquisa. Ele facilita o uso de diferentes modelos de pré-treinamento (por exemplo, Bert) e fornece interfaces para os usuários se estenderem ainda mais.
Brikerman/Kashgari, simples e movido a estrutura de NLP multilíngues de Keras, permite criar seus modelos em 5 minutos para tarefas de reconhecimento de entidade nomeadas (NER), marcação de parte do discurso (POS) e classificação de texto. Inclui incorporação BERT, GPT-2 e Word2VEC.
Kaushaltrivedi/Fast-Bert, biblioteca super fácil para modelos de PNL baseados em Bert,
Separius/Bert-Keras, implementação de Keras de Bert com pesos pré-treinados,
Soskek/Bert-Chainer, implementação da cadeia de "Bert: pré-treinamento de transformadores bidirecionais profundos para entendimento de idiomas",
Innodatalabs/tbert, porta Pytorch do modelo Bert ML
Guotong1988/Bert-TensorFlow, Bert: Pré-treinamento de transformadores bidirecionais profundos para entendimento da linguagem
Dreamgonfly/Bert-Pytorch, implementação de Pytorch de Bert em "Bert: pré-treinamento de transformadores bidirecionais profundos para compreensão da linguagem"
Cyberzhg/Keras-Bert, Implementação de Bert que poderia carregar modelos pré-treinados oficiais para extração e previsão de recursos
Soskek/Bert-Chainer, implementação da cadeia de "Bert: pré-treinamento de transformadores bidirecionais profundos para a compreensão da linguagem"
Mazhiyuanbuaa/bert-tf1.4.0, bert-tf1.4.0
Dhlee347/Pytorchic-Bert, implementação de Pytorch do Google Bert,
Kpot/Keras-Transformer, Biblioteca Keras para Building (Universal) Transformers, facilitando os modelos Bert e GPT,
miroozyx/bert_with_keras, uma versão Keras do modelo Bert do Google,
Conde-Forge/Pytorch pretendido-Bert-Feedstock, um repositório de conda-sitia para Pytorch, pretendido a Bert. , Assim,
Rshcaroline/bert_pytorch_fastnlp, uma implementação Pytorch & FastNLP do modelo BERT do Google AI.
Nghuyong/Ernie-Pytorch, versão Ernie Pytorch,
Brightmart/Roberta_zh, Roberta para chinês, 中文预训练 Roberta 模型,
Ymcui/chinês-bert-wwm, pré-treinamento com mascaramento de palavras inteiras para o chinês Bert (中文 Bert-wwm 预训练模型))))))))))))))))))))))))))))))))))) https://arxiv.org/abs/1906.08101,
thunlp/OpenClap, Open Chinese Language Pré-treinado Zoológico, OpenClap : 多领域开源中文预训练语言模型仓库,
Ymcui/chinês pretendido-xlnet, xlnet chinês pré-treinado (中文 xlnet 预训练模型),,
Brightmart/xlnet_zh, 中文预训练 xlnet 模型: xlnet_large chinês pré-treinado,
Thunlp/Ernie, código -fonte e conjunto de dados para o artigo da ACL 2019 "Ernie: representação aprimorada de linguagem com entidades informativas", Imporove Bert com fusão de informações heterogêneas.
Paddlepaddle/Lark, kit de representações de idiomas, implementação de Paddlepddle de Bert. Ele também contém uma versão aprimorada de Bert, Ernie, para tarefas chinesas de PNL. Bert 的中文改进版 Ernie,
zihangdai/xlnet, xlnet: pré -treinamento auto -regressivo generalizado para compreensão da linguagem,
Kimiyoung/Transformer-xl, transformador-xl: modelos de linguagem atenciosos além de um contexto de comprimento fixo, este repositório contém o código em pytorch e tensorflow para o nosso artigo.
Gaopeng97/Transformer-Xl-Chinese, Transformer XL 在中文文本生成上的尝试。 (Transformador XL para geração de texto de chinês),
Paddlepaddle/Ernie, uma implementação de Ernie para o entendimento de idiomas (incluindo modelos pré-treinamento e ferramentas de ajuste fino) Bert 的中文改进版 Ernie,
Pytorch/Fairseq, Facebook AI Research Sequence-to Sevencence Toolkit escrito em Python. Roberta: Uma abordagem de pré -treinamento de Bert robustamente otimizada,
FacebookResearch/Spanbert, código para usar e avaliar Spanbert. , Este repositório contém código e modelos para o artigo: Spanbert: melhorando o pré-treinamento, representando e prevendo vãos.,,
Brightmart/Albert_zh, 海量中文预训练 Albert 模型, um Lite Bert para o aprendizado auto-supervisionado de representações de idiomas https://arxiv.org/pdf/1909.11942.pdf,
Lonepaciente/Albert_pytorch, um Lite Bert para representações de idiomas de aprendizagem auto-supervisionadas,
KPE/Bert-For-TF2, uma implementação do Keras Tensorflow 2.0 de Bert, Albert e Adaptador-Bert. https://github.com/kpe/bert-for-tf2,
Brightmart/bert_language_understanding, pré-treinamento de transformadores bidirecionais profundos para entendimento da linguagem: Textcnn pré-trep,
Y1RAN/NLP-Bert-Chineseversion, 谷歌自然语言处理模型 Bert : 论文解析与 Python 代码,
yangbisheng2009/cn-bert, bert 在中文 nlp 的应用, 语法检查
Jayyip/Bert-Multiple-GPU, uma versão de suporte de GPU múltiplas de Bert,
Highcwu/keras-bert-tpu, implementação de Bert que poderia carregar modelos pré-treinados oficiais para extração e previsão de recursos na TPU,
Willyoung2017/bert_attemp, pytorch pré -teriaido Bert,
Pydataman/bert_examples, alguns exemplos de bert, run_classifier.py 是基于谷歌 Bert 实现了 Quora Classificação de perguntas insinceras 二分类比赛。run_ner.py 是基于瑞金医院 ai 大赛 bert 写的一个命名实体识别。
guotong1988/bert-chinese, bert: pré-treinamento de transformadores bidirecionais profundos para entendimento de idiomas 中文 汉语
Zhongyunuestc/bert_multiTask, 多任务 tarefa
Microsoft/Azureml-Bert, caminhada de ponta a ponta para obter Bert de ajuste fino usando o Azure Machine Learning,
bigboned3/bert_serving, exportar modelo Bert para servir,
Yoheikikuta/Bert-Japanese, Bert com peça de frase para texto japonês.
WHQWILL/SEQ2SEQ-TEYPHRASE-BERT, Adicione Bert à parte do codificador para https://github.com/memray/seq2seq-keyphrase-pytorch,
Exemplos de Algteam/Bert, Bert-Demo,
Cedrickchee/Awesome-Bert-NLP, uma lista com curadoria de recursos de PNL focados em Bert, mecanismo de atenção, redes de transformador e aprendizado de transferência.
cnfive/cnbert, 中文注释一下 bert 代码功能,
Brightmart/bert_customized, bert com recursos personalizados,
Jayyip/Bert-MultitaSk-Learning, Bert para aprendizado multitarefa,
yuanxiaosc/bert_paper_chinese_translation, bert: pré-treinamento de transformadores bidirecionais profundos para entendimento da linguagem 论文的中文翻译。 Tradução da China! https://yuanxiaosc.github.io/2018/12/…,
Yaserkl/bertvsulmfit, comparando os resultados da classificação de texto usando a incorporação de Bert e a incorporação do UlMFit,
Kpot/Keras-Transformer, Biblioteca Keras para Building (Universal) Transformers, facilitando os modelos Bert e GPT,
1234560O/Bert-modelo-código-interpretação, 解读 Tensorflow 版本 Bert 中 Modeling.py 数据流
Inferência de CDATHURALIYA/BERT, uma classe auxiliar para o Google Bert (Devlin et al., 2018) para apoiar a previsão on-line e a pipelinização de modelos.
Gameofdimension/java-bert-prdict, transformar o ponto de verificação de pré-pretain Bert em modelo salvo para uma demonstração de extração de recursos em java
1234560O/Bert-modelo-código-interpretação, 解读 Tensorflow 版本 Bert 中 Modeling.py 数据流
Allenai/Scibert, um modelo Bert para texto científico. https://arxiv.org/abs/1903.10676,
Merajat/SolvingAlManythingWithbert, BioBert Pytorch
Kexinhuang12345/Clinicalbert, Clinicalbert: Modelando Notas Clínicas e previsão de readmissão hospitalar https://arxiv.org/abs/1904.05342
EmilyalsEntzer/Clinicalbert, repositório para incorporação clínica de Bert clínica disponível ao público
Zhihu/Cubert, Implementação rápida da inferência de Bert diretamente em Nvidia (CUDA, CUBLAS) e Intel MKL
XMXOXO/BERT-TRAIN2DEMPLO, Treinamento e implantação de modelos Bert, Bert 模型从训练到部署,
https://github.com/nvidia/deeplearnningexamples/tree/master/tensorflow/languageModeling/bert, Bert para tensorflow, este repositório fornece um script e uma receita para treinar Bert para alcançar a precisão da arte e é testada e mantida por NVIDIA.
qiangsiwei/bert_distill, destilação de bert (基于 bert 的蒸馏实验),
Kevinmtian/Destill-Bert, destilação de conhecimento de Bert,
SOGOU/SMRCTOOLKIT, este kit de ferramentas foi projetado para o desenvolvimento rápido e eficiente de modelos modernos de compreensão de máquinas, incluindo modelos publicados e protótipos originais.,,
Benywon/Chinesbert, este é um modelo chinês de Bert específico para resposta a perguntas,
Matthew-Z/R-Net, R-Net em Pytorch, com Bert e Elmo,
NYU-DL/DL4MARCO-BERT, PASSAGEM RANKING COM BERT,
xzp27/bert-for-chinese-question -nswering,
Chiayewken/Bert-Qa, Bert para resposta a perguntas A partir de Hotpotqa,
Ankit-AI/Bertqa-Attention-on-Steroids, Bertqa-Atenção em esteróides,
NOVICL/BERT-RACE, este trabalho é baseado na implementação de Pytorch de Bert (https://github.com/huggingface/pytorch-pretring-bert). Adaptei o modelo Bert original para trabalhar na compreensão de máquinas de múltipla escolha.
EVA-N27/BERT-PARA-PERGUNTA-PERGUNTA-PERGUNTA,
Allenai/Allennlp-Bert-qa-Wrapper, este é um invólucro simples em cima dos modelos de controle de qualidade baseados em Bert, com base em Pytorch, para fazer arquivos de modelos Allennlp, para que você possa servir demos da Allennlp.
Edmondchensj/Chineseqa-With-Bert, EECS 496: Tópicos avançados no Projeto Final de Aprendizagem Deep: Resposta de Perguntas Chinesas com Bert (DataSet Baidu Dureader)
Graykode/Toeicbert, Toeic (Teste de Inglês para Comunicação Internacional) Solução usando Modelo Pytorch-Preted-Bert.,
Graykode/Korquad-Beginner, https://github.com/graykode/korquad-beginner
Krishna-sharma19/sbu-qa, este repositório usa incorporações pré-train bert para aprendizado de transferência no domínio de controle de qualidade
Basketballndlearn/Dureader-Bert, Bert Dureader 多文档阅读理解 排名第七, 2019 Dureader 机器阅读理解 单模型代码。,, 单模型代码。,, 单模型代码。,
ZhpMatrix/Kaggle-Quora-Inserido-Classificação, Kaggle 新赛 (linha de base)-基于 Bert 的 Ajuste fino 方案+基于 Tensor2tensor 的 Codificador do transformador 方案
Classificação Maksna/Bert-Fine-Tuning-For-Chinese-Multiclass, use o modelo de pré-treinamento do Google Bert para ajustar fino para a classificação multiclasse chinesa
NLPscott/Bert-Chinese-Classification-Task, Bert 中文分类实践,
SocialBird-Aailab/Bert-Classification-Tutorial,
FOOSINAPTIC/BERT_CLASSIFER_TRIL, BERT TEMS para Classication Chinese Corpus
Xiaopingzhong/Bert-Finetune para Classfier, 微调 Bert 模型, 同时构建自己的数据集实现分类
Pengming617/bert_classification, 利用 bert 预训练的中文模型进行文本分类,
xieyufei1993/bert-pytorch-chinese-textclassification, pytorch bert finetune na classificação de texto chinês,
Liyibo/classificação de texto-demos, modelos neurais para classificação de texto em tensorflow, como CNN, DPCNN, FastText, Bert ...,
Circlepi/bert_chinese_text_class_by_pytorch, um pytorch implementos da classe de texto chinês baseado em bert_pretringen_model,
Kaushaltrivedi/Bert-Toxic-Commments-Multilabel, Classificação Multilabel para Comentários Tóxicos Desafio usando Bert,
Classificação Loneppiente/Bert-Chinese-Text-Pytorch, este repo contém uma implementação de Pytorch de um modelo BERT pré-treinado para classificação de texto.,
CHUNG-I/DOUBAN-SIGUNDO-análise, análise de sentimentos sobre o conjunto de dados de comentários curtos de filmes de Douban usando Bert.
Lynnna-xu/bert_sa, Bert Sentiment Analysis Tensorflow Serving com API RESTful
HSLCY/Absa-Bert-Pair, utilizando Bert para análise de sentimentos baseados em aspectos por meio da construção de sentença auxiliar (NAACL 2019) https://arxiv.org/abs/1903.09588,
Songyouwei/Absa-Pytorch, Análise de sentimentos baseados em aspectos, implementações de Pytorch. 基于方面的情感分析 , 使用 pytorch 实现。,
Howardhsu/Bert-For-RRC-ABSA, Código para o nosso artigo NAACL 2019: "Bert pós-treinamento para compreensão de leitura de revisão e análise de sentimento baseado em aspectos",
Brightmart/Sentiment_analysis_fine_grain, classificação de vários rótulos com Bert; Análise de sentimentos de granulação fina de AI Challenger,
ZhpMatrix/Bert-sequence marcando, 基于 Bert 的中文序列标注
Kyzhouhzau/Bert-ner, use o Google Bert para fazer Conll-2003 ner! , Assim,
Solução de tarefas King-Menin/Ner-Bert, NER (Bert-Bi-lstm-Crf) com o Google Bert https://github.com/google-research.
Macanv/Bert-Bilsmt-Crf -ner, Solução TensorFlow da tarefa NER usando o modelo BILSTM-CRF com o ajuste fino do Google Bert,
Fuyanzhe2/Nome-entidade-reconhecimento, LSTM-CRF, Lattice-Crf, Bert-energia 及近年 Ner 相关论文 Siga,
MHCAO916/NER_BASED_ON_BERT, este projeto é baseado no modelo do Google Bert, que é um nerd chinês
Prohiryu/bert-chinese-ner, 使用预训练语言模型 bert 做中文 ner,
Sberbank-AI/Ner-Bert, Bert-Er (Nert-Bert) com o Google Bert,
Kyzhouhzau/Bert-Bilstm-CRF, esta base de modelos em Bert-As-Service. Estrutura do modelo: bilstm CRF. , Assim,
Hoiy/Berserker, Berserker - Bert Chinese Word Tokenizer, Berserker (Bert Chinese Word Tokenizer) é um tokenizador chinês construído sobre o modelo Bert do Google. , Assim,
Kyubyong/bert_ner, nerd com bert,
Jiangpinglei/bert_chinesewordsement, um modelo de segmento de palavras chinês baseado em Bert, f1-escore 97%,
Yanwii/Chinesener, 基于 Bi-Gru + CRF 的中文机构名、人名识别 中文实体识别, 支持 Google Bert 模型
Lemonhu/Ner-Bert-Pytorch, solução Pytorch de tarefa NER usando o modelo BERT pré-treinado do Google AI.
nlpyang/bertsum, código para papel tune tune bert para resumo extrativo,
Santhoshkolloju/abstrato-humilização com resumo abstrato e abstrato usando Bert como codificador e decodificador do transformador,
Nayeon7lee/Bert-SMARIZAÇÃO, implementação de 'geração de linguagem natural baseada em pré-treinamento para resumo de texto', artigo: https://arxiv.org/pdf/1902.09243.pdf
dmmiller612/palestra-verão, resumizador de palestras com bert
ASYML/TEXAR, Toolkit para geração de texto e além de https://texar.io, o texas é um kit de ferramentas de geração de texto de uso geral, também implementou Bert aqui para classificação e aplicativos de geração de texto combinando com os outros módulos do Texas.
anulado/bertgenerate, ajuste fino Bert para geração de texto, Bert 做 文本生成 的一些實驗
Tiiiger/bert_score, pontuação Bert para geração de idiomas,
lvjianxin/conhecimento-extração, 基于中文的知识抽取 , linha de base : Bi-LSTM+CRF 升级版: Bert 预训练
SakuraNew/Bert-Attributextraction, usando BERT para extração de atributos no conhecimento. Ajuste fino e extração de recursos. 使用基于 Bert 的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。,
aditya-ai/informação-revieval-sistema-using-bert,
jkszw2014/bert-kbqa-NLPCC2017, A trial of kbqa based on bert for NLPCC2016/2017 Task 5 (基于BERT的中文知识库问答实践,代码可跑通),博客介绍 https://blog.csdn.net/ai_1046067944/article/details/86707784 ,
yuanxiaosc/esquema baseado em exclusão, código para http://lic2019.ccf.org.cn/kg 信息抽取。使用基于 bert 的实体抽取和关系抽取的端到端的联合模型。 (将在比赛结束后 , 完善代码和使用说明),,
Yuanxiaosc/Extração de Extração, Entidade e Relacionamento de Relação de Entidade, baseada no Tensorflow. 基于 Tensorflow 的管道式实体及关系抽取 , 2019 语言与智能技术竞赛信息抽取任务解决方案 (比赛结束后完善代码))。 Extração de conhecimento baseada em schema, Ske 2019 http://lic2019.ccf.org.cn,
Wenrichard/Kbqa-Bert, 基于知识图谱的问答系统 , Bert 做命名实体识别和句子相似度 , Online 和 Dreios 模式 , 博客介绍 https://zhuanlan.zhihu.com/p/62946533,
ZHPMatrix/Bertem, ACL2019 论文实现《 Combinando os espaços em branco: similaridade distributiva para aprendizado de relação》,
Ianycxu/rgcn-with-bert, redes convolucionais de gráfico-relatório (RGCN) com BERT para tarefa de resolução de núcleo
Isabellebouchard/bert_for_gap-coreference, Bert Finetuning para resolução de pronome imparcial de gap
Gaoq1/rasa_nlu_gq, transforme a linguagem natural em dados estruturados (支持中文 , 自定义了 n 种模型 , 支持不同的场景和任务),),
Gaoq1/rasa_chatbot_cn, 基于 rasa-nlu 和 rasa-core 搭建的对话系统 demonstração,
Gaoq1/Rasa-Bert-Finetune, 支持 Rasa-nlu 的 Bert Finetune,
Geodge831012/bert_robot, 用于智能助手回答问题的训练 , 基于 bert 模型进行训练改造
Classificação Yuanxiaosc/Bert-For-Sequence-Rabeling e Texto, este é o código do modelo para usar o BERT para a lança de sequência e a classificação de texto, a fim de facilitar o BERT para obter mais tarefas. Atualmente, o código do modelo incluiu a Identificação de entidade nomeada Conll-2003, preenchimento de slots e previsão de intenções.
Guillaume-Chevalier/Reubert, um chatbot de resposta à pergunta, simplesmente.
Hanxiao/Bert-AS Serviço, mapeando uma frase de comprimento de variável para um vetor de comprimento fixo usando modelo BERT pré-treinado,
Yc-wind/embedding_study, 中文预训练模型生成字向量学习 , 测试 bert , elmo 的中文效果,
Kyubyong/Bert-Tokenbeddings, Bert INCORMAÇÕES TOKEN PRENTRETRIEND,
xu-song/bert_as_language_model, bert como modelo de idioma, garfo de https://github.com/google-research/bert,
Yuanxiaosc/Deep_dynamic_word_representation, código Tensorflow e modelos pré-treinados para representação de palavras dinâmicas profundas (DDWR). Combina o modelo Bert e a representação profunda de palavras de contexto de Elmo.,
IMGARYLAI/BERT-EMBEDDIGEM, INCEDIÇÕES NÍVEIS DE TOKEN do Modelo Bert no MxNet e Gluonnlp http://bert-embedding.readthedocs.io/,
aterrifiquezhao/bert-utils, bert 生成句向量 , bert 做文本分类、文本相似度计算,
Fennudetudou/bert_implement, 使用 bert 模型进行文本分类 , , , 以及词性标注,
WHQWILL/SEQ2SEQ-TEYPHRASE-BERT, Adicione Bert à parte do codificador para https://github.com/memray/seq2seq-keyphrase-pytorch,
Charles9n/Bert-Sklearn, um invólucro Sklearn para o modelo Bert do Google,
NVIDIA/MEGATRON-LM, Treinando de pesquisa em andamento Modelos de idiomas em escala, incluindo: Bert,
Hankcs/Bert-Tooken-Le-LeBebedding, gerar Bert Token Nível Incorporar sem dor
FacebookResearch/LAMA, LAMA: Análise de modelos de idiomas, o LAMA é um conjunto de conectores para modelos de idiomas pré-treinados.
Pengming617/bert_textMatching, 利用预训练的中文模型实现基于 bert 的语义匹配模型 数据集为 lcqmc 官方数据
BrokenWind/BertSimilaridade, Computação Similaridade de duas frases com o algoritmo Bert do Google
policeme/chinês_bert_similaridade, similaridade chinesa Bert
Somiilaridade de LONEPACIENTE/BERT-SENTENÇÃO Pytorch, este repo contém uma implementação de Pytorch de um modelo BERT pré-treinado para tarefa de similaridade de sentença.
Nouhadziri/Dialogentilment, a implementação do artigo "Avaliando a coerência em sistemas de diálogo usando a falta" https://arxiv.org/abs/1904.03371
UKPLAB / Sentença-transformadores, incorporações de sentença com Bert & Xlnet, Transformadores de sentença: incorporações de sentença usando Bert / Roberta / XLNet com Pytorch,
Graykode/NLP-Tutorial, tutorial de processamento de idiomas natural para pesquisadores de aprendizado profundo https://www.reddit.com/r/machinelearn…,
dragen1860/tensorflow-2.x-tutoriais, TensorFlow 2.x Tutoriais e exemplos da versão, incluindo CNN, RNN, GAN, Oncoders automáticos, Fasterrcnn, GPT, Bert Exemplos, etc. TF 2.0 版入门实例代码 ,, 实战教程。,,