AD: Un référentiel pour les réseaux de convolution des graphiques sur https://github.com/jiakui/awesome-gcn (ressources pour les réseaux convolutionnels graphiques (图卷积神经网络相关资源 图卷积神经网络相关资源).
Arxiv: 1812.06705, Conditional Bert Contexted Augmentation, Auteurs: Xing WU, Shangwen LV, Liangjun Zang, Jizhong Han, Songlin HU
Arxiv: 1812.03593, SDNET: Réseau profond basé sur l'attention contextualisé pour la réponse aux questions conversationnelles, auteurs: Chenguang Zhu, Michael Zeng, Xuedong Huang
Arxiv: 1901.02860, Transformateur-XL: Modèles de langage attentif au-delà d'un contexte de longueur fixe, auteurs: Zihang Dai, Zhilin Yang, Yiming Yang, William W. Cohen, Jaime Carbonell, Quoc V. Le et Ruslan Salakhutdinov.
Arxiv: 1901.04085, passage de passage avec Bert, auteurs: Rodrigo Nogueira, Kyunghyun Cho
Arxiv: 1902.02671, Bert et Pals: Couches d'attention projetées pour une adaptation efficace dans l'apprentissage multi-tâches, auteurs: Asa Cooper Stickland, Iain Murray
ARXIV: 1904.02232, Bert Post-formation pour la compréhension de la lecture de la revue et l'analyse des sentiments basés sur l'aspect, Auteurs: Hu XU, Bing Liu, Lei Shu, Philip S. Yu, [Code]
Codettimo / Bert-Pytorch, Google AI 2018 Implémentation de Bert Pytorch,
HuggingFace / Pytorch-préragé-BERT, une implémentation Pytorch du modèle Bert de Google AI avec script pour charger les modèles pré-formés de Google,
DMLC / GLUON-NLP, Gluon + MXNET Implémentation qui reproduit Bert Pretaining et Finetuning sur Benchmark, Squad, etc.,
DBIIR / UER-PY, UER-PY est une boîte à outils pour la pré-formation sur le corpus général du domaine général et le réglage fin sur la tâche en aval. UER-PY maintient la modularité du modèle et soutient l'extensibilité de la recherche. Il facilite l'utilisation de différents modèles pré-formation (par exemple Bert) et fournit des interfaces pour que les utilisateurs puissent s'étendre davantage.
Brikerman / Kashgari, Simple, Framework multilingue propulsé par Keras, vous permet de construire vos modèles en 5 minutes pour la reconnaissance de l'entité nommée (NER), le marquage de discours (POS) et les tâches de classification du texte. Comprend Bert, GPT-2 et Word2VEC.
Bibliothèque Kaushaltrivedi / Fast-Bert, super facile pour les modèles NLP basés à Bert,
Séparus / bert-keras, mise en œuvre de keras de bert avec des poids pré-formés,
Soskek / Bert-Chainer, Chaiper Implémentation de "Bert: pré-formation de transformateurs bidirectionnels profonds pour la compréhension du langage",
Innodatalabs / Tbert, Pytorch Port of Bert ML Modèle
Guotong1988 / Bert-Tensorflow, Bert: pré-formation des transformateurs bidirectionnels profonds pour la compréhension du langage
Dreamgonfly / Bert-Pytorch, Pytorch Implémentation de Bert dans "Bert: pré-formation de transformateurs bidirectionnels profonds pour la compréhension du langage"
CYBERZHG / KERAS-BERT
Soskek / Bert-Chainer, Chaiper Implémentation de "Bert: pré-formation de transformateurs bidirectionnels profonds pour la compréhension du langage"
MazhiyuanBuaa / Bert-TF1.4.0, Bert-TF1.4.0
DHLEE347 / PYTORCHIC-BERT, Implémentation Pytorch de Google Bert,
KPOT / Keras-Transformateur, bibliothèque Keras pour la construction de transformateurs (universels), facilitant les modèles Bert et GPT,
miroozyx / bert_with_keras, une version keras du modèle bert de Google,
Conda-Forge / Pytorch-pré-Bert-Feedstock, un référentiel conda-smith pour Pytorch-pré-Bert. ,
Rshcaroline / bert_pytorch_fastnlp, une implémentation Pytorch & FastNLP du modèle Bert de Google AI.
Nghuyong / Ernie-Pytorch, Ernie Pytorch Version,
Brightmart / Roberta_Zh, Roberta pour chinois, 中文预训练 Roberta 模型,
ymcUi / chinois-bert-wwm, pré-formation avec masquage de mot entier pour bert chinois (中文 bert-wwm 预训练模型) https://arxiv.org/abs/1906.08101,
thunlp / openclap, ouverture du modèle de modèle pré-formé de langue chinoise, openclap : 多领域开源中文预训练语言模型仓库,
ymcui / chinois-xlnet, XLNET chinois pré-formé (中文 中文 中文 中文 中文 xlnet 预训练模型),
Brightmart / xlnet_zh, 中文预训练 xlnet 模型: XLNET_LET_LAGE pré-formé,
Thunlp / Ernie, Code source et ensemble de données pour le papier ACL 2019 "Ernie: Représentation de langage améliorée avec entités informatives", importiore Bert avec fusion d'informations hétérogènes.
Paddlepaddle / Lark, kit de représentations du langage, mise en œuvre de paddlepaddle de Bert. Il contient également une version améliorée de Bert, Ernie, pour les tâches NLP chinoises. Bert 的中文改进版 Ernie,
Zihangdai / xlnet, xlnet: pré-entraînement autorégressif généralisé pour la compréhension du langage,
kimiyoung / transformateur-xl, transformateur-xl: modèles de langage attentif au-delà d'un contexte de longueur fixe, ce référentiel contient le code dans Pytorch et TensorFlow pour notre article.
Gaopeng97 / Transformateur-XL-Chinese, Transformer XL 在中文文本生成上的尝试。 (Transformateur XL pour la génération de texte de chinois),
Paddlepaddle / Ernie, une implémentation d'Ernie pour la compréhension du langage (y compris les modèles de pré-formation et les outils de réglage fin) Bert 的中文改进版 Ernie,
Pytorch / Fairseq, Facebook AI Research Sequence to-toolkit Writed in Python. Roberta: une approche de pré-formation de Bert optimisée à optimisation,
FacebookResearch / Spanbert, code pour l'utilisation et l'évaluation de Spanbert. , Ce référentiel contient du code et des modèles pour l'article: Spanbert: Amélioration de la pré-formation en représentant et prédisant les portes.,
Brightmart / Albert_Zh, 海量中文预训练 Albert 模型, un lite bert pour l'apprentissage auto-supervisé des représentations linguistiques https://arxiv.org/pdf/1909.11942.pdf,
LonePatient / Albert_Pytorch, un lite bert pour les représentations de la langue d'apprentissage auto-supervisée,
KPE / BERT-FOR-TF2, A Keras Tensorflow 2.0 Implémentation de Bert, Albert et Adapter-Bert. https://github.com/kpe/bert-for-tf2,
Brightmart / Bert_Language_Understanding, pré-formation de transformateurs bidirectionnels profonds pour la compréhension du langage: pré-trains textcnn,
Y1ran / NLP-BERT - ChineseVersion, 谷歌自然语言处理模型 Bert: 论文解析与 Python 代码,
Yangbisheng2009 / Cn-Bert, Bert 在中文 NLP 的应用, 语法检查
Jayyip / Bert-Multiple-GPU, une version de support GPU multiple de Bert,
Highcwu / Keras-Bert-TPU, mise en œuvre de Bert qui pourrait charger des modèles officiels pré-formés pour l'extraction et la prédiction des fonctionnalités sur TPU,
Willyoung2017 / bert_atempt, Pytorch a prétraité Bert,
Pydataman / bert_examples, quelques exemples de bert, run_classifier.py 是基于谷歌 bert 实现了 Quora Classification des questions non sincères 二分类比赛。run_ner.py 是基于瑞金医院 ai 大赛 第一赛季数据和 bert 写的一个命名实体识别。
Guotong1988 / Bert-Chinese, Bert: pré-formation des transformateurs bidirectionnels profonds pour la compréhension du langage 中文 汉语
zhongyunuestc / bert_multitask, 多任务 tâche
Microsoft / Azureml-Bert, promenade de bout en bout pour le réglage fin à l'aide de l'apprentissage automatique Azure,
Bigboned3 / Bert_serving, Export Bert Modèle pour servir,
Yoheikikuta / Bert-Japanais, Bert avec phrase pour texte japonais.
whqwill / seq2seq-keyphrase-bert, ajoutez bert à la partie d'encodeur pour https://github.com/memray/seq2seq-keyphrase-pytorch,
Algteam / Bert-Examples, Bert-Demo,
CEDRICKCHEE / AWESTER-BERT-NLP, une liste organisée de ressources NLP axée sur Bert, le mécanisme d'attention, les réseaux de transformateurs et l'apprentissage du transfert.
cnfive / cnbert, 中文注释一下 bert 代码功能,
BrightMart / Bert_Customated, Bert avec des fonctionnalités personnalisées,
Jayyip / Bert-Multitask-Learning, Bert pour l'apprentissage multitâche,
Yuanxiaosososc / bert_paper_chinese_translation, Bert: pré-formation de transformateurs bidirectionnels profonds pour la compréhension du langage 论文的中文翻译。 traduction chinoise! https://yuanxiaosc.github.io/2018/12/…,
yaserkl / bertvsulmfit, comparant les résultats de classification de texte à l'aide de l'intégration de Bert et de l'intégration d'UlmFit,
KPOT / Keras-Transformateur, bibliothèque Keras pour la construction de transformateurs (universels), facilitant les modèles Bert et GPT,
1234560O / Bert-Model-Code-Interprétation, 解读 TensorFlow 版本 Bert 中 Modeling.py 数据流
Cdathuraliya / Bert-Inference, une classe d'assistance pour Google Bert (Devlin et al., 2018) pour prendre en charge la prédiction en ligne et le pipeline de modèle.
GameOfdimension / Java-Bert-Predict, transformez Bert Pretrain Point de contrôle en modèle enregistré pour une fonction d'extraction de fonctionnalité à Java
1234560O / Bert-Model-Code-Interprétation, 解读 TensorFlow 版本 Bert 中 Modeling.py 数据流
Allenai / Scibert, un modèle Bert pour le texte scientifique. https://arxiv.org/abs/1903.10676,
Merajat / SolvingalLoshingwingwithbert, Biobert Pytorch
KEXINHUANG12345 / Clinicalbert, Clinicalbert: Modélisation des notes cliniques et prédire la réadmission de l'hôpital https://arxiv.org/abs/1904.05342
Emilyalsentzer / Clinicalbert, référentiel pour les intégres cliniques Bert accessibles au public
Zhihu / Cubert, mise en œuvre rapide de l'inférence Bert directement sur Nvidia (Cuda, Cublin) et Intel MKL
XMXOXO / BERT-TRAIN2DEPLOY, Bert Model Training and Deploy, Bert 模型从训练到部署,
https://github.com/nvidia/deeplearningxamples/tree/master/tensorflow/languagemodeling/bert, bert pour Tensorflow, ce référentiel fournit un script et une recette pour former Bert pour atteindre l'état de la précision artistique, et est testé et maintenu par nvidia.
Qiangsiwei / Bert_Distill, Distillation de Bert (基于 Bert 的蒸馏实验),
Kevinmtian / Distill-Bert, Distillation de la connaissance de Bert,
SOGOU / SMRCTOOLKIT, cette boîte à outils a été conçue pour le développement rapide et efficace des modèles de compréhension des machines modernes, y compris les modèles publiés et les prototypes originaux.,
Benywon / Chinesebert, il s'agit d'un modèle chinois Bert spécifique pour la réponse aux questions,
Matthew-Z / R-Net, R-net à Pytorch, avec Bert et Elmo,
NYU-DL / DL4MARCO-BERT
XZP27 / Bert-for-chinois-Question-Answering,
Chiayewken / Bert-Qa, Bert pour une question de réponse à commencer par hotpotqa,
ankit-ai / bertqa-attention-on-stéroïdes, bertqa - attention sur les stéroïdes,
Noviscl / Bert-Race, ce travail est basé sur la mise en œuvre de Pytorch de Bert (https://github.com/huggingface/pytorch-pretraind-bert). J'ai adapté le modèle Bert d'origine pour travailler sur la compréhension des machines à choix multiple.
EVA-N27 / Bert-for-Chinese-Question-Answering,
Allenai / Allenlp-Bert-QA-W-Wrapper, il s'agit d'un simple emballage au-dessus des modèles QA basés sur Bert prétraités de Pytorch-Pretrained-Bert pour fabriquer des archives de modèles Allenlp, afin que vous puissiez servir des démos d'Allennlp.
Edmondchensj / Chineseqa-With-Bert, EECS 496: Sujets avancés dans l'apprentissage en profondeur Projet final: Question chinoise Réponse avec Bert (ensemble de données Baidu DureReder)
Graykode / Toeicbert, Toeic (Test of English for International Communication) Résolution à l'aide du modèle Pytorch-préragé-BERT.,
Graykode / Korquad-Beginner, https://github.com/graykode/korquad-beginner
Krishna-Sharma19 / SBU-QA, ce référentiel utilise Pretrain Bert Embeddings for Transfer Learning in QA Domain
basketballandlearn/Dureader-Bert, BERT Dureader多文档阅读理解 排名第七, 2019 Dureader机器阅读理解 单模型代码。,
ZHPMATRIX / KAGGLE-QUORA-INSINCERE-QUESTIONS-CLASSIFICATION, KAGGLE 新赛 (ligne de base) - 基于 Bert 的 Fonction 方案 + 基于 Tensor2tenseur 的 Encodeur de transformateur 方案 方案
Maksna / Bert-Fine-Tuning-for-Chinese-Multiclass-Classification, utilisez le modèle de pré-formation Google Bert pour affiner la classification chinoise multiclasse
Nlpscott / bert-chinois-classification-task, bert 中文分类实践,
Socialbird-Aailab / Bert-classification-tutorial,
Foosynaptic / bert_classifer_trial, essai Bert pour la classe de corpus chinois
xiaopingzhong / bert-finetune-for-classage, 微调 bert 模型, 同时构建自己的数据集实现分类
Pengming617 / bert_classification, 利用 bert 预训练的中文模型进行文本分类,
Xieyufei1993 / Bert-Pytorch-Chinese-TextClassification, Pytorch Bert Finetune en classification de texte chinois,
liyibo / text-classification-demos, modèles neuronaux pour la classification du texte dans TensorFlow, comme CNN, DPCNN, FastText, Bert ...,
Circlepi / Bert_chinese_Text_Class_By_Pytorch, un pytorch implémente de la classe de texte chinois basée sur Bert_pretraind_model,
Kaushaltrivedi / Bert-toxic-Comements-Multilabel, Classification multilabel pour les commentaires toxiques Challenge Using Bert,
Lonepatient / Bert-chinois-text-classification-pytorch, ce référentiel contient une implémentation pytorch d'un modèle Bert pré-entraîné pour la classification du texte.,
Chung-I / Douban-Sentiment-Analysis, Analyse des sentiments sur Douban Movie Short Commentaires Dataset Using Bert.
Lynnna-Xu / Bert_Sa, Bert Sentiment Analysis TensorFlow servir avec API RESTFUL
HSLCY / ABSA-BERTS-PAIR, Utilisation de Bert pour l'analyse des sentiments basée sur l'aspect via la construction de la phrase auxiliaire (NAACL 2019) https://arxiv.org/abs/1903.09588,
Songyouwei / Absa-Pytorch, Analyse des sentiments basés sur les aspects, implémentations de Pytorch. 基于方面的情感分析 , 使用 pytorch 实现。,
Howardhsu / Bert-for-RRC-ABSA, Code pour notre article NAACL 2019: "Bert Post-Tra-To-Tol for Review Reading Comprehension and Aspect Sentiment Analysis",
Brightmart / Sentiment_analysis_fine_grain, classification multi-étiquettes avec bert; Analyse des sentiments à grain fin de l'IA Challenger,
zhpmatrix / bert-séquence-tagging, 基于 bert 的中文序列标注
kyzhouhzau / bert-ner, utilisez google bert pour faire conll-2003 ner! ,
King-ménine / ner -bert, solution de tâche NER (Bert-Bi-lstm-Crf) avec Google Bert https://github.com/google-research.
macanv / bert-bilsmt-crf-ner, solution tensorflow de la tâche NER à l'aide du modèle Bilstm-CRF avec Google Bert Fineding,
Fuyanzhe2 / nom-encognation-reconnaissance, LSTM-CRF, Lattice-Crf, Bert-Ner 及近年 Ner 相关论文 Suivre,
MHCAO916 / NER_BASTING_ON_BERT, ce projet est basé sur le modèle Google Bert, qui est un NER chinois
Prohiryu / bert-chinois-ner, 使用预训练语言模型 bert 做中文 ner,
Sberbank-Aai / Ner-Bert, Bert-Ner (Nert-Bert) avec Google Bert,
Kyzhouhzau / Bert-Bilstm-CRF, ce modèle base sur Bert-As-Service. Structure du modèle: Bert-Embedding BILSTM CRF. ,
Hoiy / Berserker, Berserker - Bert Chinese Word Tokenizer, Berserker (Bert Chinese Word Tokenizer) est un tokenzer chinois construit sur le modèle Bert de Google. ,
Kyubyong / bert_ner, ner avec bert,
Jiangpinglei / bert_chinesewordsegment, un modèle de segment de mots chinois basé sur Bert, F1-score 97%,
yanwii / chinesener, 基于 bi-gru + crf 的中文机构名、人名识别 中文实体识别, 支持 google bert 模型
Lemonhu / Ner-Bert-Pytorch, solution pytorch de la tâche NER à l'aide du modèle Bert pré-formé de Google AI.
NLPYANG / BERTSUM, Code pour le papier amenant Bert pour une résumé extractif,
Santhoshkolloju / abstractive-submarisation-with-transfer-apprend, résumé abstractif utilisant Bert comme codeur et décodeur de transformateur,
Nayeon7Lee / Bert-Summarisation, Implémentation de «Génération du langage naturel basé sur un prétexte pour la résumé de texte», document: https://arxiv.org/pdf/1902.09243.pdf
DMMILLER612 / CONCRIPTION-Summizer, Résumé de la conférence avec Bert
ASYML / Texar, Toolkit pour la génération de texte et au-delà de https://texar.io, Texar est une boîte à outils de génération de texte à usage général, a également implémenté Bert ici pour la classification et des applications de génération de texte en combinant avec les autres modules de Texar.
Auïdes / bertgénéré, réglage fin Bert pour la génération de texte, bert 做 文本生成 的一些實驗
Tiiiger / bert_score, score bert pour la génération de langue,
lvjianxin / connaissances-extraction, 基于中文的知识抽取 , ligne de base: Bi-LSTM + CRF 升级版 : Bert 预训练
Sakuranew / Bert-AttributeeExtraction, en utilisant Bert pour l'extraction d'attribut dans Knowledgegraph. réglage fin et extraction de caractéristiques. 使用基于 bert 的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。,
aditya-ai / information-rerival-system-using-bert,
jkszw2014 / bert-kbqa-nlpcc2017, un essai de KBQA basé sur Bert pour NLPCC2016 / 2017 Tâche 5 (基于 基于 基于 的中文知识库问答实践 , 代码可跑通) , 博客介绍 https://blog.csdn.net/ai_104606794/article/details/8670784,
yuanxiaosososc / schéma basé sur la connaissance-extraction, code pour http://lic2019.ccf.org.cn/kg 信息抽取。使用基于 bert 的实体抽取和关系抽取的端到端的联合模型。 (将在比赛结束后 , 完善代码和使用说明),
Yuanxiaosososc / Entité-Relation-Extraction, Entity and Relation Extraction basé sur TensorFlow. 基于 Tensorflow 的管道式实体及关系抽取 , 2019 语言与智能技术竞赛信息抽取任务解决方案 (比赛结束后完善代码))。。。。。。。。 。schema Extraction des connaissances, SKE 2019 http://lic2019.cf.org.cn,
Wenrichard / Kbqa -bert, 基于知识图谱的问答系统 , Bert 做命名实体识别和句子相似度 , 分为 en ligne 和 contour 模式 , 博客介绍 https://zhuanlan.zhihu.com/p/62946533,
ZHPMATRIX / BERTEM, ACL2019 论文实现《 Correspondance des blancs: similitude distributionnelle pour l'apprentissage des relations》,
ianycxu / rgcn-with-bert, réseaux de convolutionnels de graphes-relationnels (RGCN) avec Bert pour la tâche de résolution de coreférence
Isabellebouchard / bert_for_gap-coreference, bert finetuning pour la résolution du pronom non biaisé GAP
GAOQ1 / RASA_NLU_GQ, transformez le langage naturel en données structurées (支持中文 , 自定义了 n 种模型 , 支持不同的场景和任务),
GAOQ1 / RASA_CHATBOT_CN, 基于 RASA-NLU 和 RASA-Core 搭建的对话系统 Demo,
GAOQ1 / RASA-BERT-FINETUNE, 支持 RASA-NLU 的 Bert Finetune,
GEODGE831012 / BERT_ROBOT, 用于智能助手回答问题的训练 , 基于 Bert 模型进行训练改造
Yuanxiaosososc / bert-for-séquence-étiquetage et text-classification, il s'agit du code de modèle pour utiliser Bert pour le lable de séquence et la classification du texte, afin de faciliter Bert pour plus de tâches. Actuellement, le code de modèle a inclus CONLL-2003 nommé l'identification de l'entité, le remplissage des emplacements Snips et la prédiction d'intention.
Guillaume-Chevalier / Reubert, un chatbot de réponse aux questions, simplement.
hanxiao / bert-as-service, cartographier une phrase de longueur variable à un vecteur de longueur fixe en utilisant le modèle Bert pré-entraîné,
Yc-wind / embedding_study, 中文预训练模型生成字向量学习 , 测试 bert , elmo 的中文效果,
Kyubyong / Bert-Token-Embeddings, Bert Token pré-entraînement,
Xu-Song / Bert_as_Language_Model, Bert comme modèle de langue, fourche de https://github.com/google-research/bert,
yuanxiaosososc / deep_dynamic_word_representation, code tensorflow et modèles pré-formés pour une représentation de mot dynamique profonde (DDWR). Il combine le modèle Bert et la représentation des mots de contexte en profondeur d'Elmo.,
Imgarylai / bert-embedding, intégres de niveau de jeton de Bert Model sur MXNET et Gluonnlp http://bert-embdding.readthedocs.io/,
terrifyzhao / bert-utils, bert 生成句向量 , bert 做文本分类、文本相似度计算,
Fennudetudou / bert_implement, 使用 bert 模型进行文本分类 , 相似句子判断 , 以及词性标注,
whqwill / seq2seq-keyphrase-bert, ajoutez bert à la partie d'encodeur pour https://github.com/memray/seq2seq-keyphrase-pytorch,
Charles9n / Bert-Sklearn, un wrapper Sklearn pour le modèle Bert de Google,
NVIDIA / MEGATRON-LM, Modèles de langage de transformateur de formation en cours à grande échelle, y compris: Bert,
Hankcs / Bert-Token-Level-Embedding, générez un niveau de jeton BERT sans douleur
FacebookResearch / LAMA, LAMA: Langue Model Analysis, Lama est un ensemble de connecteurs sur les modèles de langage pré-formés.
Pengming617 / bert_textmatching, 利用预训练的中文模型实现基于 bert 的语义匹配模型 数据集为 lcqmc 官方数据
Brokenwind / bertsimilarité, calculant la similitude de deux phrases avec l'algorithme Bert de Google
PolicyMe / Chinese_bert_similarity, Bert Chinois similitude
Lonepatient / Bert-Sentence-Similarity-Pytorch, ce repo contient une implémentation pytorch d'un modèle Bert pré-entraîné pour la tâche de similitude de la phrase.
Nouhadziri / Dialogentailment, la mise en œuvre de l'article "Évaluer la cohérence dans les systèmes de dialogue en utilisant Intonment" https://arxiv.org/abs/1904.03371
UKPLAB / Transformateurs de phrases, incorporations de phrases avec Bert & XLNET, Transformateurs de phrase: Embeddings de phrases utilisant Bert / Roberta / XLNET avec pytorch,
Graykode / NLP-tutorial, Tutoriel de traitement du langage naturel pour les chercheurs en profondeur https://www.reddit.com/r/machinelearn…,
Dragen1860 / Tensorflow-2.x-tutorial, TensorFlow 2.x Tutoriels et exemples de la version, notamment CNN, RNN, GAN, Auto-Cocoders, Fasterrcnn, GPT, Bert Exemples, etc. TF 2.0 版入门实例代码 , 实战教程。,