AD: Ein Repository für Graph-Faltungsnetzwerke unter https://github.com/jiakui/awesome-gcn (Ressourcen für Graph-Faltungsnetzwerke (图卷积神经网络相关资源)).
ARXIV: 1812.06705, bedingte Bert -Kontextvergrößerung, Autoren: Xing Wu, Shangwen LV, Liangjun Zang, Jizhong Han, Songlin Hu
ARXIV: 1812.03593, SDNET: Kontextualisierte aufmerksamkeitsbasierte Deep-Netzwerke für die Beantwortung von Konversationsfragen, Autoren: Chenguang Zhu, Michael Zeng, Xuedong Huang
ARXIV: 1901.02860, Transformator-XL: aufmerksame Sprachmodelle jenseits eines Kontextes mit fester Länge, Autoren: Zihang Dai, Zhilin Yang, Yiming Yang, William W. Cohen, Jaime Carbonell, Quoc V. Le und Ruslan Salakhutdinov.
ARXIV: 1901.04085, Passage erneut mit Bert, Autoren: Rodrigo Nogueira, Kyunghyun Cho
ARXIV: 1902.02671, Bert und PALS: Projizierte Aufmerksamkeitsebenen für eine effiziente Anpassung im Multitasking-Lernen, Autoren: ASA Cooper Stickland, Iain Murray
ARXIV: 1904.02232, Bert Post-Training für Überprüfungen Leseverständnis und Aspekt-basierte Stimmungsanalyse, Autoren: Hu Xu, Bing Liu, Lei Shu, Philip S. Yu, [Code]
Codertimo/Bert-Pytorch, Google AI 2018 Bert Pytorch Implementierung,
Huggingface/Pytorch-vorbereitete Berber, eine Pytorch-Implementierung des Bert-Modells von Google AI mit Skript zum Laden von Google-Modellen von Google,
DMLC/Gluon-NLP, Gluon + MXNET-Implementierung, die Bert-Vorab- und Finetuning auf Klebstoff-Benchmark, Kader usw. reproduziert.
DBIIR/UER-PY, UER-PY ist ein Toolkit für die Vorausbildung auf General-Domain-Korpus und Feinabstimmung bei der nachgeschalteten Aufgabe. UER-PY behält die Modellmodularität bei und unterstützt Forschungsweiterbarkeit. Es erleichtert die Verwendung verschiedener Pre-Training-Modelle (z. B. Bert) und bietet Schnittstellen, die Benutzer weiter ausdehnen können.
BRIKERMAN/KASHGARI, Simple, Keras-angetriebenes mehrsprachiges NLP-Framework, ermöglicht es Ihnen, Ihre Modelle in 5 Minuten für die named Entity Recognition (NER), ein Teil der Speech-Tagging (POS) und die Textklassifizierungsaufgaben zu erstellen. Enthält Bert, GPT-2 und Word2VEC Einbettung.
Kaushaltrivedi/Fast-Bert, Super Easy Library für Bert-basierte NLP-Modelle,
Separius/Bert-Keras, Keras-Implementierung von Bert mit vorgebrachten Gewichten,
Soskek/Bert-Chainer, Chainer-Implementierung von "Bert: Vorausbildung von tiefen bidirektionalen Transformatoren für Sprachverständnisse",
Innodatalabs/Tbert, Pytorch Port of Bert ML Model
Guotong1988/Bert-TensorFlow, Bert: Vorausbildung von tiefen bidirektionalen Transformatoren für das Sprachverständnis
Dreamgonfly/Bert-Pytorch, Pytorch-Implementierung von Bert in "Bert: Vorausbildung von tiefen bidirektionalen Transformatoren für Sprachverständnisse"
Cyberzhg/Keras-Bert, Implementierung von Bert, die offizielle vorgebildete Modelle für die Merkmalextraktion und Vorhersage laden könnte
Soskek/Bert-Chainer, Chainer-Implementierung von "Bert: Vorausbildung von tiefen bidirektionalen Transformatoren für Sprachverständnis" "
Mazhiyuanbuaa/Bert-TF1.4.0, Bert-Tf1.4.0
DHLEE347/Pytorchic-Bert, Pytorch-Implementierung von Google Bert,
KPOT/Keras-Transformator, Keras Library for Building (Universal) Transformatoren, Erleichterung von Bert- und GPT-Modellen,
Miroozyx/Bert_with_keras, eine Keras -Version von Googles Bert -Modell,
Conda-Forge/Pytorch-berufener-Berg-Feedstock, ein Repository für Pytorch-vorbehaltungsbericht. Anwesend
RSHCAROLINE/BERT_PYTORCH_FASTNLP, A Pytorch & FastNLP -Implementierung des Bert -Modells von Google AI.
Nghuyong/Ernie-Pytorch, Ernie Pytorch Version,
Brightmart/Roberta_Zh, Roberta für Chinesisch, 中文预训练 Roberta 模型,,
ymcui/chinesisch-tbert-wwm, vor dem Training mit ganzem Wortmaskieren für chinesische Bert (中文 Bert-wwm 预训练模型) https://arxiv.org/abs/1906.08101,
Thunlp/OpenClap, offener chinesischer Sprachmodellzoo, OpenClap: 多领域开源中文预训练语言模型仓库,,
YMCUI/CHINESEN-FEHLER-XLNET, vorgebildeter chinesischer xlnet (中文 xlnet 预训练模型),,
BrightMart/xlnet_zh, 中文预训练 xlnet 模型: vorgebildetem chinesischem xlnet_large,
Thunlp/Ernie, Quellcode und Datensatz für ACL 2019 Papier "Ernie: Verbesserte Sprachdarstellung mit informativen Entitäten", Imporove Bert mit heterogenen Informationsfusion.
Paddlepaddle/Lark, Language Repräsentations -Kit, Paddlepaddle -Implementierung von Bert. Es enthält auch eine verbesserte Version von Bert, Ernie, für chinesische NLP -Aufgaben. Bert 的中文改进版 Ernie,
Zihangdai/xlnet, XLNET: Generalisierte autoregressive Vorbereitung für das Sprachverständnis,
Kimiyoung/Transformer-XL, Transformator-XL: Aufmerksame Sprachmodelle jenseits eines Kontextes mit fester Länge enthält dieses Repository den Code sowohl in Pytorch als auch in Tensorflow für unser Papier.
Gaopeng97/Transformator-XL-Chinese, Transformator XL 在中文文本生成上的尝试。( Transformator XL für die Textgenerierung von Chinesisch),,
Paddlepaddle/Ernie, eine Implementierung von Ernie für das Sprachverständnis (einschließlich Modelle vor dem Training und Feinabstimmung) Bert 的中文改进版 Ernie,
Pytorch/Fairseq, Facebook-AI-Forschungssequenz-zu-Sequenz-Toolkit in Python. Roberta: Ein robust optimierter Bert -Vorab -Ansatz,
Facebookresearch/Spanbert, Code für die Verwendung und Bewertung von Spanbert. Dieses Repository enthält Code und Modelle für das Papier: Spanbert: Verbesserung der Vorausbildung durch Darstellung und Vorhersage von Spannweiten.
Brightmart/Albert_Zh, 海量中文预训练 Albert 模型, ein Lite Bert für das selbst-supervierte Erlernen von Sprachdarstellungen https://arxiv.org/pdf/1909.11942.pdf,
Lonepatient/Albert_Pytorch, ein Lite Bert für selbstbewertete Lernsprache Darstellungen,
KPE/Bert-for-TF2, eine Keras-Tensorflow 2.0-Implementierung von Bert, Albert und Adapter-Bert. https://github.com/kpe/bert-for-tf2,
BrightMart/Bert_Language_undSandanding, Vorausbildung von tiefen bidirektionalen Transformatoren für das Sprachverständnis: Pre-Training TextCnn,
Y1ran/nlp-tbert-chineseversion, 谷歌自然语言处理模型 bert : 论文解析与 python 代码,,
Yangbisheng2009/CN-Bert, Bert 在中文 nlp 的应用, 语法检查
Jayyip/Bert-Multiple-GPU, eine multiple GPU-Support-Version von Bert,
Highcwu/Keras-Bert-TPU, Implementierung von Bert, die offizielle vorgebildete Modelle für die Merkmalextraktion und Vorhersage auf TPU laden könnte,
Willyoung2017/Bert_attempt, Pytorch Present Bert,
Pydataman/Bert_Examples, einige Beispiele für Bert, run_classifier.py 是基于谷歌 Bert 实现了 Quora Incere Fragen Klassifizierung 二分类比赛。run_ner.py 是基于瑞金医院 ai 大赛 第一赛季数据和 Bert 写的一个命名实体识别。
Guotong1988/Bert-Chinese, Bert: Vorausbildung von tiefen bidirektionalen Transformatoren für das Sprachverständnis 中文 汉语 汉语 汉语
Zhongyunuestc/Bert_Multitask, 多任务 Aufgabe
Microsoft/Azureml-Bert, End-to-End-Gehen Sie durch, um Bert mit Azure-maschinellem Lernen zu finden,
Bigboned3/Bert_Serving, Export Bert -Modell zum Servieren,
Yoheikikuta/Bert-Japanese, Bert mit Satzstück für japanische Text.
WHQWILL/SEQ2SEQ-KEYPTHRASE-TERT, Fügen Sie Bert zum Encoder-Teil für https://github.com/memray/seq2seq-keyphrase-pytorch hinzu,
Algteam/Bert-Examples, Bert-Demo,
Cedrickchee/Awesome-Bert-NLP, eine kuratierte Liste von NLP-Ressourcen, die sich auf Bert, Aufmerksamkeitsmechanismus, Transformatornetzwerke und Transferlernen konzentrieren.
cnfive/cnbert, 中文注释一下 Bert 代码功能,,
BrightMart/Bert_Customized, Bert mit maßgeschneiderten Funktionen,
Jayyip/Bert-Multitask-Learning, Bert für Multitasking-Lernen,
Yuanxiaosc/Bert_paper_chinese_translation, Bert: Vorausbildung von tiefen bidirektionalen Transformatoren für das Sprachverständnis 论文的中文翻译。Chinesische Übersetzung! https://yuanxiaosc.github.io/2018/12/…,,
Yaserkl/Bertvsulmfit, Vergleich der Textklassifizierungsergebnisse mit Bert -Einbettung und Ulmfit -Einbettung,
KPOT/Keras-Transformator, Keras Library for Building (Universal) Transformatoren, Erleichterung von Bert- und GPT-Modellen,
1234560o/Bert-Model-Code-Interpretation, 解读 Tensorflow 版本 Bert 中 Modellierung.Py 数据流
CDHAGHARTHALIYA/Bert-Inferenz, eine Helferklasse für Google Bert (Devlin et al., 2018) zur Unterstützung von Online-Vorhersage und Modellpipelining.
GameOfDimension/Java-Bert-Vorhersage, wenden Sie den Checkpoint des Bert-Pretrain in das gespeicherte Modell für eine Feature Extract-Demo in Java
1234560o/Bert-Model-Code-Interpretation, 解读 Tensorflow 版本 Bert 中 Modellierung.Py 数据流
Allenai/Scibert, ein Bert -Modell für wissenschaftlichen Text. https://arxiv.org/abs/1903.10676,
Merajat/Solvingal Mostanythingwithbert, Biobert Pytorch
Kexinhuang12345/Clinicalbert, Clinicalbert: Modellierung klinischer Notizen und Vorhersage des Krankenhauses https://arxiv.org/abs/1904.05342
Emilyalsentzer/Clinicalbert, Repository für öffentlich verfügbare klinische Bert -Einbettungen
Zhihu/Cubert, schnelle Implementierung von Bert -Inferenz direkt auf Nvidia (Cuda, Cublas) und Intel MKL
XMXOXO/BERT-TRAIN2DEPLOY, Bert-Modelltraining und Bereitstellung, Bert 模型从训练到部署,,
https://github.com/nvidia/deeplearningexamples/tree/master/tensorflow/Languagemodeling/bert, Bert für TensorFlow, dieses Repository bietet ein Schriftstellen und ein Rezept, um Bert zu trainieren, um Bert zu trainieren, um die hochmoderne Genauigkeit zu erreichen, und wird von Nvidia getestet und gepflegt.
Qiangsiwei/Bert_distill, Bert Destillation (基于 Bert 的蒸馏实验),,
Kevinmtian/Distill-Bert, Wissensdestillation von Bert,
SOGOU/SMRCTOOLKIT, dieses Toolkit wurde für die schnelle und effiziente Entwicklung moderner Maschinenverständnismodelle entwickelt, einschließlich der veröffentlichten Modelle und der Originalprototypen.
Benywon/Chinese, dies ist ein chinesisches Bert -Modell, das für die Beantwortung von Fragen spezifisch ist,
Matthew-Z/R-Net, R-Net in Pytorch, mit Bert und Elmo,
NYU-DL/DL4MARCO-TERT, Passage erneut mit Bert,
XZP27/Bert-für-Chinese-Frage-Beantwortung,
Chiyewken/Bert-Qa, Bert für Frage, die mit Hotpotqa beantwortet werden,
ANKIT-AI/Bertqa-Attention-on-Stertoide, Bertqa-Aufmerksamkeit auf Steroiden,
Noviscl/Bert-Race, diese Arbeit basiert auf der Pytorch-Implementierung von Bert (https://github.com/huggingface/pytorch-praetrained-tbert). Ich habe das ursprüngliche Bert -Modell an Multiple Choice -Maschinenverständnis angepasst.
EVA-N27/Bert-für-Chinese-Frage-Beantworten,
Allenai/Allennlp-Bert-Qa-Wrapper, dies ist ein einfacher Wrapper auf vorbereiteten Bert-basierten QA-Modellen von Pytorch-vorbereiteten, um Allennlp-Modellarchive herzustellen, sodass Sie Demos von Allennlp dienen können.
Edmondchensj/Chineseqa-with-Bert, EECS 496: Fortgeschrittene Themen im Deep Learning Final Project: Chinesische Frage Beantwortung mit Bert (Baidu Dureader-Datensatz)
Graykode/Toeicbert, Toeic (Test of English for International Communication) Lösung von Pytorch-vorbehaltungsbereiteten Modell.
Graykode/Korquad-Beglner, https://github.com/graykode/korquad-begernner
Krishna-sharma19/sbu-qa, dieses Repository verwendet die Einbettung von Vorbereitungen für das Transferlernen in der QA-Domäne
Basketballandlearn/Dureader-Bert, Bert Dureader 多文档阅读理解 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七) von basketingern
ZHPMATRIX/KAGGLE-QUORA-INNINNECERE-QUESTIONS-Klassifizierung, Kaggle 新赛 (Grundlinie)-基于 Bert 的 Feinabstimmung 方案+基于 Tensor2tensor 的 Transformator-Encoder 方案
Maksna/Bert-Fine-Tuning-für-Chinese-Multiclass-Klasse-Klassifizierung und verwenden Sie Google Pre-Training-Modell Bert für die Feinabstimmung für die chinesische Multiclass-Klassifizierung
NLPSCOTT/Bert-Chinese-Klassifizierungs-Task, Bert 中文分类实践,,
SocialBird-Sailab/Bert-Klassifizierungs-Tutorial,
foosynaptic/bert_classifer_trial, Bert -Versuch für die chinesische Korpusklasse
Xiaopingzhong/Bert-Finetun-for-Classfier, 微调 Bert 模型, 同时构建自己的数据集实现分类
Pengming617/Bert_Classification, 利用 Bert 预训练的中文模型进行文本分类,,
Xieyufei1993/Bert-Pytorch-Chinese-TextCassification, Pytorch Bert-Finetune in der chinesischen Textklassifizierung,
Liyibo/Textklassifizierung Demos, Neuronale Modelle für die Textklassifizierung im Tensorflow wie CNN, DPCNN, FastText, Bert ...,,
Circlepi/Bert_Chinese_text_class_by_pytorch, ein Pytorch -Gerät der chinesischen Textklasse basierend auf BERT_PRETRAINALE_MODEL,
Kaushaltrivedi/Bert-Toxic-Comment-Multilabel, Multilabel-Klassifizierung für toxische Kommentare Herausforderung mit Bert,
Lonepatient/Bert-Chinese-Text-Klassifizierungs-Pytorch enthält eine Pytorch-Implementierung eines vorbereiteten Bert-Modells zur Textklassifizierung.
Chung-I/Doppel-Sentiment-Analyse, Stimmungsanalyse zum Doppel-Filmkandidatensatz mit Bert.
Lynnna-Xu/Bert_Sa, Bert Sentiment Analysis Tensorflow, die mit erholsamer API dient
HSLCY/ABSA-BERBER-PAIR, der Bert für eine Aspekt-Basis-Stimmungsanalyse durch Konstruktion des Hilfssatzes (NAACL 2019) https://arxiv.org/abs/1903.09588, verwendet, verwendet.
Songyouwei/ABSA-PYTORCH, Aspektbasierte Stimmungsanalyse, Pytorch-Implementierungen. 基于方面的情感分析 , 使用 pytorch 实现。,,
Howardhsu/Bert-for-RRC-ABSA, Code für unser NAACL 2019-Artikel: "Bert Post-Training für Überprüfungen Leseverständnis und Aspekt-basierte Stimmungsanalyse",
BrightMart/Sentiment_analysis_fine_grain, Multi-Label-Klassifizierung mit Bert; Feinkörnige Stimmungsanalyse von AI Challenger,
Zhpmatrix/Bert-Sequenz-Tagging, 基于 Bert 的中文序列标注
Kyzhouhzau/Bert-Ner, verwenden Sie Google Bert, um Conll-2003 Ner zu machen! Anwesend
King-Menin/Ner-Bert, NER-Tasklösung (Bert-Bi-Lstm-crf) mit Google Bert https://github.com/google-research.
MACANV/BERT-BILSMT-CRF-NER, TensorFlow-Lösung der NER-Aufgabe mithilfe von BILSTM-CRF-Modell mit Google Bert-Feinabstimmung,
Fuyanzhe2/Name-Intity-Rekognition, LSTM-CRF, Gitter-CRF, Bert-Ner 及近年 ner 相关论文 Follow,
MHCAO916/ner_based_on_bert, dieses Projekt basiert auf dem Google Bert -Modell, einem chinesischen NER
Prohiryu/Bert-Chinese-Ner, 使用预训练语言模型 Bert 做中文 ner,
Sberbank-AI/Ner-Bert, Bert-Nert (Nert-Bert) mit Google Bert,
Kyzhouhzau/Bert-bilstm-CRF, diese Modellbasis auf Bert-as-Service. Modellstruktur: Bert-Embedding Bilstm CRF. Anwesend
Hoiy/Berserker, Berserker - Bert Chinese Word Tokenizer, Berserker (Bert Chinese Word Tokenizer) ist ein chinesischer Tokenizer, der auf dem Bert -Modell von Google aufgebaut ist. Anwesend
Kyubyong/Bert_ner, Ner mit Bert,
Jiangpinglei/Bert_ChineseWordSegment, ein chinesisches Wortsegmentmodell basierend auf Bert, F1-Score 97%,
yanwii/chinesener, 基于 bi-gru + crf 的中文机构名、人名识别 中文实体识别, 支持 Google Bert 模型
Lemonhu/Ner-Bert-Pytorch, Pytorch-Lösung der NER-Aufgabe mithilfe von Google AIs vorgebildetem Bert-Modell.
NLPYANG/Bertsum, Code für Papierfeinenteile Bert für die extraktive Zusammenfassung,
SanthoshKolloju/Abtraktive Summarisation-mit-transfer-lernende, abstraktische Summarisation unter Verwendung von Bert als Encoder und Transformator-Decoder,
Nayeon7lee/Bert-Summarization, Implementierung von „vorabbasierter natürlicher Sprachgenerierung für die Textübersicht“, Papier: https://arxiv.org/pdf/1902.09243.pdf
DMMILLER612/Vorlesungsmarmisator, Vorlesungsübersicht mit Bert
Asyml/Texar, Toolkit für die Textgenerierung und darüber hinaus https://texar.io, Texar, ist ein allgemeines Toolkit für Textgenerierung. Auch Bert hat hier Bert für die Klassifizierung und Anwendungen der Textgenerierung durch Kombination mit den anderen Modulen von Texar implementiert.
voidful/bertgenerate, Feinabstimmung Bert für die Textgenerierung, Bert 做 文本生成 的一些實驗
Tiiiger/Bert_Score, Bert Score für die Sprachgenerierung,
Lvjianxin/Knowledge-Extraction, 基于中文的知识抽取 , Grundlinie: BI-LSTM+CRF 升级版 : Bert 预训练
Sakuranew/Bert-Attributeextraction unter Verwendung Bert zur Attributextraktion in Knowledgegraph. Feinabstimmung und Feature-Extraktion. 使用基于 Bert 的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。,,
Aditya-AI/Information-Retrivieval-System-Ussing-Bert, Bert,
JKSZW2014/BERT-KBQA-NLPCC2017, Ein Versuch mit KBQA basierend auf Bert für NLPCC2016/2017 Aufgabe 5 (基于 Bert 的中文知识库问答实践 代码可跑通) , 博客介绍 博客介绍 https://blog.csdn.net/ai_10460679444/article/article/details/8670784
Yuanxiaosc/schema-basierte Knowledge-Extraction, Code für http://lic2019.ccf.org.cn/kg 信息抽取。使用基于 Bert 的实体抽取和关系抽取的端到端的联合模型。(将在比赛结束后 , 完善代码和使用说明),,
Yuanxiaosc/Entity-Relation-Extraction, Entity und Beziehungsextraktion basierend auf Tensorflow. 基于 Tensorflow 的管道式实体及关系抽取 , 2019 语言与智能技术竞赛信息抽取任务解决方案(比赛结束后完善代码)。Schema -basierte Wissensextraktion, Ske 2019 http://lic2019.ccf.org.cn,
Wenrichard/Kbqa-Bert, 基于知识图谱的问答系统 Bert 做命名实体识别和句子相似度 , 分为 Online 和 Umriss 模式 , 博客介绍 https://zhuanlan.zhihu.com/p/62946533,
ZHPMATRIX/Bertem, ACL2019 论文实现《 Übereinstimmung mit den Lücken: Verteilungsähnlichkeit für die Relation -Lernen》,,
Ianycxu/RGCN-With-Bert, Gated-Relational Graph Feprolutional Networks (RGCN) mit Bert for Coreference-Auflösungsaufgabe
Isabellbouchard/Bert_for_GAP-Koreferenz, Bert-Felling für Gap
Gaoq1/rasa_nlu_gq, natürliche Sprache in strukturierte Daten verwandeln (支持中文 , 自定义了 n 种模型 , 支持不同的场景和任务),
Gaoq1/rasa_chatbot_cn, 基于 rasa-nlu 和 rasa-core 搭建的对话系统 Demo,
GAOQ1/RASA-BERT-FINETUNE, 支持 RASA-NLU 的 BERT FINETUNE,
GEDODG831012/BERT_ROBOT, 用于智能助手回答问题的训练 , 基于 Bert 模型进行训练改造
Yuanxiaosc/Bert-for-Sequence-Labeling- und Text-Klassifizierung, dies ist der Vorlagencode, der Bert für die Sequenz-Labbel- und Textklassifizierung verwendet, um Bert für weitere Aufgaben zu erleichtern. Derzeit enthält der Vorlagencode CONLL-2003 mit dem Namen Entity Identifikation, Snips Slotfüllung und Vorhersage der Absicht.
Guillaume-Chevalier/Reubert, einfach ein Fragestand-Chatbot.
Hanxiao/Bert-as-Service, Mapping eines Satzes mit variabler Länge in einen Vektor mit fester Länge unter Verwendung eines vorgezogenen Bert-Modells, zuzuordnen.
Yc-wind/embedding_study, 中文预训练模型生成字向量学习 , 测试 bert , elmo 的中文效果,,
Kyubyong/Bert-Token-Embeding, Bert Pretrained Token Einbettungen,
Xu-Song/Bert_as_Language_Model, Bert als Sprachmodell, Gabel von https://github.com/google-research/bert,
Yuanxiaosc/Deep_dynamic_Word_representation, TensorFlow-Code und vorgebaute Modelle für die Deep Dynamic Word Repräsentation (DDWR). Es kombiniert das Bert -Modell und Elmos Deep Context Word Repräsentation.
Imgaryylai/Bert-Embedding, Token-Level-Einbettung aus dem Bert-Modell auf MXNET und Gluonnlp http://bert-embedding.readthedocs.io/,,,.
erschreckthao/bert-utils, Bert 生成句向量 , Bert 做文本分类、文本相似度计算,,
fennudetudou/bert_implement, 使用 bert 模型进行文本分类 , 相似句子判断 , 以及词性标注,,
WHQWILL/SEQ2SEQ-KEYPTHRASE-TERT, Fügen Sie Bert zum Encoder-Teil für https://github.com/memray/seq2seq-keyphrase-pytorch hinzu,
Charles9n/Bert-Sklearn, ein Sklearn-Wrapper für Googles Bert-Modell,
NVIDIA/Megatron-LM, laufende Forschungstraining-Transformator-Sprachmodelle in Maßstab, einschließlich: Bert,
HANKCS/Bert-Token-Level-Aufbettung, erzeugen Sie die Einbettung des Bert-Token-Levels ohne Schmerzen
FacebookResearch/Lama, Lama: Language Model Analysis, Lama ist eine Reihe von Anschlüssen für vorgebrachte Sprachmodelle.
Pengming617/Bert_TextMatching, 利用预训练的中文模型实现基于 Bert 的语义匹配模型 数据集为 lcqmc 官方数据
Brokenwind/Bertsimilarity, Berechnung der Ähnlichkeit von zwei Sätzen mit dem Bert -Algorithmus von Google
Policeme/Chinese_bert_similarity, Bert chinesische Ähnlichkeit
Lonepatient/Bert-Sentence-ähnlich-ähnlich, diese Repo enthält eine Pytorch-Implementierung eines vorbereiteten Bert-Modells für die Aufgabe der Satzähnlichkeit.
Nouhadziri/Dialogentailment, die Implementierung des Papiers "Bewertung der Kohärenz in Dialogsystemen mithilfe von EINGEBETRICHT" https://arxiv.org/abs/1904.03371
UKPLAB / Satztransformer, Satzeinbettung mit Bert & XLNet, Satztransformatoren: Satz Einbettung mit Bert / Roberta / XLNet mit Pytorch,
Graykode/NLP-Tutorial, Tutorial für natürliche Sprachverarbeitung für Deep Learning-Forscher https://www.reddit.com/r/machinelearn…,
Tensorflow-2.x-Tutorials, TensorFlow 2.x-Version von Tensorflow-2.x-Tutorials und -Almildern, einschließlich CNN, RNN, GAN, Auto-Codern, Fasterrcnn, GPT, Bert-Beispiele usw. TF 2.0 版入门实例代码 , 实战教程。 实战教程。,,,,,