โฆษณา: ที่เก็บข้อมูลสำหรับเครือข่ายกราฟ convolutional ที่ https://github.com/jiakui/awesome-gcn (ทรัพยากรสำหรับกราฟ Convolutional Networks ()
Arxiv: 1812.06705, การเสริมบริบทของเบิร์ตตามเงื่อนไข, ผู้เขียน: Xing Wu, Shangwen LV, Liangjun Zang, Jizhong Han, Songlin Hu
arxiv: 1812.03593, SDNET: เครือข่ายลึกที่อิงตามบริบทสำหรับการตอบคำถามการสนทนาผู้เขียน: Chenguang Zhu, Michael Zeng, Xuedong Huang
Arxiv: 1901.02860, Transformer-XL: แบบจำลองภาษาที่เอาใจใส่นอกเหนือจากบริบทที่มีความยาวคงที่ผู้เขียน: Zihang Dai, Zhilin Yang, Yiming Yang, William W. Cohen, Jaime Carbonell, Quoc V. Le และ Ruslan Salakhutdinov
Arxiv: 1901.04085, Passage Ranking กับ Bert, ผู้เขียน: Rodrigo Nogueira, Kyunghyun Cho
Arxiv: 1902.02671, Bert and Pals: เลเยอร์ความสนใจที่คาดการณ์ไว้สำหรับการปรับตัวที่มีประสิทธิภาพในการเรียนรู้หลายงานผู้เขียน: Asa Cooper Stickland, Iain Murray
Arxiv: 1904.02232, Bert หลังการฝึกอบรมเพื่อตรวจสอบการอ่านความเข้าใจและการวิเคราะห์ความเชื่อมั่นตามมุมมองผู้เขียน: Hu Xu, Bing Liu, Lei Shu, Philip S. Yu, [รหัส]
Codertimo/Bert-Pytorch, Google AI 2018 การใช้งาน Bert Pytorch,
HuggingFace/Pytorch-Pretrained-Bert การใช้งาน Pytorch ของโมเดล Bert ของ Google AI พร้อมสคริปต์เพื่อโหลดโมเดลที่ผ่านการฝึกอบรมล่วงหน้าของ Google
DMLC/Gluon-NLP, การใช้งาน Gluon + MxNet ที่ทำซ้ำ Bert pretraining และ finetuning บนเกณฑ์มาตรฐานกาว, ทีม, ฯลฯ
DBIIR/UER-PY, UER-PY เป็นชุดเครื่องมือสำหรับการฝึกอบรมล่วงหน้าบนคลังข้อมูลทั่วไปโดเมนและการปรับแต่งในงานดาวน์สตรีม UER-PY รักษาโมเดลโมเดลและสนับสนุนการขยายการวิจัย มันอำนวยความสะดวกในการใช้แบบจำลองการฝึกอบรมล่วงหน้าที่แตกต่างกัน (เช่นเบิร์ต) และให้อินเทอร์เฟซสำหรับผู้ใช้เพื่อขยายเพิ่มเติม
Brikerman/Kashgari, Framework NLP หลายภาษาที่ใช้พลังงานหลายภาษา Keras ช่วยให้คุณสร้างโมเดลของคุณใน 5 นาทีสำหรับการจดจำเอนทิตีที่มีชื่อ (NER), การติดแท็กส่วนหนึ่ง (POS) และงานการจำแนกประเภทข้อความ รวมถึง Bert, GPT-2 และ Word2vec Embedding
Kaushaltrivedi/Fast-Bert, Super Easy Library สำหรับรุ่น NLP ที่ใช้ Bert
Separius/Bert-Keras, การใช้งาน Keras ของ Bert ด้วยน้ำหนักที่ได้รับการฝึกอบรมก่อน
Soskek/Bert-Chainer, การใช้งานเชนของ "Bert: การฝึกอบรมก่อนการฝึกอบรมแบบสองทิศทางเพื่อทำความเข้าใจภาษา",
Innodatalabs/Tbert, Pytorch Port of Bert ML รุ่น
Guotong1988/Bert-Tensorflow, Bert: การฝึกอบรมก่อนการฝึกอบรมแบบสองทิศทางเพื่อความเข้าใจภาษา
Dreamgonfly/Bert-Pytorch, การใช้งาน Pytorch ของ Bert ใน "Bert: การฝึกอบรมก่อนการหม้อแปลงแบบสองทิศทางเพื่อทำความเข้าใจภาษา"
Cyberzhg/Keras-Bert การใช้งานของ Bert ที่สามารถโหลดแบบจำลองที่ได้รับการฝึกอบรมมาล่วงหน้าอย่างเป็นทางการสำหรับการแยกคุณสมบัติและการทำนาย
Soskek/Bert-Chainer, การใช้งานเชนเนอร์ของ "Bert: การฝึกอบรมล่วงหน้าของหม้อแปลงสองทิศทางลึกสำหรับการทำความเข้าใจภาษา"
mazhiyuanbuaa/bert-tf1.4.0, bert-tf1.4.0
dhlee347/pytorchic-bert, การใช้งาน pytorch ของ Google Bert,
KPOT/KERAS-TRANSFORMER, KERAS Library สำหรับการสร้าง Transformers (Universal) Transformers, อำนวยความสะดวกในรุ่น Bert และ GPT,
miroozyx/bert_with_keras รุ่น keras ของรุ่นเบิร์ตของ Google
Conda-Forge/Pytorch-Pretrained-Bert-Feedstock ที่เก็บ conda-smithy สำหรับ pytorch-pretrained-bert -
RSHCAROLINE/BERT_PYTORCH_FASTNLP การใช้งาน PYTORCH & FASTNLP ของรุ่น BERT ของ Google AI
Nghuyong/Ernie-Pytorch รุ่น Ernie Pytorch
Brightmart/Roberta_zh, Roberta สำหรับภาษาจีน, 中文预训练 Roberta 模型,
YMCUI/Chinese-Bert-WWM ก่อนการฝึกอบรมด้วยการปิดบังคำทั้งหมดสำหรับ Bert จีน (中文 bert-wwm 预训练模型预训练模型 https://arxiv.org/abs/1906.08101
Thunlp/OpenClap, Open Language Prea Model ที่ได้รับการฝึกฝนมาก่อน, OpenClap:, 多领域开源中文预训练语言模型仓库,
YMCUI/จีน-โปรตีน-xlnet, XLNet จีนที่ผ่านการฝึกอบรมมาก่อน (中文 xlnet 预训练模型),,
brightmart/xlnet_zh, 中文预训练 xlnet 模型: ภาษาจีนที่ผ่านการฝึกอบรมมาก่อน xlnet_large,
Thunlp/Ernie, ซอร์สโค้ดและชุดข้อมูลสำหรับ ACL 2019 Paper "Ernie: การเป็นตัวแทนภาษาที่ได้รับการปรับปรุงด้วยหน่วยงานที่ให้ข้อมูล", Imporove Bert ที่มีข้อมูลที่แตกต่างกัน
Paddlepaddle/Lark, ชุดตัวแทนภาษา, การใช้งาน Paddlepaddle ของ Bert นอกจากนี้ยังมี Bert, Ernie รุ่นที่ได้รับการปรับปรุงสำหรับงาน NLP จีน เบิร์ต的中文改进版เออร์นี่
zihangdai/xlnet, xlnet: pretraining autoregressive ทั่วไปสำหรับการทำความเข้าใจภาษา
Kimiyoung/Transformer-XL, Transformer-XL: โมเดลภาษาที่เอาใจใส่เกินกว่าบริบทที่มีความยาวคงที่ที่เก็บนี้มีรหัสทั้งใน Pytorch และ Tensorflow สำหรับกระดาษของเรา
Gaopeng97/transformer-xl-chinese, Transformer XL 在中文文本生成上的尝试。( Transformer XL สำหรับการสร้างข้อความของภาษาจีน)
Paddlepaddle/Ernie การใช้งานของ Ernie สำหรับการทำความเข้าใจภาษา (รวมถึงรูปแบบการฝึกอบรมก่อนและเครื่องมือปรับแต่ง) Bert 的中文改进版 Ernie,
Pytorch/Fairseq, Facebook AI Research Sequence toolkit ลำดับที่เขียนใน Python Roberta: วิธีการฝึกอบรมเบิร์ตที่ได้รับการปรับปรุงให้ดีที่สุด
FacebookResearch/Spanbert, รหัสสำหรับการใช้และประเมิน Spanbert ที่เก็บนี้มีรหัสและแบบจำลองสำหรับกระดาษ: Spanbert: การปรับปรุงการฝึกอบรมก่อนการฝึกอบรมโดยการเป็นตัวแทนและทำนายช่วง
Brightmart/Albert_zh, 海量中文预训练 Albert 模型, Lite Bert สำหรับการเรียนรู้ด้วยตนเองเกี่ยวกับการเป็นตัวแทนภาษา https://arxiv.org/pdf/1909.11942.pdf,
Lonepatient/Albert_pytorch, Lite Bert สำหรับการเป็นตัวแทนภาษาการเรียนรู้ที่ดูแลตนเอง
KPE/Bert-for-TF2, Keras Tensorflow 2.0 การใช้งานของ Bert, Albert และ Adapter-Bert https://github.com/kpe/bert-for-tf2
brightmart/bert_language_understanding, การฝึกอบรมหม้อแปลงสองทิศทางลึกสำหรับความเข้าใจภาษา: pre-train textcnn,
Y1RAN/NLP-BERT-ChinesEversion, 谷歌自然语言处理模型 Bert: 论文解析与 Python 代码,
Yangbisheng2009/CN-BERT, BERT 在中文 NLP 的应用, 语法检查
JAYYIP/BERT-MULTIPLE-GPU ซึ่งเป็น BERT ที่สนับสนุน GPU หลายรุ่น
Highcwu/Keras-Bert-TPU การใช้งานของ Bert ที่สามารถโหลดแบบจำลองที่ได้รับการฝึกอบรมล่วงหน้าอย่างเป็นทางการสำหรับการสกัดคุณลักษณะและการทำนายบน TPU
Willyoung2017/bert_attempt, pytorch pretrained bert,
pydataman/bert_examples ตัวอย่างบางส่วนของ bert, run_classifier.py 是基于谷歌 bert 实现了 quora คำถามที่ไม่จริงใจ二分类比赛。run_ner.py是基于瑞金医院 ai 大赛 bert 写的一个命名实体识别。
Guotong1988/Bert-Chinese, Bert: การฝึกอบรมก่อนการฝึกอบรมแบบสองทิศทางเพื่อทำความเข้าใจภาษา中文中文汉语汉语
zhongyunuestc/bert_multitask, 多任务งาน
Microsoft/Azureml-Bert เดินผ่านไปยังเบิร์ตการปรับแต่งอย่างละเอียดโดยใช้ Azure Machine Learning
Bigboned3/bert_serving, ส่งออก Bert Model สำหรับการให้บริการ
Yoheikikuta/Bert-Japanese, Bert พร้อมประโยคสำหรับข้อความภาษาญี่ปุ่น
whqwill/seq2seq-keyphrase-bert, เพิ่ม bert ไปยังส่วนที่เข้ารหัสสำหรับ https://github.com/memray/seq2seq-keyphrase-pytorch,
Algteam/Bert-Examples, Bert-Demo,
Cedrickchee/Awesome-Bert-NLP รายการทรัพยากร NLP ที่เน้นไปที่ Bert, กลไกความสนใจ, เครือข่ายหม้อแปลงและการเรียนรู้การถ่ายโอน
cnfive/cnbert, 中文注释一下 bert 代码功能,
brightmart/bert_customized, bert พร้อมคุณสมบัติที่กำหนดเอง,
jayyip/bert-multitask-learning, bert สำหรับการเรียนรู้มัลติทาสก์
Yuanxiaosc/bert_paper_chinese_translation, เบิร์ต: การฝึกอบรมก่อนหน้าของหม้อแปลงสองทิศทางเพื่อความเข้าใจภาษา论文的中文翻译。การแปลภาษาจีน! https://yuanxiaosc.github.io/2018/12/…
yaserkl/bertvsulmfit เปรียบเทียบผลลัพธ์การจำแนกประเภทข้อความโดยใช้การฝัง Bert และการฝัง Ulmfit
KPOT/KERAS-TRANSFORMER, KERAS Library สำหรับการสร้าง Transformers (Universal) Transformers, อำนวยความสะดวกในรุ่น Bert และ GPT,
1234560O/bert-model-code-intertation, 解读 tensorflow 版本 bert 中การสร้างแบบจำลอง数据流数据流
Cdathuraliya/Bert-Neference ซึ่งเป็นคลาสผู้ช่วยสำหรับ Google Bert (Devlin et al., 2018) เพื่อสนับสนุนการทำนายออนไลน์และการทำท่อแบบจำลอง
GameOfDimension/Java-Bert-Predict, Turn Bert Pretrain Chech
1234560O/bert-model-code-intertation, 解读 tensorflow 版本 bert 中การสร้างแบบจำลอง数据流数据流
Allenai/Scibert แบบจำลอง Bert สำหรับข้อความทางวิทยาศาสตร์ https://arxiv.org/abs/1903.10676
merajat/การแก้ปัญหา mostanynthwith biobert, biobert pytorch
Kexinhuang12345/Clinicalbert, Clinicalbert: การสร้างแบบจำลองบันทึกทางคลินิกและการทำนายโรงพยาบาลการเข้ารับการรักษาแบบใหม่ https://arxiv.org/abs/1904.05342
Emilyalsentzer/Clinicalbert ที่เก็บข้อมูลสำหรับคลินิก Bert Embeddings ที่เปิดเผยต่อสาธารณะ
Zhihu/Cubert การใช้การอนุมาน Bert อย่างรวดเร็วบน Nvidia (Cuda, Cublas) และ Intel MKL โดยตรง
XMXOXO/BERT-TRAIN2Deploy, การฝึกอบรมและปรับใช้ Bert, Bert 模型从训练到部署,
https://github.com/nvidia/deeplearningexamples/tree/master/tensorflow/languagemodeling/bert, เบิร์ตสำหรับ tensorflow ที่เก็บนี้ให้สคริปต์และสูตรเพื่อฝึกเบิร์ตเพื่อให้ได้ความแม่นยำทางศิลปะ
Qiangsiwei/bert_distill, Bert Distillation (Bert 的蒸馏实验),,,
Kevinmtian/Distill-Bert, การกลั่นความรู้จาก Bert,
SOGOU/SMRCTOOLKIT ชุดเครื่องมือนี้ได้รับการออกแบบมาเพื่อการพัฒนาที่รวดเร็วและมีประสิทธิภาพของโมเดลความเข้าใจของเครื่องจักรที่ทันสมัยรวมถึงทั้งรุ่นที่ตีพิมพ์และต้นแบบดั้งเดิม
Benywon/Chinicebert นี่เป็นรูปแบบเบิร์ตจีนเฉพาะสำหรับการตอบคำถาม
Matthew-Z/R-Net, R-Net ใน Pytorch, กับ Bert และ Elmo,
NYU-DL/DL4MARCO-BERT, PASSAGE RANKING กับ BERT
XZP27/Bert-for-chinese-Question-answering
Chiayewken/Bert-qa, เบิร์ตสำหรับคำถามตอบคำถามเริ่มต้นด้วย hotpotqa,
ankit-ai/bertqa-attention-on-steroids, bertqa-ให้ความสนใจกับสเตียรอยด์
NOVISCL/BERT-RACE งานนี้ขึ้นอยู่กับการใช้งาน Pytorch ของ BERT (https://github.com/huggingface/pytorch-pretrained-bert) ฉันปรับโมเดล Bert ดั้งเดิมให้ทำงานกับความเข้าใจของเครื่องหลายตัวเลือก
EVA-N27/BERT-for-chinese-Question-answering
Allenai/Allennlp-bert-qa-wrapper นี่เป็นเสื้อคลุมที่เรียบง่ายบนรุ่น QA ที่ใช้ Bert ที่ผ่านการฝึกฝนจาก Pytorch-Pretrained-Bert เพื่อสร้างคลังเก็บโมเดล Allennlp เพื่อให้คุณสามารถรับใช้ demos จาก Allennlp
EDMONDCHENSJ/ChineseQa-With-Bert, EECS 496: หัวข้อขั้นสูงในการเรียนรู้อย่างลึกซึ้งโครงการสุดท้าย: การตอบคำถามจีนกับ Bert (ชุดข้อมูล Baidu Dureader)
Graykode/Toeicbert, Toeic (การทดสอบภาษาอังกฤษเพื่อการสื่อสารระหว่างประเทศ) การแก้ปัญหาโดยใช้โมเดล Pytorch-Pretrained-Bert
greykode/korquad-beginner, https://github.com/graykode/korquad-beginner
Krishna-Sharma19/sbu-qa ที่เก็บนี้ใช้ pretrain bert embeddings สำหรับการถ่ายโอนการเรียนรู้ในโดเมน QA
Basketballandlearn/Dureader-Bert, Bert Dureader 多文档阅读理解, 2019 Dureader 机器阅读理解,,
zhpmatrix/kaggle-quora-quora-questions-classification, kaggle 新赛 (baseline)-基于 bert 的การปรับแต่ง方案+基于 tensor2tensor 的ตัวเข้ารหัสหม้อแปลง方案方案
Maksna/Bert-Fine-Tuning-for-chinese-multiclass-classification ใช้ Google Pre-Training Model Bert เพื่อปรับแต่งอย่างละเอียดสำหรับการจำแนกประเภทมัลติคลาสของจีน
nlpscott/bert-chinese-classification-task, bert 中文分类实践,
Socialbird-Ailab/Bert-Classification-Tutorial
foosynaptic/bert_classifer_trial, การทดลองใช้ Bert สำหรับ corpus classfication จีน
Xiaopingzhong/bert-finetune-for-for-for-for-for-for-bert 微调 bert 模型, 同时构建自己的数据集实现分类
pengming617/bert_classification, 利用 bert 预训练的中文模型进行文本分类,
xieyufei1993/bert-pytorch-chinese-textclassification, pytorch bert finetune ในการจำแนกข้อความภาษาจีน
Liyibo/text-classification-demos, โมเดลระบบประสาทสำหรับการจำแนกประเภทข้อความใน tensorflow เช่น CNN, DPCNN, FastText, Bert ... ,
circlepi/bert_chinese_text_class_by_pytorch, pytorch ใช้คลาสข้อความภาษาจีนตาม bert_pretrained_model,
Kaushaltrivedi/bert-toxic-comments-multilabel, การจำแนกประเภท multilabel สำหรับความคิดเห็นที่เป็นพิษท้าทายโดยใช้ Bert
Lonepatient/Bert-chinese-classification-pytorch, repo นี้มีการใช้ pytorch ของแบบจำลอง Bert ที่ผ่านการปรับแต่งสำหรับการจำแนกประเภทข้อความ
Chung-I/douban-sentiment-analysis, การวิเคราะห์ความเชื่อมั่นในชุดข้อมูลความคิดเห็นสั้น ๆ ของภาพยนตร์ Douban โดยใช้ Bert
Lynnna-xu/bert_sa, การวิเคราะห์ความเชื่อมั่นของเบิร์ตการวิเคราะห์ tensorflow ที่ให้บริการกับ api restful
HSLCY/ABSA-BERT-PAIR ใช้ประโยชน์จาก BERT สำหรับการวิเคราะห์ความเชื่อมั่นตามมุมมองผ่านการสร้างประโยคเสริม (NAACL 2019) https://arxiv.org/abs/1903.09588
Songyouwei/Absa-Pytorch, การวิเคราะห์ความเชื่อมั่นตามมุมมอง, การใช้งาน pytorch 基于方面的情感分析, 使用 pytorch 实现。
Howardhsu/Bert-for-RRC-ABSA, รหัสสำหรับกระดาษ NAACL 2019 ของเรา: "Bert หลังการฝึกอบรมเพื่อตรวจสอบความเข้าใจการอ่านและการวิเคราะห์ความเชื่อมั่นตามมุมมอง"
brightmart/sentiment_analysis_fine_grain, การจำแนกประเภทหลายฉลากกับ Bert; การวิเคราะห์ความเชื่อมั่นอย่างละเอียดจาก AI Challenger
zhpmatrix/bert-sequence-tagging, 基于 bert 的中文序列标注
Kyzhouhzau/bert-ner ใช้ Google Bert เพื่อทำ conll-2003 ner! -
KING-MENIN/NER-BERT, NER TASK SOLUTION (BERT-BI-LSTM-CRF) กับ Google Bert https://github.com/google-research
macanv/bert-bilsmt-crf-ner, โซลูชัน tensorflow ของงาน ner โดยใช้โมเดล bilstm-crf กับ Google Bert ปรับแต่งการปรับแต่ง
fuyanzhe2/ชื่อ-การจดจำชื่อ, lstm-crf, lattice-crf, bert-ner 及近年 ner 相关论文ติดตาม,
mhcao916/ner_based_on_bert โครงการนี้ใช้โมเดล Google Bert ซึ่งเป็นภาษาจีน
prohiryu/bert-chinese-ner, 使用预训练语言模型 bert 做中文 ner,
Sberbank-ai/ner-bert, bert-ner (nert-bert) กับ Google Bert
Kyzhouhzau/Bert-Bilstm-CRF รุ่นนี้ฐานบน bert-as-service โครงสร้างโมเดล: Bert-Embedding Bilstm CRF -
Hoiy/Berserker, Berserker - Bert Word Tokenizer, Berserker (Bert Chinese Word Tokenizer) เป็น tokenizer จีนที่สร้างขึ้นบนรุ่น Bert ของ Google -
Kyubyong/bert_ner, ner with bert,
Jiangpinglei/bert_chinesewordsegment โมเดลเซ็กเมนต์คำภาษาจีนที่ใช้ Bert, F1-score 97%,
yanwii/chinesener, 基于 bi-gru + crf 的中文机构名、人名识别, 支持 Google Bert 模型
Lemonhu/Ner-Bert-Pytorch, Pytorch Solution ของงาน NER โดยใช้โมเดลเบิร์ตที่ผ่านการฝึกอบรมล่วงหน้าของ Google AI
nlpyang/bertsum, รหัสสำหรับการปรับแต่งกระดาษ bert สำหรับการสรุปการสกัด,
Santhoshkolloju/Abstractive-Summarization-with-transfer-learning, การสรุปบทคัดย่อโดยใช้ Bert เป็นตัวเข้ารหัสและตัวถอดรหัสหม้อแปลง
Nayeon7lee/Bert-Summarization, การใช้งาน 'การสร้างภาษาธรรมชาติที่ใช้ pretraining สำหรับการสรุปข้อความ', กระดาษ: https://arxiv.org/pdf/1902.09243.pdf
dmmiller612/การบรรยาย-summarizer, การบรรยายสรุปการบรรยายด้วย bert
Asyml/Texar, Toolkit สำหรับการสร้างข้อความและนอกเหนือจาก https://texar.io, Texar เป็นชุดเครื่องมือสร้างข้อความทั่วไปที่มีวัตถุประสงค์ทั่วไปได้นำเบิร์ตมาใช้ที่นี่เพื่อการจำแนกประเภทและแอปพลิเคชันการสร้างข้อความโดยการรวมกับโมดูลอื่น ๆ ของ Texar
เป็นโมฆะ/bertgenerate, การปรับจูนดีเบิร์ตสำหรับการสร้างข้อความ, bert 做的一些實驗的一些實驗的一些實驗
tiiiger/bert_score, คะแนน Bert สำหรับการสร้างภาษา
LVJIANXIN/การสกัดความรู้, 基于中文的知识抽取, baseline: bi-lstm+crf 升级版: Bert 预训练
Sakuranew/Bert-AttributeExTraction โดยใช้ BERT สำหรับการสกัดแอตทริบิวต์ในความรู้ การปรับแต่งอย่างละเอียดและการสกัดคุณลักษณะ 使用基于เบิร์ต的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。
Aditya-AI/ข้อมูล-การรื้อถอนระบบ-การใช้-เบิร์ต
JKSZW2014/BERT-KBQA-NLPCC2017, การทดลองของ KBQA ตาม BERT สำหรับ NLPCC2016/2017 ภารกิจ 5 (基于 Bert 的中文知识库问答实践, 代码可跑通代码可跑通), 博客介绍 https://blog.csdn.net/AI_104606060606060606060606060606060606060606060606060
yuanxiaosc/schema-based-based-woundledge-extraction, รหัสสำหรับ http://lic2019.ccf.org.cn/kg 信息抽取。使用基于 bert 的实体抽取和关系抽取的端到端的联合模型。(将在比赛结束后,, 完善代码和使用说明))
Yuanxiaosc/Entity-Relation-Extraction เอนทิตีและการสกัดความสัมพันธ์ขึ้นอยู่กับ tensorflow 基于 Tensorflow 的管道式实体及关系抽取, 2019 语言与智能技术竞赛信息抽取任务解决方案(比赛结束后完善代码)) 。。schemaการสกัดความรู้ตาม SKE 2019 http://lic2019.ccf.org.cn,
wenrichard/kbqa-bert, 基于知识图谱的问答系统, bert 做命名实体识别和句子相似度, 分为ออนไลน์和โครงร่าง模式, 博客介绍 https://zhuanlan.zhihu.com/p/62946533
ZHPMATRIX/BERTEM, ACL2019 论文实现《 การจับคู่ช่องว่าง: ความคล้ายคลึงกันแบบกระจายสำหรับการเรียนรู้ความสัมพันธ์》
IANYCXU/RGCN-With-Bert, เครือข่าย convolutional กราฟที่สัมพันธ์กัน
isabellebouchard/bert_for_gap-coreference, bert finetuning สำหรับความละเอียดสรรพนามที่ไม่เอนเอียง
GAOQ1/RASA_NLU_GQ เปลี่ยนภาษาธรรมชาติให้เป็นข้อมูลที่มีโครงสร้าง (支持中文, 自定义了 n 种模型, 支持不同的场景和任务)
gaoq1/rasa_chatbot_cn, 基于 rasa-nlu 和 rasa-core 搭建的对话系统การสาธิต,
Gaoq1/rasa-bert-finetune, 支持 rasa-nlu 的 bert finetune,
geodge831012/bert_robot, 用于智能助手回答问题的训练, 基于 bert 模型进行训练改造
Yuanxiaosc/Bert-for-sequence-labeling-and-text-classification นี่คือรหัสเทมเพลตที่จะใช้ BERT สำหรับการจัดลำดับและการจำแนกประเภทข้อความเพื่ออำนวยความสะดวกให้กับงานมากขึ้น ปัจจุบันรหัสเทมเพลตได้รวม CONLL-2003 ชื่อการระบุเอนทิตี, การเติมช่องสล็อต SNIPS และการทำนายความตั้งใจ
Guillaume-Chevalier/Reubert ผู้ตอบคำถาม chatbot เพียงแค่
Hanxiao/Bert-as-Service, การแมปประโยคความยาวตัวแปรกับเวกเตอร์ความยาวคงที่โดยใช้แบบจำลอง Bert ที่ผ่านการฝึกฝนมาก่อน
yc-wind/embedding_study, 中文预训练模型生成字向量学习, 测试 bert, elmo 的中文效果,
Kyubyong/Bert-Token-embeddings, Bert pretrained token embeddings,
Xu-song/bert_as_language_model, bert เป็นรูปแบบภาษา, ส้อมจาก https://github.com/google-research/bert,
yuanxiaosc/deep_dynamic_word_representation, รหัส tensorflow และโมเดลที่ได้รับการฝึกอบรมล่วงหน้าสำหรับการแสดงคำแบบไดนามิกลึก (DDWR) มันรวมโมเดลเบิร์ตและการแสดงคำบริบทลึกของ Elmo
imgarylai/bert-embedding ระดับโทเค็นฝังตัวจากรุ่น Bert บน mxnet และ gluonnlp http://bert-embedding.readthedocs.io/,
terrifitzhao/bert-utils, bert 生成句向量, bert 做文本分类、文本相似度计算,
fennudetudou/bert_implement, 使用 bert 模型进行文本分类, 相似句子判断, 以及词性标注,
whqwill/seq2seq-keyphrase-bert, เพิ่ม bert ไปยังส่วนที่เข้ารหัสสำหรับ https://github.com/memray/seq2seq-keyphrase-pytorch,
Charles9N/Bert-Sklearn, sklearn wrapper สำหรับรุ่น Bert ของ Google
NVIDIA/MEGATRON-LM การฝึกอบรมการวิจัยอย่างต่อเนื่องแบบจำลองภาษาหม้อแปลงในระดับรวมถึง: เบิร์ต
Hankcs/bert-token-level-level-level-level-level-level-level enbedding โดยไม่เจ็บปวด
FacebookResearch/Lama, Lama: การวิเคราะห์รูปแบบภาษา, Lama เป็นชุดของตัวเชื่อมต่อกับรูปแบบภาษาที่ผ่านการฝึกอบรมมาก่อน
pengming617/bert_textmatching, 利用预训练的中文模型实现基于 bert 的语义匹配模型 lcqmc 官方数据
BrokenWind/Bertsimilarity คำนวณความคล้ายคลึงกันของสองประโยคด้วยอัลกอริทึม BERT ของ Google
Policem
Lonepatient/Bert-Sentence-Similarity-Pytorch, repo นี้มีการใช้ pytorch ของแบบจำลอง Bert ที่ได้รับการฝึกฝนสำหรับงานที่คล้ายคลึงกันประโยค
Nouhadziri/Dialogentailment การดำเนินการตามบทความ "ประเมินการเชื่อมโยงกันในระบบบทสนทนาโดยใช้ entailment" https://arxiv.org/abs/1904.03371
UKPLAB / SESTENCE-TRANSFORMERS, ประโยคฝังตัวกับ BERT & XLNET, SENTENCE TRANSIONS: การฝังประโยคโดยใช้ BERT / ROBERTA / XLNET พร้อม pytorch,
GreyKode/NLP-Tutorial, การสอนภาษาธรรมชาติสำหรับนักวิจัยการเรียนรู้ลึก
Dragen1860/tensorflow-2.x-tutorials, TensorFlow 2.x บทช่วยสอนและตัวอย่างรวมถึง CNN, RNN, GAN, การเข้ารหัสอัตโนมัติ, Fasterrcnn, GPT, ตัวอย่างเบิร์ต ฯลฯ TF 2.0,, 实战教程。