AD: مستودع للشبكات التنازلية الرسم البياني على https://github.com/jiakui/awesome-gcn (موارد للشبكات التنازلية الرسم البياني (图卷积神经网络相关资源)).
Arxiv: 1812.06705 ، زيادة سياق Bert الشرطية ، المؤلفون: Xing Wu ، Shangwen LV ، Liangjun Zang ، Jizhong Han ، Songlin Hu
ARXIV: 1812.03593 ، SDNET: شبكة عميقة قائمة على الانتباه للسياق للإجابة على أسئلة المحادثة ، المؤلفون: تشنغوانغ تشو ، مايكل زنغ ، Xuedong Huang
ARXIV: 1901.02860 ، Transformer-XL: نماذج لغة منتبهة تتجاوز سياق الطول الثابت ، المؤلفون: Zihang Dai ، Zhilin Yang ، Yiming Yang ، William W.
Arxiv: 1901.04085 ، تم إعادة تشغيل الممر مع Bert ، المؤلفون: Rodrigo Nogueira ، Kyunghyun Cho
Arxiv: 1902.02671 ، Bert and Pals: طبقات الاهتمام المتوقعة للتكيف الفعال في التعلم متعدد المهام ، المؤلفون: ASA Cooper Stickland ، Iain Murray
Arxiv: 1904.02232 ، Bert Post Training لمراجعة فهم القراءة وتحليل المشاعر القائمة على الجوانب ، المؤلفون: Hu Xu ، Bing Liu ، Lei Shu ، Philip S. Yu ، [Code]
CODERTIMO/BERT-PYTORCH ، Google AI 2018 Bert Pytorch Application ،
Huggingface/Pytorch-bert-bert-bert ، وهو تطبيق Pytorch لنموذج Bert من Google AI مع البرنامج النصي لتحميل نماذج Google التي تم تدريبها مسبقًا ،
DMLC/GLUON-NLP ، تنفيذ GLUON + MXNET الذي يستنسخ bert pretring و finettening على معيار الغراء ، فرقة ، إلخ ،
DBIIR/UER-PY ، UER-PY هي مجموعة أدوات للتدريب المسبق على مجموعة المجال العام والضبط على مهمة المصب. تحافظ UER-PY على نموذج النموذج ويدعم قابلية البحث. إنه يسهل استخدام نماذج مختلفة لتدريب ما قبل التدريب (مثل BERT) ، ويوفر واجهات للمستخدمين لزيادة تمديدها.
يتيح لك Brikerman/Kashgari ، وهو إطار NLP متعدد اللغات الذي يعمل بنظام Keras ، بإنشاء نماذجك في 5 دقائق للتعرف على الكيان المسماة (NER) ، ووضع علامات على جزء من الكلام (POS) ومهام تصنيف النص. يشمل Bert و GPT-2 و Word2Vec التضمين.
Kaushaltrivedi/Fast-Bert ، مكتبة Super Easy لنماذج NLP القائمة على BERT ،
Operius/Bert-keras ، تنفيذ keras من Bert مع أوزان مدربة مسبقا ،
Soskek/Bert-chainer ، تنفيذ سلسلة "Bert: قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة" ،
Innodatalabs/Tbert ، Pytorch Port of Bert ML Model
Guotong1988/Bert-Tensorflow ، Bert: قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة
Dreamgonfly/Bert-Pytorch ، Pytorch تطبيق Bert في "Bert: قبل التدريب على محولات ثنائية الاتجاه العميقة لفهم اللغة"
Cyberzhg/Keras-Bert ، تنفيذ BERT يمكن أن يحمل نماذج رسمية تدريب مسبقًا لاستخراج الميزات والتنبؤ بها
Soskek/Bert-chainer ، تنفيذ سلسلة "Bert: قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة"
Mazhiyuanbuaa/Bert-TF1.4.0 ، Bert-TF1.4.0
DHLEE347/PYTORCHIC-BERT ، PYTORCHEREN
KPOT/KERAS-TRANDSFORMER ، مكتبة كيراس للبناء (الشامل) ، تسهيل نماذج BERT و GPT ،
miroozyx/bert_with_keras ، إصدار keras من طراز Bert من Google ،
conda-forge/pytorch-bert-bert-feedstock ، وهو مستودع conda-smithy لـ pytorch-berted-bert. و
rshcaroline/bert_pytorch_fastnlp ، تطبيق pytorch & fastnlp لنموذج Bert من Google AI.
Nghuyong/Ernie-Pytorch ، إصدار Ernie Pytorch ،
Brightmart/Roberta_zh ، روبرتا للصينيين ، 中文预训练 روبرتا 模型 ،
ymcui/inchoad-bert-wwm ، قبل التدريب مع إخفاء الكلمة الكاملة للبرت الصيني (中文 bert-wwm 预训练模型) https://arxiv.org/abs/1906.08101 ،
thunlp/openclap ، حديقة حيوان صينية مفتوحة قبل التدريب ، OpenClap : : ،
YMCUI/صينية محددة-XLNET ، XLNET الصينية المدربة مسبقا (中文 xlnet 预训练模型) ،
Brightmart/XLNET_ZH ، 中文预训练 xlnet 模型:
Thunlp/Ernie ، رمز المصدر ومجموعة البيانات لورقة ACL 2019 "Ernie: تمثيل اللغة المحسّن مع الكيانات المفيدة" ، Pertove Bert مع اندماج المعلومات غير المتجانسة.
PADDLEPADDLE/LARK ، مجموعة تمثيل اللغة ، تنفيذ PADDLEPADDLE من BERT. كما أنه يحتوي على نسخة محسّنة من Bert ، Ernie ، لمهام NLP الصينية. بيرت إرني ،
Zihangdai/XLNET ، XLNET: ما قبل التعرف على الانحدار التلقائي لفهم اللغة ،
Kimiyoung/Transformer-XL ، Transformer-XL: نماذج لغة اليقظة تتجاوز سياق الطول الثابت ، يحتوي هذا المستودع على الكود في كل من Pytorch و TensorFlow لورقةنا.
Gaopeng97/Transformer-XL-Chinese ، Transformer XL 在中文文本生成上的尝试。 (Transformer XL لتوليد النص من الصينيين) ،
Paddlepaddle/Ernie ، وهو تطبيق Ernie لفهم اللغة (بما في ذلك نماذج ما قبل التدريب وأدوات التثبيت) Bert 的中文改进版 ernie ،
Pytorch/Fairseq ، مجموعة أدوات Sequence Sequence-to-Sequence-to-sequence Facebook AI مكتوبة في Python. روبرتا: نهج بيرت المحسن ببراعة ،
FacebookResearch/Spanbert ، رمز لاستخدام وتقييم Spanbert. ، يحتوي هذا المستودع على رمز ونماذج للورقة: Spanbert: تحسين التدريب المسبق عن طريق تمثيل الفترات والتنبؤ بها.
Brightmart/Albert_zh ، 海量中文预训练 Albert 模型 ، a lite bert للتعلم ذاتيًا لتمثيل اللغة https://arxiv.org/pdf/1909.11942.pdf ،
lonepatient/albert_pytorch ، لايت بيرت لتقديم تمثيلات لغة التعلم الخاضعة للإشراف ذاتيا ،
KPE/Bert-For-TF2 ، تطبيق Keras TensorFlow 2.0 لـ Bert و Albert و Adapter-Bert. https://github.com/kpe/bert-for-tf2 ،
Brightmart/Bert_Language_underSing ، قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة: TextCnn قبل التدريب ،
y1ran/nlp-bert-chineseversion ، 谷歌自然语言处理模型 bert : 论文解析与 python 代码 ،
Yangbisheng2009/CN-Bert ، Bert 在中文 NLP 的应用 ، 语法检查
Jayyip/Bert-Multiple-GPU ، نسخة دعم متعددة من GPU من Bert ،
Highcwu/keras-bert-TPU ، تنفيذ BERT الذي يمكن أن يحمل نماذج رسمية تدريب مسبقًا لاستخراج الميزات والتنبؤ بها على TPU ،
Willyoung2017/Bert_attempt ، Pytorch Pretrained Bert ،
pydataman/bert_examples ، بعض الأمثلة من bert ، run_classifier.py 是基于谷歌 bert 实现了 Quora Quisionse Questions 二分类比赛。run_ner.py 是基于瑞金医院 ai 大赛 第一赛季数据和 bert 写的一个命名实体识别。
Guotong1988/Bert-Chinese ، Bert: قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة 中文 汉语
Zhongyunuestc/bert_multitask ، 多任务 المهمة
Microsoft/Azureml-Bert ، المشي من شامل إلى طرف من خلال صياغة Bert باستخدام Azure Machine Learning ،
Bigboned3/bert_serving ، نموذج BERT تصدير للخدمة ،
Yoheikikuta/Bert-Japanese ، بيرت مع Sentencepiece للنص الياباني.
whqwill/seq2seq-keyphrase-bert ، أضف Bert إلى جزء من https://github.com/memray/seq2seq-keyphrase-pytorch ،
algteam/bert-examples ، bert-demo ،
Cedrickchee/Awesome-Bert-NLP ، وهي قائمة منسقة من موارد NLP التي تركز على BERT ، وآلية الانتباه ، وشبكات المحولات ، والتعلم النقل.
cnfive/cnbert ، 中文注释一下 bert 代码功能 ،
Brightmart/Bert_Customized ، بيرت مع ميزات مخصصة ،
Jayyip/Bert-Multitask-Learning ، Bert للتعلم متعدد المهام ،
Yuanxiaosc/Bert_Paper_Chinese_Translation ، Bert: قبل التدريب من محولات ثنائية الاتجاه العميقة لفهم اللغة 论文的中文翻译。 Chinese Translation! https://yuanxiaosc.github.io/2018/12/…
yaserkl/bertvsulmfit ، مقارنة نتائج تصنيف النص باستخدام تضمين BERT وتضمين ULMFIT ،
KPOT/KERAS-TRANDSFORMER ، مكتبة كيراس للبناء (الشامل) ، تسهيل نماذج BERT و GPT ،
1234560O/Bert-Model-Code-Pretpressation ، 解读 Tensorflow 版本 Bert 中 Modeling.py 数据流
Cdathuraliya/Bert-Inference ، فئة مساعد لـ Google Bert (Devlin et al. ، 2018) لدعم التنبؤ عبر الإنترنت وأنابيب النماذج.
GameofDimension/Java-Bert-Preferict ، Turn Bert Pretrain Checkpoint إلى نموذج محفوظ لتوزيع ميزة التوضيح في Java
1234560O/Bert-Model-Code-Pretpressation ، 解读 Tensorflow 版本 Bert 中 Modeling.py 数据流
Allenai/Scibert ، نموذج BERT للنص العلمي. https://arxiv.org/abs/1903.10676 ،
merajat/solvingalistanythingwithbert ، biobert pytorch
Kexinhuang12345/Clinicalbert ، Clinicalbert: نمذجة الملاحظات السريرية والتنبؤ بإعادة القبول في المستشفى https://arxiv.org/abs/1904.05342
Emilyalsentzer/Clinicalbert ، مستودع للتضمينات السريرية Bert المتاحة للجمهور
Zhihu/Cubert ، التنفيذ السريع لاستنتاج BERT مباشرة على NVIDIA (CUDA ، Cublas) و Intel MKL
Xmxoxo/Bert-Train2Deploy ، تدريب النموذج Bert ونشره ، Bert 模型从训练到部署 ،
https://github.com/nvidia/deeplearningexamples/tree/master/tensorflow/languagemodeling/bert ، bert for tensorflow ، يوفر هذا المستودع نصًا ووصفة لتدريب بيرت لتحقيق حالة الدقة الفنية ، ويتم اختباره بواسطة nvidia.
Qiangsiwei/Bert_Distill ، التقطير بيرت (基于 bert 的蒸馏实验) ،
Kevinmtian/Distill-Bert ، تقطير المعرفة من Bert ،
Sogou/smrctoolkit ، تم تصميم مجموعة الأدوات هذه للتطوير السريع والفعال لنماذج فهم الماكينة الحديثة ، بما في ذلك النماذج المنشورة والنماذج الأولية الأصلية. ،
Benywon/Chinesebert ، هذا نموذج بيرت صيني محدد للإجابة على الأسئلة ،
Matthew-Z/R-Net ، R-Net في Pytorch ، مع Bert و Elmo ،
NYU-DL/DL4Marco-Bert ، مرور إعادة التصنيف مع Bert ،
XZP27/Bert-For-Chinese-question-anجاب ،
Chiyyewken/Bert-QA ، Bert للإجابة على الأسئلة بدءًا من Hotpotqa ،
Ankit-Ai/Bertqa-Antention-on-Steroids ، Bertqa-الانتباه على المنشطات ،
Noviscl/Bert-race ، يعتمد هذا العمل على تنفيذ Pytorch لـ Bert (https://github.com/huggingface/pytorch-pretrained-bert). لقد قمت بتكييف نموذج BERT الأصلي للعمل على فهم آلة الاختيار من متعدد.
EVA-N27/Bert-for-Chinese-question-anجاب ،
Allenai/Allennlp-Bert-Qa-Wrapper ، هذا غلاف بسيط على رأس نماذج ضمان الجودة القائمة على Bert من Pytorch-bert-bert لجعل أرشيفات نموذج Allennlp ، بحيث يمكنك تقديم العروض التوضيحية من Allennlp.
Edmondchensj/inchovalqa-with-bert ، EECS 496: مواضيع متقدمة في التعلم العميق المشروع النهائي: الإجابة على أسئلة صينية مع Bert (Baidu Dureader Dataset)
Graykode/Toeicbert ، TOEIC (اختبار اللغة الإنجليزية للتواصل الدولي) حل باستخدام نموذج بيرت الذي تم تجريده من Pytorch. ،
Graykode/Korquad-beginner ، https://github.com/graykode/korquad-beginner
Krishna-Sharma19/SBU-QA ، يستخدم هذا المستودع تضمينات Bert Bert من أجل التعلم النقل في مجال QA
Basketballandlearn/Dureader-Bert ، Bert Dureader 多文档阅读理解 排名第七 ، 2019 Dureader 机器阅读理解 单模型代码。 ،
Zhpmatrix/kaggle-quora-insincere-questions-classification ، kaggle 新赛 (خط الأساس)-基于 bert 的 tuning 方案+基于 tensor2tensor 的 encorder encoder 方案
maksna/bert-fine-tuning-for-chinese-multiclass-classing ، استخدم نموذج Bert قبل التدريب على Google لتصنيفه للتصنيف الصيني متعدد المراحل
NLPSCOTT/BERT-CHINESE-TASK ، BERT 中文分类实践 ،
SocialBird-ilab/Bert-Classification-Tutorial ،
foosynaptic/bert_classifer_trial ، تجربة بيرت لصفوف الجسم الصيني
xiaopingzhong/bert-finetune-for-classfier ، 微调 bert 模型 ، 同时构建自己的数据集实现分类
pengming617/bert_classification ، 利用 bert 预训练的中文模型进行文本分类 ،
Xieyufei1993/Bert-Pytorch-Chinese-TextClassification ، Pytorch Bert Finetune في تصنيف النص الصيني ،
liyibo/text-classification-demos ، النماذج العصبية لتصنيف النص في tensorflow ، مثل CNN ، dpcnn ، fasttext ، bert ... ،
Circlepi/Bert_chinese_text_class_by_pytorch ، A Pytorch تنفذ فئة النص الصينية القائمة على Bert_Pretrained_Model ،
kaushaltridivedi/bert-to-to-comments-multilabel ، تصنيف متعدد العوامل لتحدي التعليقات السامة باستخدام Bert ،
LonePatient/Bert-chinese-text-Classification-Pytorch ، يحتوي هذا الريبو على تطبيق Pytorch لنموذج Bert المسبق لتصنيف النص. ،
Chung-I/Douban-Sentiment-Analysis ، تحليل المشاعر على Douban Movie Comment Comments Dataset باستخدام BERT.
Lynnna-XU/Bert_SA ، تحليل المشاعر Bert Tensorflow التقديم مع API Restful
HSLCY/ABSA-BERT-PAIR ، باستخدام BERT لتحليل المشاعر القائمة على الجانب من خلال بناء الجملة المساعدة (NAACL 2019) https://arxiv.org/abs/1903.09588 ،
Songyouwei/Absa-Pytorch ، تحليل المشاعر القائمة على الجانب ، تطبيقات Pytorch. 基于方面的情感分析 , 使用 pytorch 实现。 ،
Howardhsu/Bert-for-RRC-ABSA ، رمز لورقة NAACL 2019: "Bert بعد التدريب لمراجعة فهم القراءة وتحليل المشاعر القائمة على الجوانب" ،
Brightmart/Sentiment_analysis_fine_grain ، تصنيف متعدد العلامات مع Bert ؛ تحليل المشاعر الدقيقة من AI Challenger ،
Zhpmatrix/bert-sequence-tagging ، 基于 bert 的中文序列标注
Kyzhouhzau/Bert-Ner ، استخدم Google Bert للقيام Conll-2003 ner! و
King-Menin/NER-Bert ، NER Task Solution (BERT-BI-LSTM-CRF) مع Google Bert https://github.com/google-research.
macanv/bert-bilsmt-crf-ner ، حل tensorflow لمهمة NER باستخدام نموذج BILSTM-CRF مع صناديق Google BERT ،
Fuyanzhe2/Name-Entity-Dechnition ، LSTM-CRF ، Lattice-CRF ، Bert-Ner 及近年 ner 相关论文 اتبع ،
MHCAO916/NER_BAXIN
prohiryu/bert-chinese-ner ، 使用预训练语言模型 bert 做中文 ner ،
Sberbank-Ai/Ner-Bert ، Bert-Ner (Nert-Bert) مع Google Bert ،
Kyzhouhzau/Bert-Bilstm-Crf ، هذه القاعدة النموذجية على Bert-as-Service. بنية النموذج: Bert-embedding BILSTM CRF. و
Hoiy/Berserker ، Berserker - Bert Chinese Word Tokenizer ، Berserker (Bert Chinese Word Tokenizer) هو رمز صيني مبني على قمة طراز Bert من Google. و
Kyubyong/Bert_ner ، ner مع Bert ،
Jiangpinglei/Bert_Chinesewordsegment ، نموذج مقطع كلمات صيني يعتمد على Bert ، F1 Score 97 ٪ ،
yanwii/chinesener ، 基于 bi-gru + crf 的中文机构名、人名识别 中文实体识别 ، 支持 google bert 模型
Lemonhu/ner-bert-pytorch ، حل Pytorch لمهمة NER باستخدام نموذج BERT من Google AI.
nlpyang/bertsum ، رمز لورق النصفة لتلخيص الاستخراج ،
SanthoShkolloju/sherctraction-shumarization-with-transfer ، تلخيص جذاب باستخدام BERT باعتباره ترميز تشفير ومحول ،
nayeon7lee/bert-summarization ، تنفيذ "توليد اللغة الطبيعية القائمة على ما قبل التدريب لتلخيص النص" ، ورقة: https://arxiv.org/pdf/1902.09243.pdf
Dmmiller612/محاضرة-ملخص محاضرة مع بيرت
Asyml/Texar ، مجموعة أدوات لتوليد النصوص وخارج https://texar.io ، Texar هي مجموعة أدوات توليد نصية للأغراض العامة ، كما قامت بتنفيذ Bert هنا للتصنيف ، وتطبيقات توليد النص من خلال الجمع بين الوحدات النمطية الأخرى في Texar.
voidful/bertgenerate ، بيرت ضبط دقيق لتوليد النص ، bert 做 文本生成 的一些實驗
Tiiiger/Bert_Score ، درجة Bert لتوليد اللغة ،
lvjianxin/extrate-extring ، 基于中文的知识抽取 , baseline : bi-lstm+crf 升级版 : bert 预训练
Sakuranew/Bert-attributeextraction ، باستخدام BERT لاستخراج السمة في المعرفة. صقل جيد واستخراج الميزة. 使用基于 بيرت 的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。 ،
Aditya-AI/Information-Retrival-system-system-bert ،
JKSZW2014/BERT-KBQA-NLPCC2017 ، تجربة KBQA على أساس BERT لـ NLPCC2016/2017 المهمة 5 (基于 Bert 的中文知识库问答实践 代码可跑通 代码可跑通)) , 博客介绍 博客介绍 https://blog.csdn.net/ai_10460679444444 ،
yuanxiaosc/knowled-extraction المستندة إلى المخطط ، رمز لـ http://lic2019.ccf.org.cn/kg 信息抽取。使用基于 bert 的实体抽取和关系抽取的端到端的联合模型。 (将在比赛结束后 完善代码和使用说明 完善代码和使用说明) ،
YuanxiASC/CINTITY-Relation-EXTRACKTING ، الكيان واستخراج العلاقة على أساس Tensorflow. 基于 TensorFlow 的管道式实体及关系抽取 , 2019 语言与智能技术竞赛信息抽取任务解决方案 (比赛结束后完善代码) 。schema استخراج المعرفة القائمة على المعرفة ، ske 2019 http://lic2019.ccf.org.cn ،
Wenrichard/KBQA-Bert ، 基于知识图谱的问答系统 , bert 做命名实体识别和句子相似度 , 分为 分为 分为 和 和 和 模式 , 博客介绍 博客介绍 https://zhuanlan.zhihu.com/p/62946533 ،
Zhpmatrix/Bertem ، ACL2019 论文实现《 مطابقة الفراغات: التشابه التوزيعي في تعلم العلاقة》 ،
Ianycxu/rgcn-with-bert ، الشبكات التلافيفية الرسم البياني بوابات (RGCN) مع BERT لمهمة قرار coreference
isabellebouchard/bert_for_gap-coreferent
GAOQ1/RASA_NLU_GQ ، تحويل اللغة الطبيعية إلى بيانات منظمة (支持中文 , 自定义了 n 种模型 支持不同的场景和任务) ،
GAOQ1/RASA_CHATBOT_CN ، 基于 RASA-NLU 和 RASA-CORE 搭建的对话系统 DEMO ،
Gaoq1/rasa-bert-finetune ، 支持 rasa-nlu 的 bert finetune ،
geodge831012/bert_robot ، 用于智能助手回答问题的训练 , 基于 bert 模型进行训练改造
هذا هو رمز القالب لاستخدام Bert للتسلسل وتصنيف النص ، من أجل تسهيل BERT لمزيد من المهام. حاليًا ، تضمن رمز القالب CONLL-2003 تحديد تعريف الكيان المسماة ، وملء فتحات SNIPS والتنبؤ القصد.
Guillaume-chevalier/Reubert ، chatbot لإلغاء الأسئلة ، ببساطة.
Hanxiao/Bert-as-service ، رسم خرائط جملة متغيرة الطول إلى متجه ثابت الطول باستخدام نموذج Bert pretrained ،
yc-wind/inmbded_study ، 中文预训练模型生成字向量学习 , 测试 bert , elmo 的中文效果 ،
kyubyong/bert-token-embeddings ، التضمينات الرمزية المبللة بيرت ،
Xu-Song/Bert_AS_LANAGE_MODEL ، BERT كنموذج لغة ، شوكة من https://github.com/google-research/bert ،
yuanxiaosc/deep_dynamic_word_representation ، رمز TensorFlow والنماذج المدربة مسبقًا لتمثيل الكلمات الديناميكية العميقة (DDWR). وهو يجمع بين نموذج BERT وتمثيل الكلمات العميقة في السياق العميق. ،
Imgarylai/bert-embedding ، تضمينات مستوى الرمز المميز من نموذج Bert على Mxnet و Gluonnlp http://bert-embedding.readthedocs.io/ ،
Terrifyzhao/Bert-Utils ، Bert 生成句向量 , Bert 做文本分类、文本相似度计算 ،
fennudetudou/bert_implement ، 使用 bert 模型进行文本分类 , 相似句子判断 , 以及词性标注 ،
whqwill/seq2seq-keyphrase-bert ، أضف Bert إلى جزء من https://github.com/memray/seq2seq-keyphrase-pytorch ،
Charles9n/Bert-Sklearn ، غلاف Sklearn لنموذج Bert من Google ،
NVIDIA/MEGATRON-LM ، نماذج لغة محول التدريب على البحث المستمر على نطاق واسع ، بما في ذلك: BERT ،
hankcs/bert-token-expedding ، وتوليد التضمين على مستوى الرمز المميز bert دون ألم
Facebookresearch/Lama ، Lama: تحليل نموذج اللغة ، Lama هي مجموعة من الموصلات لنماذج اللغة التي تم تدريبها مسبقًا.
pengming617/bert_textmatching ، 利用预训练的中文模型实现基于 bert 的语义匹配模型 数据集为 lcqmc 官方数据
BrokenWind/bertsimilarity ، حوسبة التشابه بين جملتين مع خوارزمية Bert من Google
Policeme/Chinese_bert_similarity ، تشابه بيرت الصيني
LonePatient/Bert-sentence-similarity-pytorch ، يحتوي هذا الريبو على تطبيق Pytorch لنموذج Bert المسبق لمهمة تشابه الجملة.
Nouhadziri/Dialogentailment ، تنفيذ الورقة "تقييم التماسك في أنظمة الحوار باستخدام الاستدراج" https://arxiv.org/abs/1904.03371
ukplab / transence-transformers ، embeddes rembeddings مع Bert & Xlnet ، محولات الجملة: تدمير الجملة باستخدام Bert / Roberta / XLNET مع Pytorch ،
Graykode/NLP-Tutorial ، برنامج تعليمي معالجة اللغة الطبيعية للباحثين التعليميين العميق https://www.reddit.com/r/machinelearn..
Dragen1860/Tensorflow-2.x-tutorials ، Tensorflow 2.x Prosorts Prosorts and Ampossion ، بما في ذلك CNN و RNN و GAN و Auto-Encoders و FasterRcnn و GPT وأمثلة BERT ، إلخ. TF 2.0 版入门实例代码 实战教程。 实战教程。 ،