Iklan: Repositori untuk jaringan konvolusional grafik di https://github.com/jiakui/awesome-gcn (sumber daya untuk jaringan konvolusional grafik (图卷积神经网络相关资源)).
Arxiv: 1812.06705, augmentasi kontekstual berkontis, penulis: Xing Wu, Shangwen LV, Liangjun Zang, Jizhong Han, Songlin Hu
ARXIV: 1812.03593, SDNET: Jaringan mendalam berbasis perhatian yang dikontekstualisasikan untuk menjawab pertanyaan percakapan, Penulis: Chenguang Zhu, Michael Zeng, Xuedong Huang
Arxiv: 1901.02860, Transformer-XL: Model Bahasa yang perhatian di luar konteks panjang tetap, penulis: Zihang Dai, Zhilin Yang, Yiming Yang, William W. Cohen, Jaime Carbonell, Quoc V. Le dan Ruslan Salakhutdinov.
ARXIV: 1901.04085, peringkat kembali dengan Bert, penulis: Rodrigo Nogueira, Kyunghyun Cho
ARXIV: 1902.02671, Bert and Pals: Lapisan perhatian yang diproyeksikan untuk adaptasi yang efisien dalam pembelajaran multi-tugas, penulis: ASA Cooper Stickland, Iain Murray
Arxiv: 1904.02232, Bert pasca-pelatihan untuk pemahaman bacaan ulasan dan analisis sentimen berbasis aspek, penulis: Hu Xu, Bing Liu, Lei Shu, Philip S. Yu, [kode]
Codertimo/Bert-Pytorch, Google AI 2018 Bert Pytorch Implementasi,
HuggingFace/Pytorch-Pretrained-Bert, implementasi Pytorch dari model Bert Google AI dengan skrip untuk memuat model pra-terlatih Google,
DMLC/Gluon-NLP, Gluon + MXNet Implementasi yang mereproduksi Bert pretraining dan finetuning pada tolok ukur lem, skuad, dll,
DBIIR/UER-PY, UER-PY adalah toolkit untuk pra-pelatihan pada corpus domain umum dan fine-tuning pada tugas hilir. Uer-py mempertahankan modularitas model dan mendukung ekstensibilitas penelitian. Ini memfasilitasi penggunaan model pra-pelatihan yang berbeda (misalnya Bert), dan menyediakan antarmuka bagi pengguna untuk memperpanjang lebih lanjut.
Brikerman/Kashgari, kerangka NLP multibahasa yang sederhana dan bertenaga keras, memungkinkan Anda untuk membangun model dalam 5 menit untuk pengenalan entitas bernama (NER), penandaan bagian-of-speech (POS) dan tugas klasifikasi teks. Termasuk embedding Bert, GPT-2 dan Word2Vec.
Kaushaltrivedi/Fast-Bert, perpustakaan super mudah untuk model NLP berbasis Bert,
EPARIUS/BERT-BERAS, Implementasi Keras dari Bert dengan bobot pra-terlatih,
Soskek/Bert-Chainer, Implementasi Chainer dari "Bert: Pra-Pelatihan Transformer Day-Day untuk Pemahaman Bahasa",
Innodatalabs/Tbert, Pytorch Port dari Bert ML Model
Guotong1988/Bert-Tensorflow, Bert: Pra-pelatihan transformer dua arah yang dalam untuk pemahaman bahasa
DreamGonfly/Bert-Pytorch, Pytorch Implementasi Bert di "Bert: Pra-Pelatihan Transformator Day-Dip Transformers untuk Pemahaman Bahasa"
Cyberzhg/Keras-Beri, implementasi Bert yang dapat memuat model resmi terlatih untuk ekstraksi dan prediksi fitur
Soskek/Bert-Chainer, Implementasi Chainer dari "Bert: Pra-Pelatihan Transformer Day-Deep Dip Transformers Untuk Bahasa"
Mazhiyuanbuaa/Bert-tf1.4.0, Bert-tf1.4.0
Dhlee347/Pytorchic-Bert, Implementasi Pytorch dari Google Bert,
KPOT/KERAS-Transformer, Perpustakaan Keras untuk Membangun Transformer (Universal), memfasilitasi model Bert dan GPT,
Miroozyx/Bert_with_keras, versi keras dari model Bert Google,
Conda-Forge/Pytorch-Pretrained-Bert-Feedstock, sebuah repositori conda-smithy untuk Pytorch-pretrained-Bert. ,
Rshcaroline/Bert_pytorch_fastnlp, implementasi Pytorch & FastNLP dari model Bert Google AI.
Versi Nghuyong/Ernie-Pytorch, Ernie Pytorch,
BrightMart/Roberta_zh, Roberta untuk Cina, 中文预训练 Roberta 模型,
ymcui/cina-erbet-wwm, pra-pelatihan dengan seluruh kata masking untuk Bert (中文 Bert-wwm 预训练模型) https://arxiv.org/abs/1906.08101,
thunlp/openclap, Open Chinese Pre-Latih Model Zoo, OpenClap: 多领域开源中文预训练语言模型仓库,
ymcui/cina-pretrained-xlnet, pra-terlatih cina xlnet (中文 xlnet 预训练模型),
brightmart/xlnet_zh, 中文预训练 xlnet 模型: Pra-terlatih Cina xlnet_large,
Thunlp/Ernie, Kode Sumber dan Dataset untuk Kertas ACL 2019 "Ernie: Peningkatan Representasi Bahasa dengan Entitas Informatif", Bert Imporove dengan Fusi Informasi Heterogen.
Paddlepaddle/Lark, Kit Representasi Bahasa, Implementasi Paddlepaddle dari Bert. Ini juga berisi versi yang lebih baik dari Bert, Ernie, untuk tugas -tugas NLP Cina. Bert 的中文改进版 Ernie,
Zihangdai/xlnet, xlnet: pretraining autoregresif umum untuk pemahaman bahasa,
Kimiyoung/Transformer-XL, Transformer-XL: Model bahasa yang penuh perhatian di luar konteks panjang tetap, repositori ini berisi kode dalam pytorch dan tensorflow untuk makalah kami.
GAOPENG97/Transformer-XL-Chinese, Transformer XL 在中文文本生成上的尝试。( Transformer XL untuk generasi teks Cina),
Paddlepaddle/Ernie, Implementasi Ernie untuk Pemahaman Bahasa (termasuk model pra-pelatihan dan alat penyetelan) Bert 的中文改进版 Ernie,
Pytorch/Fairseq, Facebook AI Research Sequence-to-sequence Toolkit yang ditulis dalam Python. Roberta: Pendekatan pretraining Bert yang dioptimalkan dengan kuat,
FacebookResearch/Spanbert, kode untuk menggunakan dan mengevaluasi Spanbert. , Repositori ini berisi kode dan model untuk makalah: Spanbert: Meningkatkan pra-pelatihan dengan mewakili dan memprediksi rentang.,
BrightMart/Albert_zh, 海量中文预训练 Albert 模型, Lite Bert untuk pembelajaran swadaya dari representasi bahasa https://arxiv.org/pdf/1909.11942.pdf,
LONEPATIENT/ALBERT_PYTORCH, Lite Bert untuk representasi bahasa pembelajaran sendiri,
KPE/Bert-for-TF2, Implementasi Keras Tensorflow 2.0 dari Bert, Albert dan Adapter-Bert. https://github.com/kpe/bert-for-tf2,
BrightMart/Bert_language_understanding, pra-pelatihan transformer dua arah yang dalam untuk pemahaman bahasa: Textcnn pra-train,
Y1RAN/NLP-BERT-CHINESEVERSION, 谷歌自然语言处理模型 BERT : 论文解析与 Python 代码,
Yangbisheng2009/cn-eri, Bert 在中文 nlp 的应用, 语法检查
Jayyip/Bert-Multiple-GPU, Versi Dukungan GPU Berganda dari Bert,
HighCWU/Keras-BERT-TPU, Implementasi Bert yang dapat memuat model pra-terlatih resmi untuk ekstraksi dan prediksi fitur pada TPU,
Willyoung2017/Bert_attempt, Pytorch pretrained Bert,
Pydataman/Bert_examples, beberapa contoh Bert, run_classifier.py 是基于谷歌 Bert 实现了 Klasifikasi pertanyaan tidak tulus 实现了run_ner.py 是基于瑞金医院 ai 大赛 第一赛季数据和 Bert 写的一个命名实体识别。
Guotong1988/Bert-Chinese, Bert: Pra-pelatihan transformer dua arah yang dalam untuk pemahaman bahasa 中文 汉语
Zhongyunuestc/Bert_multitask, 多任务 Tugas
Microsoft/Azureml-Bert, berjalan ujung ke ujung untuk menyempurnakan Bert menggunakan Azure Machine Learning,
Bigboned3/Bert_Serving, Ekspor Model Bert untuk Disajikan,
Yoheikikuta/Bert-Jepang, Bert dengan kalimat untuk teks Jepang.
whqwill/seq2seq-keyphrase-bert, tambahkan Bert ke bagian encoder untuk https://github.com/memray/seq2seq-keyphrase-pytorch,
Algteam/Bert-Examples, Bert-Demo,
Cedrickchee/Awesome-Bert-NLP, daftar sumber daya NLP yang dikuratori yang berfokus pada Bert, mekanisme perhatian, jaringan transformator, dan pembelajaran transfer.
CNFIVE/CNBERT, 中文注释一下 BERT 代码功能,
BrightMart/Bert_customized, Bert dengan fitur yang disesuaikan,
Jayyip/Bert-Multitask-Learning, Bert for Multitask Learning,
Yuanxiaosc/Bert_paper_chinese_translation, Bert: Pra-pelatihan transformator dua arah yang dalam untuk pemahaman bahasa 论文的中文翻译。 Terjemahan Rakyat! https://yuanxiaosc.github.io/2018/12/…,
YASERKL/BERTVSULMFIT, Membandingkan hasil klasifikasi teks menggunakan embedding Bert dan embedding ulmfit,
KPOT/KERAS-Transformer, Perpustakaan Keras untuk Membangun Transformer (Universal), memfasilitasi model Bert dan GPT,
1234560O/Bert-Model-Code-Interpretation, 解读 TensorFlow 版本 Bert 中 Modeling.py 数据流
CDATHURALIYA/Bert-Inference, kelas pembantu untuk Google Bert (Devlin et al., 2018) untuk mendukung prediksi online dan memodelkan pipa.
GameofDimension/Java-Beri-Predict, Ubah pos pemeriksaan pretrain Bert menjadi model yang disimpan untuk demo ekstrak fitur di java
1234560O/Bert-Model-Code-Interpretation, 解读 TensorFlow 版本 Bert 中 Modeling.py 数据流
Allenai/Scibert, model Bert untuk teks ilmiah. https://arxiv.org/abs/1903.10676,
Merajat/Solvingalmostalthingwithbert, Biobert Pytorch
Kexinhuang12345/Clinicalbert, Clinicalbert: Pemodelan Catatan Klinis dan memprediksi penerimaan kembali rumah sakit https://arxiv.org/abs/1904.05342
Emilyalsentzer/Clinicalbert, Repositori untuk Embeddings Klinis yang tersedia untuk umum
Zhihu/Cubert, implementasi cepat dari Bert Inference langsung pada NVIDIA (CUDA, CUBLAS) dan Intel MKL
XMXOXO/Bert-Train2Deploy, Bert Model Training and Deploy, Bert 模型从训练到部署,
https://github.com/nvidia/deEplearningexamples/tree/master/tensorflow/languagemodeling/bert, Bert untuk Tensorflow, repositori ini menyediakan naskah dan resep untuk melatih Bert untuk mencapai keadaan akurasi seni, dan diuji dan dikelola oleh nvidia.
QIangsiwei/Bert_Distill, Bert Distilasi (基于 Bert 的蒸馏实验),
Kevinmtian/Distill-Bert, Distilasi Pengetahuan dari Bert,
Sogou/smrctoolkit, toolkit ini dirancang untuk pengembangan model pemahaman mesin modern yang cepat dan efisien, termasuk model yang diterbitkan dan prototipe asli.,
Benywon/Chinabert, ini adalah model Bert Cina yang spesifik untuk menjawab pertanyaan,
Matthew-Z/R-Net, R-Net di Pytorch, dengan Bert dan Elmo,
NYU-DL/DL4MARCO-BERT, Passage-ranking dengan Bert,
XZP27/Bert-for-Chinese-Anterion-
Chiayewken/Bert-QA, Bert untuk pertanyaan menjawab dimulai dengan Hotpotqa,
Ankit-Ai/Bertqa-attention-on-Steroids, Bertqa-Perhatian pada steroid,
Noviscl/Bert-race, karya ini didasarkan pada implementasi Pytorch dari Bert (https://github.com/huggingface/pytorch-pretrain-bert). Saya mengadaptasi model Bert asli untuk bekerja pada pemahaman mesin pilihan ganda.
Eva-N27/Bert-for-Chinese-Anterion-Annwering,
Allenai/Allennlp-Beri-QA-Wrapper, ini adalah pembungkus sederhana di atas model QA berbasis Bert pretrained dari Pytorch-pretrained-BT untuk membuat arsip model Allennlp, sehingga Anda dapat melayani demo dari Allennlp.
Edmondchensj/Chinaqa-with-Bert, EECS 496: Topik Lanjutan dalam Proyek Akhir Pembelajaran Deep: Jawaban Pertanyaan Cina dengan Bert (Baidu Dureader Dataset)
Graykode/Toeicbert, Toeic (Tes Bahasa Inggris untuk Komunikasi Internasional) Memecahkan Menggunakan Model Pytorch-Pretrained-Bert.,
Graykode/Korquad-beginner, https://github.com/graykode/korquad-beginner
Krishna-Sharma19/SBU-QA, Repositori ini menggunakan pretrain Bert Embeddings untuk Transfer Learning di QA Domain
BasketballAndLearn/Dureader-Bert, Bert Dureader 多文档阅读理解 排名第七, 2019 Dureader 机器阅读理解 单模型代码。,
zhpmatrix/kaggle-quora-incere-pertanyaan-klasifikasi, kaggle 新赛 (baseline)-基于 Bert 的 fine-tuning 方案+基于 tensor2tensor 的 encoder transformator 方案
Maksna/Bert-Fine-Tuning-For-Chinese-Multiclass-Classification, Gunakan Google Pre-Training Model Bert untuk menyempurnakan untuk klasifikasi multiclass Cina
NLPSCOTT/Bert-Chinese-Classification-Task, Bert 中文分类实践,
SocialBird-ADAB/Bert-klasifikasi-Tutorial,
Foosynaptic/Bert_Classifer_trial, Bert Trial for Chinese Corpus Classfication
Xiaopingzhong/Bert-Finetune-for-Classfier, 微调 Bert 模型, 同时构建自己的数据集实现分类
Pengming617/Bert_classification, 利用 Bert 预训练的中文模型进行文本分类,
xieyufei1993/Bert-Pytorch-Chinese-Textclassification, Pytorch Bert Finetune dalam Klasifikasi Teks Cina,
liyibo/teks-klasifikasi-demos, model saraf untuk klasifikasi teks di TensorFlow, seperti CNN, DPCNN, FastText, Bert ...,
CirclePi/Bert_Chinese_Text_Class_by_pytorch, Pytorch yang diterapkan dari kelas teks Cina berdasarkan Bert_Pretrain_Model,
Kaushaltrivedi/Bert-Toxic-Comments-Multilabel, Klasifikasi Multilabel untuk Tantangan Komentar Beracun Menggunakan Bert,
Lonepatient/Bert-Chinese-Text-Classification-Pytorch, Repo ini berisi implementasi Pytorch dari model BerT pretrained untuk klasifikasi teks.,
Analisis Chung-I/Douban-Sentimen, Analisis Sentimen pada Dataset Komentar Pendek Douban Movie Menggunakan Bert.
Lynnna-XU/Bert_SA, analisis sentimen Bert Tensorflow melayani dengan API RESTful
HSLCY/ABSA-BERT-PAIR, memanfaatkan Bert untuk analisis sentimen berbasis aspek melalui membangun kalimat tambahan (NAACL 2019) https://arxiv.org/abs/1903.09588,
Songyouwei/Absa-Pytorch, analisis sentimen berbasis aspek, implementasi pytorch. 基于方面的情感分析 , 使用 pytorch 实现。,
Howardhsu/Bert-for-rrc-ABSA, kode untuk makalah NAACL 2019 kami: "Bert pasca-pelatihan untuk pemahaman bacaan ulasan dan analisis sentimen berbasis aspek",
BrightMart/sentiment_analysis_fine_grain, klasifikasi multi-label dengan Bert; Analisis sentimen berbutir halus dari AI Challenger,
Zhpmatrix/Bert-sequence-tagging, 基于 Bert 的中文序列标注
Kyzhouhzau/Bert-ner, gunakan Google Bert untuk melakukan conll-2003 ner! ,
King-Menin/Ner-Bert, Solusi Tugas NER (Bert-BI-LSTM-CRF) dengan Google Bert https://github.com/google-research.
MACANV/BERT-BILSMT-CRF-BERNA, Solusi TensorFlow dari tugas NER menggunakan model BILSTM-CRF dengan fine-tuning Google Bert,
Fuyanzhe2/nama-entitas-pengenalan, LSTM-CRF, kisi-CRF, Bert-ner 及近年 ner 相关论文 ikuti,
MHCAO916/NER_BASED_ON_BERT, proyek ini didasarkan pada model Google Bert, yang merupakan ner Cina
ProHiryu/Bert-Chinese-Ner, 使用预训练语言模型 Bert 做中文 ner,
Sberbank-Ai/Ner-Bert, Bert-Bere (Nert-Bert) dengan Google Bert,
Kyzhouhzau/Bert-bilstm-CRF, model ini basis di Bert-as-service. Struktur Model: Bert-Embedding Bilstm CRF. ,
Hoiy/Berserker, Berserker - Bert Chinese Word Tokenizer, Berserker (Bert Chinese Word Tokenizer) adalah tokenizer Cina yang dibangun di atas model Google Bert. ,
Kyubyong/Bert_ner, Ner dengan Bert,
Jiangpinglei/Bert_chinesewordsment, model segmen kata Cina berdasarkan Bert, f1-skor 97%,
yanwii/chinesener, 基于 bi-gru + crf 的中文机构名、人名识别 中文实体识别, 支持 Google Bert 模型
Lemonhu/Ner-Beri-Pytorch, solusi Pytorch dari tugas NER menggunakan model BERT pra-terlatih Google AI.
Nlpyang/Bertsum, kode untuk fine-tune kertas untuk ringkasan ekstraktif,
santhoshkolloju/abstraktif-summarisasi-dengan-transfer-learning, ringkasan abstraktif menggunakan Bert sebagai encoder dan decoder transformator,
Nayeon7lee/Bert-Summarization, implementasi 'pembuatan bahasa alami berbasis pretraining untuk ringkasan teks', kertas: https://arxiv.org/pdf/1902.09243.pdf
dmmiller612/kuliah-summarizer, kuliah ringkasan dengan Bert
Asiml/Texar, Toolkit untuk pembuatan teks dan di luar https://texar.io, Texar adalah toolkit pembuatan teks umum umum, juga telah mengimplementasikan Bert di sini untuk klasifikasi, dan aplikasi pembuatan teks dengan menggabungkan dengan modul Texar lainnya.
batal/bertgenerate, fine tuning Bert untuk pembuatan teks, Bert 做 文本生成 的一些實驗
Tiiiger/Bert_score, skor Bert untuk generasi bahasa,
LVJIANXIN/Ekstraksi Pengetahuan, 基于中文的知识抽取 , Baseline : BI-LSTM+CRF : : Bert 预训练
Sakuranew/Bert-AttributeExtraction, menggunakan BERT untuk ekstraksi atribut di KnowledgeGraph. penyetelan dan ekstraksi fitur. 使用基于 Bert 的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。,
aditya-ai/informasi-retrieval-system-using-bert,
JKSZW2014/BERT-KBQA-NLPCC2017, Percobaan KBQA Berdasarkan Bert untuk NLPCC2016/2017 Tugas 5 (基于 Bert 的中文知识库问答实践 , 代码可跑通) , , https://blog.csdn.net/ai_10460679444/article.csdn.net/ai_1046067944/article.csdn.net/ai_1046067944/article/iTicle/ai
yuanxiaosc/schema-berbasis-knowledge-extraction, kode untuk http://lic2019.ccf.org.cn/kg 信息抽取。使用基于 Bert 的实体抽取和关系抽取的端到端的联合模型。(将在比赛结束后 , 完善代码和使用说明),
Yuanxiaosc/entitas-relasi-ekstraksi, entitas dan ekstraksi hubungan berdasarkan TensorFlow. 基于 TensorFlow 的管道式实体及关系抽取 , 2019 语言与智能技术竞赛信息抽取任务解决方案(比赛结束后完善代码)。 Ekstraksi Pengetahuan Berbasis SCHEMA, Ske 2019 http://lic2019.ccf.org.cn,
Wenrichard/Kbqa-Bert, 基于知识图谱的问答系统 , Bert 做命名实体识别和句子相似度 , 分为 Online 和 Garis Besar 模式 , 博客介绍 https://zhuanlan.zhihu.com/p/62946533,
Zhpmatrix/Bertem, ACL2019 论文实现《 Pencocokan Kosong: Kesamaan Distribusi untuk Relasi Pembelajaran》,
IAYCXU/RGCN-Dengan-Bert, Gated-Relational Graph Convolutional Networks (RGCN) dengan Bert untuk tugas resolusi coreference
Isabellebouchard/Bert_for_gap-Coreference, Bert Finetuning untuk Resolusi Kata Ganti yang Tidak Bias Gap
Gaoq1/rasa_nlu_gq, ubah bahasa alami menjadi data terstruktur (支持中文 , 自定义了 n 种模型 , ,),
Gaoq1/rasa_chatbot_cn, 基于 rasa-nlu 和 rasa-core 搭建的对话系统 demo,
GaoQ1/Rasa-Beri-Finetune, 支持 Rasa-nlu 的 Bert Finetune,
geodge831012/bert_robot, 用于智能助手回答问题的训练 , 基于 Bert 模型进行训练改造
Yuanxiaosc/Bert-for-sequence-label-dan-teks-klasifikasi, ini adalah kode template untuk menggunakan BerT untuk urutan penglihatan dan klasifikasi teks, untuk memfasilitasi BerT untuk tugas lebih lanjut. Saat ini, kode template telah menyertakan identifikasi entitas CONLL-2003 bernama, pengisian slot snips dan prediksi niat.
Guillaume-Chevalier/Reubert, chatbot yang dianugerahi pertanyaan, sederhana.
Hanxiao/Bert-as-Service, Memetakan kalimat panjang variabel ke vektor panjang tetap menggunakan model Bert pretrained,
Yc-wind/embedding_study, 中文预训练模型生成字向量学习 , 测试 bert , elmo 的中文效果,
Kyubyong/Bert-Token-Embedding, Bert Pretrained Token Embeddings,
xu-song/bert_as_language_model, Bert sebagai model bahasa, garpu dari https://github.com/google-research/bert,
yuanxiaosc/deep_dynamic_word_representation, kode tensorflow dan model pra-terlatih untuk representasi kata dinamis yang dalam (DDWR). Ini menggabungkan model Bert dan representasi kata konteks mendalam Elmo.,
Imgarylai/Bert-Embedding, Token Level Embeddings dari Bert Model pada MXNet dan Gluonnlp http://bert-embedding.readthedocs.io/,
Terrifyzhao/Bert-utils, Bert 生成句向量 , Bert 做文本分类、文本相似度计算,
Fennudetudou/Bert_Implement, 使用 Bert 模型进行文本分类 , 相似句子判断 , 以及词性标注,
whqwill/seq2seq-keyphrase-bert, tambahkan Bert ke bagian encoder untuk https://github.com/memray/seq2seq-keyphrase-pytorch,
Charles9n/Bert-Sklearn, pembungkus Sklearn untuk model Google Bert,
NVIDIA/MEGATRON-LM, Model Bahasa Transformator Pelatihan Penelitian yang sedang berlangsung pada skala, termasuk: Bert,
Hankcs/Bert-Token-level-embedding, menghasilkan embedding level token Bert tanpa rasa sakit
FacebookResearch/Lama, Lama: Analisis Model Bahasa, Lama adalah seperangkat konektor ke model bahasa yang sudah terlatih.
Pengming617/Bert_textmatching, 利用预训练的中文模型实现基于 Bert 的语义匹配模型 数据集为 lcqmc 官方数据
Brokenwind/Bertsimilarity, menghitung kesamaan dua kalimat dengan algoritma Bert Google
Policeme/China_Bert_Similarity, Bert China Kesamaan
Lonepatient/Bert-Similarity-Pytorch, repo ini berisi implementasi Pytorch dari model BerT pretrained untuk tugas kesamaan kalimat.
Nouhadziri/Dialogentailment, implementasi makalah "Mengevaluasi Koherensi dalam Sistem Dialog Menggunakan Persyaratan" https://arxiv.org/abs/1904.03371
Ukplab / kalimat transformer, embeddings kalimat dengan Bert & xlnet, transformator kalimat: kalimat embeddings menggunakan Bert / Roberta / Xlnet dengan pytorch,
Graykode/NLP-Tutorial, Tutorial Pemrosesan Bahasa Alami untuk Peneliti Pembelajaran Mendalam https://www.reddit.com/r/machinelearn…,
dragen1860/tensorflow-2.x-tutorials, tutorial dan contoh versi tensorflow 2.x, termasuk CNN, RNN, GAN, Auto-encoders, Fasterrcnn, GPT, Contoh Bert, dll. TF 2.0 版入门实例代码 , ,,