AD : https://github.com/jiakui/awesome-gcn의 그래프 컨볼 루션 네트워크를위한 저장소 (그래프 Convolutional Networks (图卷积神经网络相关资源)).
Arxiv : 1812.06705, 조건부 BERT 맥락 증강, 저자 : Xing Wu, Shangwen LV, Liangjun Zang, Jizhong Han, Songlin Hu
ARXIV : 1812.03593, SDNET : 대화 질문 답변을위한 맥락화 된주의 기반 딥 네트워크, 저자 : Chenguang Zhu, Michael Zeng, Xuedong Huang
Arxiv : 1901.02860, Transformer-XL : 고정 길이의 맥락을 넘어 세심한 언어 모델, 저자 : Zihang Dai, Zhilin Yang, Yiming Yang, William W. Cohen, Jaime Carbonell, Quoc V. Le 및 Ruslan Salakhutdinov.
Arxiv : 1901.04085, Bert와의 통로 재고, 저자 : Rodrigo Nogueira, Kyunghyun Cho
ARXIV : 1902.02671, BERT 및 PALS : 멀티 태스킹 학습의 효율적인 적응을위한 예상주의 레이어, 저자 : Asa Cooper Stickland, Iain Murray
ARXIV : 1904.02232, 검토 읽기 이해력 및 측면 기반 감정 분석을위한 Bert Post-Training, 저자 : Hu Xu, Bing Liu, Lei Shu, Philip S. Yu, [Code]
Codertimo/Bert-Pytorch, Google AI 2018 Bert Pytorch 구현,
Google의 미리 훈련 된 모델을로드하기 위해 스크립트가있는 Google AI의 Bert 모델의 Pytorch 구현 인 Huggingface/Pytorch-Prestrained-Bert,
DMLC/GLUON-NLP, GLUE 벤치 마크, 분대 등에 BERT 전 사전 조정 및 양조를 재현하는 Gluon + MXNET 구현.
DBIIR/UER-PY, UER-PY는 일반 도메인 코퍼스에서 미리 훈련하고 다운 스트림 작업을 미세 조정하기위한 툴킷입니다. UER-PY는 모델 모듈성을 유지하고 연구 확장 성을 지원합니다. 다양한 사전 훈련 모델 (예 : Bert)의 사용을 용이하게하고 사용자가 더 확장 할 수있는 인터페이스를 제공합니다.
간단하고 Keras가 구동되는 다국어 NLP 프레임 워크 인 Brikerman/Kashgari를 사용하면 지명 된 엔티티 인식 (NER), POS (Part-of Steech Tagging) 및 텍스트 분류 작업을 위해 5 분 안에 모델을 구축 할 수 있습니다. BERT, GPT-2 및 Word2VEC INMEDDING을 포함합니다.
Kaushaltrivedi/Fast-Bert, Bert 기반 NLP 모델을위한 매우 쉬운 라이브러리,
Separius/Bert-Keras, 미리 훈련 된 중량을 가진 Bert의 Keras 구현,
Soskek/Bert-Chainer, "Bert : 언어 이해를위한 심층 양방향 변압기의 사전 훈련"의 체인 구현,
Innodatalabs/Tbert, Pytorch Port of Bert ML 모델
GUOTONG1988/BERT-TENSORFLOW, BERT : 언어 이해를위한 깊은 양방향 변압기의 사전 훈련
Dreamgonfly/Bert-Pytorch, "Bert : 언어 이해를위한 깊은 양방향 변압기의 사전 훈련"에서 Bert의 Pytorch 구현 "
Cyberzhg/Keras-Bert, 기능 추출 및 예측을 위해 공식 미리 훈련 된 모델을로드 할 수있는 Bert 구현
Soskek/Bert-Chainer, "Bert : 언어 이해를위한 깊은 양방향 변압기의 사전 훈련"의 체인 구현
Mazhiyuanbuaa/bert-tf1.4.0, bert-tf1.4.0
DHLEE347/PYTORCHIC-BERT, PYTORCH 구현 Google Bert,
KPOT/KERAS-TRANSFORMER, 건물 (범용) 변압기를위한 Keras 라이브러리, BERT 및 GPT 모델 촉진,
miroozyx/bert_with_keras, Google의 Bert 모델의 Keras 버전,
Conda-Forge/Pytorch-extrained-Bert-Feedstock, Pytorch-exred-Bert를위한 콘다 스미티 저장소. ,,,
rshcaroline/bert_pytorch_fastnlp, Google AI의 Bert 모델의 Pytorch & Fastnlp 구현.
Nghuyong/Ernie-Pytorch, Ernie Pytorch 버전,
Brightmart/Roberta_zh, 중국어를위한 Roberta, 中文预训练 Roberta 模型,
YMCUI/Chinese-Bert-WWM, 중국어 버트를위한 전체 단어 마스킹으로 사전 훈련 최고 최고 (中文 中文 bert-wwm 预训练模型) https://arxiv.org/abs/1906.08101,
Thunlp/Openclap, 오픈 중국어 미리 훈련 된 모델 동물원, Openclap : 多领域开源中文预训练语言模型仓库,
YMCUI/중국-제외 -XLNET, 미리 훈련 된 중국어 XLNET (中文 XLNET 预训练模型),
BrightMart/xlnet_zh, 中文预训练 xlnet 模型 : 미리 훈련 된 중국어 xlnet_large,
Thunlp/Ernie, ACL 2019 논문의 소스 코드 및 데이터 세트 "Ernie : 유익한 엔티티를 사용한 강화 된 언어 표현", 이기종 정보 융합이있는 Cimorove Bert.
Paddlepaddle/Lark, 언어 표현 키트, Bert의 패들 라디 구현. 또한 중국 NLP 작업을위한 개선 된 Bert, Ernie 버전이 포함되어 있습니다. 버트 的中文改进版 어니,
Zihangdai/Xlnet, XLNET : 언어 이해를위한 일반화 된 자동 회귀 전 사전 조정,
Kimiyoung/Transformer-XL, Transformer-XL : 고정 길이의 컨텍스트 외에도 세심한 언어 모델 인이 저장소에는 논문의 Pytorch와 Tensorflow의 코드가 포함되어 있습니다.
Gaopeng97/Transformer-XL-Chinese, Transformer XL 在中文文本生成上的尝试。 (중국어 텍스트 생성을위한 변압기 XL),
Paddlepaddle/Ernie, 언어 이해를위한 Ernie의 구현 (사전 훈련 모델 및 미세 조정 도구 포함) Bert Ernie,
Pytorch/Fairseq, Facebook AI Research Sequence-to-Sequence 툴킷이 Python으로 작성되었습니다. Roberta : 강력하게 최적화 된 Bert Pretraining 접근 방식,
FacebookResearch/Spanbert, Spanbert 사용 및 평가 코드. ,이 저장소에는 용지의 코드 및 모델이 포함되어 있습니다. Spanbert : Spans를 나타내고 예측하여 사전 훈련 개선,,
BrightMart/Albert_ZH, 海量中文预训练 Albert 模型, 언어 표현에 대한 자체 지원 학습을위한 라이트 버트 https://arxiv.org/pdf/1909.11942.pdf,
Lonepatient/Albert_pytorch, 자체 감독 학습 언어 표현을위한 라이트 버트,
KERAS TENSORFLOW 2.0 BERT, ALBERT 및 ADAPTER-BERT의 KERAS TENSORFLOW 2.0 구현 KPE/BERT-FOR-TF2. https://github.com/kpe/bert-for-tf2,
BrightMart/Bert_language_understanding, 언어 이해를위한 심도있는 양방향 변압기의 사전 훈련 : 사전 훈련 TextCnn,
y1ran/nlp-bert-- 체인버리, 谷歌自然语言处理模型 버트 : 论文解析与 Python 代码,
Yangbisheng2009/CN-Bert, Bert 在中文 nlp 的应用, 语法检查
Jayyip/Bert-Multiple-GPU, Bert의 다중 GPU 지원 버전,
HighCWU/Keras-Bert-TPU, TPU의 기능 추출 및 예측을 위해 공식 미리 훈련 된 모델을로드 할 수있는 BERT의 구현,
Willyoung2017/bert_attempt, pytorch 사전 치료 Bert,
pydataman/bert_examples, bert, run_classifier.py 是基于谷歌 bert 实现了 quora 무의미한 질문 분류 二分类比赛。run_ner.py 是基于瑞金医院 ai 大赛 第一赛季数据和 bert 写的一个命名实体识别。의 일부 예제.
GUOTONG1988/BERT-Chinese, Bert : 언어 이해를위한 깊은 양방향 변압기의 사전 훈련 中文 汉语
ZhongyUnuestc/bert_multitask, 多任务 작업
Microsoft/Azureml-Bert, Azure Machine Learning을 사용하여 미세 조정 버트를위한 엔드 투 엔드 워크,
bigboned3/bert_serving, 서빙을위한 수출 버트 모델,
Yoheikikuta/Bert-Japanese, 일본어 텍스트를위한 문장이있는 Bert.
whqwill/seq2seq-keyphrase-bert, https://github.com/memray/seq2seq-keyphrase-pytorch의 인코더 부품에 Bert를 추가하십시오.
algteam/bert-examples, bert-demo,
Bert,주의 메커니즘, 변압기 네트워크 및 전송 학습에 중점을 둔 NLP 리소스의 선별 된 목록 인 Cedrickchee/Awesome-Bert-NLP.
cnfive/cnbert, 中文注释一下 bert 代码功能,
BrightMart/Bert_Customized, 맞춤형 기능이있는 Bert,
Jayyip/Bert-Multitask-Learning, 멀티 태스킹 학습을위한 Bert,
yuanxiaosc/bert_paper_chinese_translation, bert : 언어 이해를위한 깊은 양방향 변압기의 사전 훈련 论文的中文翻译。 Chinese Translation! https://yuanxiaosc.github.io/2018/12/…,
Yaserkl/Bertvsulmfit, Bert Embedding 및 Ulmfit Embedding을 사용한 텍스트 분류 결과 비교,
KPOT/KERAS-TRANSFORMER, 건물 (범용) 변압기를위한 Keras 라이브러리, BERT 및 GPT 모델 촉진,
1234560O/Bert-Model-Code-Interpretation, 解读 Tensorflow 版本 Bert 中 Modeling.py 数据流
온라인 예측 및 모델 파이프 라인을 지원하기위한 Google Bert (Devlin et al., 2018)의 도우미 클래스 인 Cdathuraliya/Bert-Inference.
GameOfDimension/Java-Bert-Predict, Bert Pretrain 체크 포인트를 Java의 기능 추출 데모에 대한 저장된 모델로 바꾸십시오.
1234560O/Bert-Model-Code-Interpretation, 解读 Tensorflow 版本 Bert 中 Modeling.py 数据流
Allenai/Scibert, 과학 텍스트를위한 Bert 모델. https://arxiv.org/abs/1903.10676,
Merajat/Solvingal Mernethingwithbert, Biobert Pytorch
Kexinhuang12345/Clinicalbert, Clinicalbert : 임상 메모 모델링 및 병원 재입학 예측 https://arxiv.org/abs/1904.05342
Emilyalsentzer/Clinicalbert, 공개적으로 이용 가능한 임상 적 버트 임베드를위한 저장소
Zhihu/Cubert, Nvidia (Cuda, Cublas) 및 Intel MKL에서 직접 Bert 추론의 빠른 구현
XMXOXO/BERT-TRAIN2DEPLOY, BERT 모델 교육 및 배포, BERT 模型从训练到部署,
https://github.com/nvidia/deeplearningexamples/tree/mas
Qiangsiwei/Bert_distill, Bert Distillation (基于 基于 bert 的蒸馏实验),
Kevinmtian/Distill-Bert, Bert의 지식 증류,
Sogou/SMRCToolkit 인이 툴킷은 출판 된 모델과 원래 프로토 타입을 포함하여 최신 기계 이해 모델의 빠르고 효율적인 개발을 위해 설계되었습니다.
Benywon/Chinesebert, 이것은 질문 답변에 맞는 중국어 버트 모델입니다.
Pytorch의 Matthew-Z/R-Net, R-Net, Bert 및 Elmo,
NYU-DL/DL4MARCO-BERT, BERT와의 통과 재평가,
XZP27/Bert-for-Chinese-Question-Answering,
chiayewken/bert-qa, hotpotqa로 시작하는 질문에 대한 버트,
Ankit-Ai/Bertqa-intention-on-steroids, bertqa- 스테로이드에 대한 관심,
Noviscl/Bert-race,이 작업은 Bert (https://github.com/huggingface/pytorch-preated-bert)의 Pytorch 구현을 기반으로합니다. 오리지널 버트 모델을 객관식 기계 이해력에서 작동하도록 조정했습니다.
EVA-N27/Bert-for-Chinese-Question-Answering,
Allenai/Allennai/Allennlp-Bert-Qa-Wrapper, 이것은 Pytorch-retrained-Bert의 사전에 사전 된 버트 기반 QA 모델 위에있는 간단한 래퍼로 Allennlp의 모델 아카이브를 만들기 위해 Allennlp의 데모를 제공 할 수 있습니다.
Edmondchensj/Chineseqa-With-Bert, EECS 496 : 딥 러닝 최종 프로젝트의 고급 주제 : Bert와의 중국어 질문 (Baidu Dureader DataSet)
Graykode/Toeicbert, Toeic (국제 커뮤니케이션을위한 영어 테스트) Pytorch-Prestrained-Bert 모델을 사용한 해결.
그레이 코드/korquad-beginner, https://github.com/graykode/korquad-beginner
krishna-sharma19/sbu-qa,이 저장소는 QA 도메인에서의 전송 학습을 위해 사전의 사전 Bert 임베딩을 사용합니다.
BasketballandLearn/Dureader-Bert, Bert Dureader 多文档阅读理解 排名第七 排名第七, 2019 Dureader 机器阅读理解 单模型代码。,
zhpmatrix/kaggle-quora-inconere-questions-classification, kaggle 新赛 (기준선)-基于 bert 的 미세 조정 方案+基于 tensor2tensor 的 변압기 인코더 方案
Maksna/Bert-Fine-Tuning-For-Chinese-Multiclass-Classification, Google 사전 훈련 모델 Bert를 사용하여 중국 멀티 클래스 분류를위한 미세 조정
Nlpscott/Bert-Chinese-Classification-Task, Bert 中文分类实践,
SocialBird-Aailab/Bert-Classification-Tutorial,
FOOSYNAPTIC/BERT_CLASSIFER_TRIAL, 중국 코퍼스 계급에 대한 버트 시험
Xiaopingzhong/Bert-finetune-for-classfier, 微调 bert 模型, 同时构建自己的数据集实现分类
PENGMING617/BERT_CLASSIFICY, 利用 BERT 预训练的中文模型进行文本分类,
Xieyufei1993/Bert-Pytorch-Chinese-TextClassification, 중국어 텍스트 분류의 Pytorch Bert Finetune,
Liyibo/Text-Classification-Demos, CNN, DPCNN, FastText, Bert와 같은 텐서 플로우의 텍스트 분류를위한 신경 모델
CirclePi/bert_chinese_text_class_by_pytorch, bert_pretraind_model을 기반으로 한 중국어 텍스트 클래스의 pytorch 도구,
kaushaltrivedi/bert-toxic-comments-multilabel, 독성 주석에 대한 멀티 라벨 분류 Bert를 사용한 도전,
Lonepatient/Bert-Chinese-Text-Classification-Pytorch 에서이 repo는 텍스트 분류를위한 사전 치료 된 Bert 모델의 Pytorch 구현을 포함합니다.,
Chung-I/Douban-sentiment- 분석, Douban Movie Short Comments 데이터 세트에 대한 감정 분석 Bert.
lynnna-xu/bert_sa, bert 감정 분석 텐서 플로우 편안한 API
hslcy/absa-bert-pair, 보조 문장 (NAACL 2019) https://arxiv.org/abs/1903.09588,
Songyouwei/Absa-Pytorch, 종횡비 기반 감정 분석, Pytorch 구현. 基于方面的情感分析, 使用 Pytorch 实现。,
Howardhsu/Bert-for-RRC-ABSA, NAACL 2019 논문 코드 : "검토 읽기 이해력 및 종횡비 기반 감정 분석을위한 교육 후 훈련",
BrightMart/sentiment_analysis_fine_grain, Bert를 사용한 다중 라벨 분류; AI Challenger의 미세한 감정 분석,
zhpmatrix/bert-equence-tagging, 基于 bert 的中文序列标注
KYZHOUHZAU/BERT-NER, Google Bert를 사용하여 Conll-2003 NER! ,,,
Google Bert https://github.com/google-research와 함께 King-Menin/Ner-Bert, NER 작업 솔루션 (Bert-Bi-LSTM-Crf).
MacANV/Bert-BilsMT-CRF-NER, Google Bert Fine Tuning을 사용하여 BILSTM-CRF 모델을 사용한 NER 작업의 텐서 플로우 솔루션,
Fuyanzhe2/Name-Entity-Recenition, LSTM-CRF, 격자 -CRF, BERT-NER 及近年 NER 相关论文 FOCLOR,
MHCAO916/NER_BASED_ON_BERT,이 프로젝트는 Google Bert 모델을 기반으로합니다.
prohiryu/bert-chinese-ber, 使用预训练语言模型 bert 做中文 ner,
Sberbank-Ai/Ner-Bert, Google Bert와의 Bert-Ber (Nert-Bert),
Kyzhouhzau/Bert-Bilstm-Crf,이 모델 기반 Bert-as-service. 모델 구조 : Bert-embedding BILSTM CRF. ,,,
Hoiy/Berserker, Berserker -Bert Chinese Word Tokenizer, Berserker (Bert Chinese Word Tokenizer)는 Google의 Bert 모델 위에 구축 된 중국 토큰 화기입니다. ,,,
Kyubyong/Bert_ner, Bert와 Ner,
Jiangpinglei/bert_chinesewordsegment, Bert, F1-Score 97%를 기반으로 한 중국어 단어 세그먼트 모델,
yanwii/chinesener, 基于 bi-gru + crf 的中文机构名、人名识别 中文实体识别, 支持 Google Bert 模型
Lemonhu/Ner-Bert-Pytorch, Google AI의 미리 훈련 된 Bert 모델을 사용한 NER 작업의 Pytorch 솔루션.
nlpyang/bertsum, 추출 요약을위한 종이 미세 조정 버트 코드,
Santhoshkolloju/추상적 인 험화-전송-학습, 추상적, 추상적 인 요약은 인코더 및 변압기 디코더로서 Bert를 사용하여 추상적 인 요약,
Nayeon7Lee/Bert-Summarization, '텍스트 요약을위한 사전 여신 기반 자연 언어 생성'구현, 논문 : https://arxiv.org/pdf/1902.09243.pdf
Dmmiller612/강의-ummarizer, Bert와의 강의 요약자
Texar는 텍스트 생성 및 https://texar.io를 넘어 텍스트 생성을위한 툴킷 인 Asyml/Texar는 일반 목적 텍스트 생성 툴킷이며 여기에서 Bert를 분류 및 Texar의 다른 모듈과 결합하여 텍스트 생성 응용 프로그램을 구현했습니다.
무효/Bertgenerate, 텍스트 생성을위한 미세 튜닝 버트, 버트 做 文本生成 的一些實驗
Tiiiger/Bert_score, 언어 생성에 대한 Bert 점수,
lvjianxin/knowledge-extraction, 基于中文的知识抽取, 기준선 : Bi-LSTM+CRF 升级版 : Bert 预训练
Sakuranew/Bert-attributeextraction, Knowledgegraph에서 속성 추출을 위해 Bert를 사용합니다. 미세 조정 및 기능 추출. 使用基于 버트 的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。,
Aditya-AI/Information-Retieval-System-using-Bert,
JKSZW2014/BERT-KBQA-NLPC22017, NLPCC2016/2017 작업 5 (基于 BERT 的中文知识库问答实践 的中文知识库问答实践, 代码可跑通) <https://blog.csdn.net/ai_1046067944/artcicle/details/8670784,
yuanxiaosc/schema 기반-Knowledge-extraction, http://lic2019.ccf.org.cn/kg에 대한 코드 的实体抽取和关系抽取的端到端的联合模型。 的实体抽取和关系抽取的端到端的联合模型。 的实体抽取和关系抽取的端到端的联合模型。 (将在比赛结束后 将在比赛结束后, 完善代码和使用说明),
Yuanxiaosc/Entity-Relation-extraction, 엔티티 및 관계 추출을 기반으로합니다. 基于 Tensorflow 的管道式实体及关系抽取, 2019 语言与智能技术竞赛信息抽取任务解决方案 (语言与智能技术竞赛信息抽取任务解决方案 语言与智能技术竞赛信息抽取任务解决方案 语言与智能技术竞赛信息抽取任务解决方案) 。Schema 기반 지식 추출, SKE 2019 http://lic2019.ccf.org.cn,
wenrichard/kbqa-bert, 基于知识图谱的问答系统 基于知识图谱的问答系统 基于知识图谱的问答系统, bert 做命名实体识别和句子相似度 做命名实体识别和句子相似度, 分为 온라인 개요 模式, https://zhuanlan.zhihu.com/p/62946533,
Zhpmatrix/Bertem, ACL2019 论文实现《 공백 일치 : 관계 학습을위한 분포 유사성》,
IANYCXU/RGCN-WITH-BERT, GATED-Relational Graph Convolutional Networks (RGCN)가 커지기 해상도 작업을위한 BERT.
isabellebouchard/bert_for_gap-coreference, 갭 편견없는 대명사 해결을위한 Bert Finetuning
gaoq1/rasa_nlu_gq, 자연 언어를 구조화 된 데이터로 바꾸십시오 (支持中文, 自定义了 n 种模型, 支持不同的场景和任务),
gaoq1/rasa_chatbot_cn, 基于 rasa-nlu 和 rasa-core 搭建的对话系统 데모,
gaoq1/rasa-bert-finetune, 支持 rasa-nlu 的 bert finetune,
Geodge831012/bert_robot, 用于智能助手回答问题的训练, 基于 bert 模型进行训练改造
yuanxiaosc/bert-for-equence-labeling and-text-classification이 이것은 더 많은 작업에 대한 Bert를 용이하게하기 위해 서열 lableing 및 텍스트 분류에 Bert를 사용하는 템플릿 코드입니다. 현재 템플릿 코드에는 Conll-2003이라는 이름의 Entity 식별, SNIPS 슬롯 충전 및 의도 예측이 포함되어 있습니다.
Guillaume-Chevalier/Reubert, 질문에 응답하는 챗봇.
Hanxiao/Bert-as-Service, 가변 길이 문장을 사전에 사전 고정 된 버트 모델을 사용하여 고정 길이 벡터에 매핑,
yc-wind/embedding_study, 中文预训练模型生成字向量学习, 测试 bert, elmo 的中文效果,
Kyubyong/Bert-Token-embeddings, Bert 사전 취급 토큰 임베딩,
xu-song/bert_as_language_model, 언어 모델로서의 버트, https://github.com/google-research/bert의 포크,
yuanxiaosc/deep_dynamic_word_representation, thenorflow 코드 및 DDWR (Deep Dynamic Word 표현)에 대한 미리 훈련 된 모델. 그것은 Bert 모델과 Elmo의 깊은 컨텍스트 단어 표현을 결합합니다.
imgarylai/bert-embedding, mxnet 및 gluonnlp http://bert-embedding.readthedocs.io/, gluonnlp의 Bert 모델의 토큰 레벨 임베딩
STRIFYZHAO/BERT-UTILS, BERT 生成句向量, BERT 做文本分类、文本相似度计算,
fennudetudou/bert_implement, 使用 bert 模型进行文本分类, 相似句子判断, 以及词性标注,
whqwill/seq2seq-keyphrase-bert, https://github.com/memray/seq2seq-keyphrase-pytorch의 인코더 부품에 Bert를 추가하십시오.
Charles9n/Bert-Sklearn, Google의 Bert 모델을위한 스카운 포장지,
NVIDIA/MEGATRON-LM, 진행중인 연구 교육 변압기 언어 모델 (Bert, Bert,
HANKCS/BERT-TOKEN 수준의 엠 베딩은 통증없이 Bert 토큰 수준 임베딩을 생성합니다
FacebookResearch/Lama, LAMA : 언어 모델 분석, Lama는 미리 훈련 된 언어 모델에 대한 일련의 커넥터입니다.
PENGMING617/BERT_TEXTMATCHING, 利用预训练的中文模型实现基于 BERT 的语义匹配模型 数据集为 LCQMC 官方数据
Brokengwind/Bertsimilarity, Google의 Bert 알고리즘으로 두 문장의 유사성을 계산합니다.
Policeme/Chinese_bert_similarity, Bert Chinese 유사성
Lonepatient/Bert-sentence-similarity-pytorch 에서이 repo에는 문장 유사성 작업을위한 사전 배치 된 Bert 모델의 Pytorch 구현이 포함되어 있습니다.
Nouhadziri/Dialogentailment, 논문의 구현 "entailment"https://arxiv.org/abs/1904.03371을 사용하여 대화 시스템의 일관성 평가 "
ukplab / sentence-transformers, Bert & xlnet과 함께 문장 임베딩, 문장 변압기 : Pytorch와 함께 Bert / Roberta / xlnet을 사용한 문장 임베딩,
딥 러닝 연구원을위한 Graykode/NLP-Tutorial, 자연 언어 처리 자습서 https://www.reddit.com/r/machinelearn…
Dragen1860/Tensorflow-2.x-tutorials, CNN, RNN, GAN, Auto-Encoders, FasterRCNN, GPT, Bert 예제 등 CNN, RNN, GAN, GAN, GAN을 포함한 TensorFlow 2.X 버전의 자습서 및 예제 TF 2.0 版入门实例代码, 实战教程。,