AD: Un repositorio de redes convolucionales gráficas en https://github.com/jiakui/awesome-gcn (Recursos para redes convolucionales gráficas (图卷积神经网络相关资源)).
ARXIV: 1812.06705, Aumento contextual de Bert condicional, Autores: Xing Wu, Shangwen LV, Liangjun Zang, Jizhong Han, Songlin Hu
ARXIV: 1812.03593, SDNET: red profunda basada en la atención contextualizada para la respuesta de preguntas conversacionales, autores: Chenguang Zhu, Michael Zeng, Xuegong Huang
ARXIV: 1901.02860, Transformer-XL: modelos de lenguaje atento más allá de un contexto de longitud fija, Autores: Zihang Dai, Zhilin Yang, Yiming Yang, William W. Cohen, Jaime Carbonell, Quoc V. Le y Ruslan Salakhutdinov.
ARXIV: 1901.04085, Passage Re-Ranking con Bert, Autores: Rodrigo Nogueira, Kyunghyun Cho
ARXIV: 1902.02671, Bert y Pals: capas de atención proyectadas para una adaptación eficiente en el aprendizaje de tareas múltiples, Autores: Asa Cooper Stickland, Iain Murray
ARXIV: 1904.02232, Bert posterior al entrenamiento para la comprensión de lectura de revisión y análisis de sentimientos basados en aspectos, autores: Hu XU, Bing Liu, Lei Shu, Philip S. Yu, [Código]
Codertimo/Bert-Pytorch, Google AI 2018 Bert Pytorch Implementación,
Huggingface/Pytorch-Prethered-Bert, una implementación de Pytorch del modelo Bert de Google AI con script para cargar los modelos previamente capacitados de Google,
DMLC/Gluon-NLP, Gluon + MXNET Implementación que reproduce el pretréngase de BERT y el fino en la referencia de pegamento, el escuadrón, etc., etc.
DBIIR/UER-PY, UER-PY es un kit de herramientas para la capacitación previa en el corpus de dominio general y el ajuste fino en la tarea aguas abajo. Uer-PY mantiene la modularidad del modelo y apoya la extensibilidad de la investigación. Facilita el uso de diferentes modelos de pre-entrenamiento (por ejemplo, BERT), y proporciona interfaces para que los usuarios se extienda aún más.
Brikerman/Kashgari, marco NLP multilingüe simple, con Keras, le permite construir sus modelos en 5 minutos para el reconocimiento de entidad nombrado (NER), el etiquetado de parte de voz (POS) y las tareas de clasificación de texto. Incluye Bert, GPT-2 y Word2Vec Incrustación.
Kaushaltrivedi/Fast-Bert, súper fácil biblioteca para modelos NLP basados en Bert,
Separius/bert-kinas, implementación de Keras de Bert con pesos previamente capacitados,
Soskek/bert-chainer, implementación de "Bert: pretruento de transformadores bidireccionales profundos para la comprensión del lenguaje",
innodatalabs/tbert, puerto de Pytorch del modelo Bert ML
Guotong1988/Bert-Tensorflow, Bert: pretruamiento de transformadores bidireccionales profundos para la comprensión del lenguaje
DreamGonfly/Bert-Pytorch, implementación de Pytorch de Bert en "Bert: pretración de transformadores bidireccionales profundos para la comprensión del lenguaje"
Cyberzhg/Keras-Bert, Implementación de Bert que podría cargar modelos oficiales previamente capacitados para la extracción y predicción de características
Soskek/Bert-Chainer, implementación de "Bert: pretruamiento de transformadores bidireccionales profundos para la comprensión del lenguaje"
Mazhiyuanbuaa/bert-tf1.4.0, bert-tf1.4.0
Dhlee347/Pytorchic-Bert, Pytorch Implementación de Google Bert,
KPOT/Keras-Transformer, Transformadores de la Biblioteca Keras para la construcción (Universal), facilitando modelos Bert y GPT,
Mirozzyx/bert_with_keras, una versión de Keras del modelo Bert de Google,
Conda-Forge/Pytorch pretratado-Bert-Feedstock, un repositorio de conda-smithy para Pytorch-pretavate-Bert. ,
Rshcaroline/bert_pytorch_fastnlp, una implementación de Pytorch & Fastnlp del modelo BERT de Google AI.
Nghuyong/Ernie-Pytorch, Versión de Ernie Pytorch,
Brightmart/Roberta_Zh, Roberta para chino, 中文预训练 Roberta 模型,
ymcui/chino-bert-wwm, pre-entrenamiento con enmascaramiento de palabras enteras para bert chino (中文 bert-wwm 预训练模型) https://arxiv.org/abs/1906.08101,
Thunlp/OpenClap, Abrir zoológico modelo de capacitación de idioma chino, OpenClap: 多领域开源中文预训练语言模型仓库,
ymcui/chino pretavenado-xlet, priorizado chino xlnet (中文 xlnet 预训练模型),
BrightMart/xlnet_zh, 中文预训练 xlnet 模型: chino pre-entrenado xlnet_large,
Thunlp/Ernie, código fuente y conjunto de datos para el documento de ACL 2019 "Ernie: representación del lenguaje mejorado con entidades informativas", Impulsar Bert con fusión de información heterogénea.
Paddlepaddle/Lark, Kit de representaciones de idiomas, implementación de Paddlepaddle de Bert. También contiene una versión mejorada de Bert, Ernie, para tareas chinas de PNL. Bert 的中文改进版 Ernie,
Zihangdai/xlnet, xlnet: pre -stretratening autorregresivo generalizado para la comprensión del lenguaje,
KimiYoung/Transformer-XL, Transformer-XL: modelos de lenguaje atento más allá de un contexto de longitud fija, este repositorio contiene el código tanto en Pytorch como en TensorFlow para nuestro documento.
Gaopeng97/transformer-xl-chinese, transformer xl 在中文文本生成上的尝试。( transformer xl para la generación de texto de chino),
Paddlepaddle/Ernie, una implementación de Ernie para la comprensión del lenguaje (incluidos los modelos de pre-entrenamiento y las herramientas de ajuste) Bert 的中文改进版 Ernie,
Pytorch/Fairseq, Facebook AI Research Sequence-to Sequence Toolkit escrito en Python. ROBERTA: Un enfoque de prepertimiento de Bert con sólidamente optimizado,
FacebookResearch/Spanbert, código para usar y evaluar Spanbert. , Este repositorio contiene código y modelos para el documento: Spanbert: Mejora de la capacitación previa al representar y predecir los tramos.,
BrightMart/Albert_Zh, 海量中文预训练 Albert 模型, un Bert Lite para el aprendizaje auto-supervisado de representaciones de idiomas https://arxiv.org/pdf/1909.11942.pdf,,
LonePatient/Albert_Pytorch, un lite bert para representaciones de lenguaje de aprendizaje auto-supervisado,
KPE/Bert-For-TF2, una implementación Keras Tensorflow 2.0 de Bert, Albert y Adapter-Bert. https://github.com/kpe/bert-for-tf2,
BrightMart/Bert_Language_Enderstanding, pretración de transformadores bidireccionales profundos para la comprensión del lenguaje: Textcnn previo al entrenamiento,
Y1ran/nlp-bert-chinosessionsion, 谷歌自然语言处理模型 bert : 论文解析与 python 代码,
Yangbisheng2009/CN-Bert, Bert 在中文 NLP 的应用, 语法检查
Jayyip/bert-multiple-gpu, una versión de soporte de GPU múltiple de Bert,
Highcwu/keras-bert-tpu, implementación de Bert que podría cargar modelos oficiales previamente capacitados para la extracción y predicción de características en TPU,
Willyoung2017/bert_attempt, pytorch pretranado bert,
Pydataman/bert_examples, algunos ejemplos de bert, run_classifier.py 是基于谷歌 bert 实现了 quora insincer preguntas clasificación 二分类比赛。run_ner.py 是基于瑞金医院 ai 大赛 第一赛季数据和 bert 写的一个命名实体识别。
Guotong1988/Bert-Chinese, Bert: prioridad de transformadores bidireccionales profundos para la comprensión del lenguaje 中文 汉语
ZhongyunueSestc/bert_multitask, 多任务 tarea
Microsoft/Azureml-Bert, caminar de extremo a extremo para ajustar a Bert usando Azure Machine Learning,
Bigboned3/bert_Serving, Modelo de exportación Bert para servir,
yoheikikuta/bert-japonese, bert con piezas de oración para texto japonés.
whqwill/seq2seq-keyphrase-bert, agregue bert a la parte del codificador para https://github.com/memray/seq2seq-keyphrase-pytorch,
Algteam/Bert-Examples, Bert-Demo,
Cedrickchee/Awesome-Bert-NLP, una lista curada de recursos de PNL centrado en Bert, mecanismo de atención, redes de transformadores y aprendizaje de transferencia.
cnfive/cnbert, 中文注释一下 bert 代码功能,
BrightMart/Bert_Customized, Bert con características personalizadas,
Jayyip/Bert-Multitask-Learning, Bert para el aprendizaje multitarea,
Yuanxiaosc/bert_paper_chinese_translation, Bert: pretronabrilamiento de transformadores bidireccionales profundos para la comprensión del lenguaje 论文的中文翻译。 论文的中文翻译。 论文的中文翻译。 论文的中文翻译。 论文的中文翻译。 论文的中文翻译。Chinese Translation! https://yuanxiaosc.github.io/2018/12/…,
yaserkl/bertvsulmfit, comparando los resultados de la clasificación de texto utilizando la incrustación de Bert y la incrustación de Ulmfit,
KPOT/Keras-Transformer, Transformadores de la Biblioteca Keras para la construcción (Universal), facilitando modelos Bert y GPT,
1234560O/BERT-MODEL-CODEPRETACIÓN, 解读 TensorFlow 版本 Bert 中 Modeling.py 数据流
Cdathuraliya/Bert-Inference, una clase de ayuda para Google Bert (Devlin et al., 2018) para apoyar la predicción en línea y la tuberías del modelo.
GameOfDimension/Java-Bert-predicto, convierta el punto de control de Bert Pretrain en modelo guardado para una demostración de extracción de características en Java
1234560O/BERT-MODEL-CODEPRETACIÓN, 解读 TensorFlow 版本 Bert 中 Modeling.py 数据流
Allenai/Scibert, un modelo Bert para texto científico. https://arxiv.org/abs/1903.10676,
Merajat/SolvingalMostanythingwithbert, Biobert Pytorch
KEXINHUANG12345/Clinicalbert, Clinicalbert: modelado de notas clínicas y predecir el reingreso hospitalario https://arxiv.org/abs/1904.05342
EmilyalSentzer/Clinicalbert, Repositorio de Incruscaciones clínicas de Bert disponibles públicamente
Zhihu/Cubert, implementación rápida de la inferencia de Bert directamente en NVIDIA (CUDA, CUBLAS) e Intel MKL
XMXOXO/BERT-TRAIN2DePloy, Bert Model Training and Deploy, Bert 模型从训练到部署,
https://github.com/nvidia/deeplearningingexamples/tree/master/tensorflow/languagemodeling/bert, bert para tensorflow, este repositorio proporciona un guión y una receta para capacitar a Bert para lograr la precisión del estado, y es probada y mantenida por Nvidia.
Qiangsiwei/Bert_Distill, Bert Destilación (基于 Bert 的蒸馏实验))))
Kevinmtian/Distill-Bert, Destilación del conocimiento de Bert,
Sogou/SmrcToolkit, este kit de herramientas fue diseñado para el desarrollo rápido y eficiente de los modelos modernos de comprensión de la máquina, incluidos los modelos publicados y los prototipos originales.
Benywon/Chinesebert, este es un modelo chino de Bert específico para responder preguntas,
Matthew-Z/R-Net, R-Net en Pytorch, con Bert y Elmo,
NYU-DL/DL4MARCO-Bert, pasaje re-raneando con Bert,
XZP27/Bert-for-Chines-Question-Respuesta,
Chiayewken/Bert-Qa, Bert para la respuesta a las preguntas que comienza con Hotpotqa,
ankit-ai/bertqa-Atention-on-esteroides, bertqa-atención sobre esteroides,
NovIscl/Bert-Race, este trabajo se basa en la implementación de Pytorch de Bert (https://github.com/huggingface/pytorch-petRained-bert). Adapté el modelo Bert original para que funcione en la comprensión de la máquina de opción múltiple.
EVA-N27/Bert-for-Chines-Question-Respuesta,
Allenai/Allennlp-Bert-Qa-Wrapper, este es un envoltorio simple encima de los modelos de control de calidad de Bert pretrinidos de Pytorch-pretured-Bert para hacer archivos del modelo Allennlp, para que pueda servir demostraciones de Allennlp.
Edmondchensj/Chineseqa-With-Bert, EECS 496: Temas avanzados en el aprendizaje profundo Proyecto final: preguntas chinas Respondiendo con Bert (conjunto de datos de Baidu Dureader)
Graykode/Toeicbert, Toeic (Prueba de inglés para la comunicación internacional) Resolviendo el modelo Pytorch-Prethered-Bert.
Graykode/Korquad-Beginner, https://github.com/graykode/korquad-beginner
Krishna-Sharma19/SBU-QA, este repositorio utiliza incrustaciones de Bert Pretrain para el aprendizaje de transferencia en el dominio de control de calidad
Basketballandlearn/Dureader-Bert, Bert Dureader 多文档阅读理解 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 排名第七 机器阅读理解 单模型代码。 单模型代码。 单模型代码。 单模型代码。 单模型代码。
ZHPMATRIX/KAGGLE-QUORA-INSINGERE-QUESTIONSIFICACIÓN, KAGGLE 新赛 (BASE DE BASE)-基于 BERT 的 FALLA 方案+基于 Tensor2Tensor 的 Coder de transformador 方案
MAKSNA/BERT-FINE-ANTING-FOR-CHINESE-MULTLASS-Clasificación, use el modelo de pre-entrenamiento de Google BERT para ajustar la clasificación multiclase china
Nlpscott/bert-china-classification-tars, Bert 中文分类实践,
SocialBird-Ailab/Bert-Classification-Tutorial,
Foosynaptic/bert_classifer_trial, Bert Trial for Chinese Corpus Classfication
Xiaopingzhong/Bert-Finetune-For-Classfier, 微调 Bert 模型, 同时构建自己的数据集实现分类
Pengming617/bert_classification, 利用 Bert 预训练的中文模型进行文本分类,
xieyufei1993/bert-pytorch-chines-textlassification, Pytorch Bert Finetune en la clasificación de texto chino,
liyibo/text-classification-demos, modelos neuronales para la clasificación de texto en tensorflow, como CNN, DPCNN, FastText, Bert ...,
Circlepi/bert_chinese_text_class_by_pytorch, un pytorch implementos de la clase de texto chino basado en bert_preadrein_model,
Kaushaltrivedi/bert-tóxico-multilabel, clasificación multilabel para desafío de comentarios tóxicos usando Bert,
LonePatient/Bert-chines-text-classification-Pytorch, este repositorio contiene una implementación de Pytorch de un modelo BERT previsto para la clasificación de texto.
Chung-i/Douban-oralusis-análisis, análisis de sentimientos en el conjunto de datos de comentarios breves de la película Douban usando Bert.
Lynnna-Xu/Bert_SA, Bert Sentiment Analysis TensorFlow Sirviendo con API RESTful
HSLCY/Absa-Bert-Pair, utilizando BERT para el análisis de sentimientos basado en aspectos mediante la construcción de oraciones auxiliares (NAACL 2019) https://arxiv.org/abs/1903.09588,
Songyouwei/Absa-Pytorch, análisis de sentimientos basado en el aspecto, implementaciones de Pytorch. 基于方面的情感分析 使用 使用 Pytorch 实现。,
Howardhsu/Bert-For-RRC-ABSA, Código para nuestro documento NAACL 2019: "Bert Post-Training for Review Review Reading Comprensión y análisis de sentimientos basados en aspectos",
BrightMart/Sentiment_analysis_fine_Grain, clasificación de múltiples etiquetas con bert; Análisis de sentimientos de grano fino de AI Challenger,
ZHPMATRIX/BERT-SECHINACIÓN, 基于 Bert 的中文序列标注
Kyzhouhzau/Bert-Ger, usa Google Bert para hacer conll-2003 ner! ,
King-Menin/Ner-Bert, solución de tareas NER (bert-bi-lstm-crf) con Google bert https://github.com/google-research.
MACANV/BERT-BILSMT-CRF-NER, TensorFlow Solución de la tarea NER utilizando el modelo BILSTM-CRF con Google Bert Fine-Tuning,
FUYANZHE2/Name-Entity-Recognition, LSTM-CRF, Lattice-CRF, Bert-Ger 及近年 ner 相关论文 Sigue,
MHCAO916/NER_BASED_ON_BERT, este proyecto se basa en el modelo Google Bert, que es un ner chino
Prohiryu/bert-chinese-gana, 使用预训练语言模型 bert 做中文 ner,
Sberbank-Ai/Ner-Bert, Bert-Ger (Nert-Bert) con Google Bert,
Kyzhouhzau/Bert-Bilstm-CRF, este modelo base en Bert como servicio. Estructura del modelo: Bert Bilstm CRF. ,
Hoiy/Berserker, Berserker - Bert Chinese Word Tokenizer, Berserker (Bert Chinese Word Tokenizer) es un tokenizador chino construido sobre el modelo Bert de Google. ,
Kyubyong/Bert_ner, ner con Bert,
Jiangpinglei/bert_chineseswordsegment, un modelo de segmento de palabras chino basado en Bert, F1-Score 97%,
Yanwii/Chineener, 基于 Bi-Gru + CRF 的中文机构名、人名识别 中文实体识别, 支持 Google Bert 模型
Lemonhu/Ner-Bert-Pytorch, Solución de Pytorch de la tarea NER utilizando el modelo BERT previamente entrenado de Google AI.
nlpyang/bertsum, código para el papel fino de papel bert para resumen extractivo,
santhoshkolloju/abstractive-sumarización con transferencia-aprendizaje, resumen abstracto utilizando Bert como codificador y decodificador de transformadores,
NAYEON7LEE/BERT-SUMMARIZACIÓN, Implementación de 'Generación de lenguaje natural basada en el pretrete para resumen de texto', documento: https://arxiv.org/pdf/1902.09243.pdf
DMMiller612/Lecture-Summarizer, resumen de conferencias con Bert
Asyml/Texar, Toolkit para la generación de texto y más allá de https://texar.io, Texar es un kit de herramientas de generación de texto de propósito general, también ha implementado Bert aquí para aplicaciones de generación de clasificación y texto mediante la combinación con los otros módulos de Texar.
Voidful/bertGenerate, ajuste de Bert para la generación de texto, Bert 做 文本生成 的一些實驗 的一些實驗 的一些實驗 的一些實驗 的一些實驗 的一些實驗
TIIIGER/BERT_SCORE, BERT SCORE para la generación de idiomas,
Lvjianxin/Knowledge-Extraction, 基于中文的知识抽取 , Base: Bi-LSTM+CRF 升级版 : Bert 预训练
Sakuranew/Bert-attributeExtraction, utilizando Bert para la extracción de atributos en KnowledgeGraph. ajuste fino y extracción de características. 使用基于 Bert 的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取。,
aditity-ai/información-retrieval-system-using-bert,
JKSZW2014/BERT-KBQA-NLPCC2017, una prueba de KBQA basada en Bert para NLPCC2016/2017 Tarea 5 (基于 Bert 的中文知识库问答实践 , 代码可跑通) , 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍 博客介绍86707844
Yuanxiaosc/basado en esquema-conocimiento-extracción, código para http://lic2019.ccf.org.cn/kg 信息抽取。使用基于 bert 的实体抽取和关系抽取的端到端的联合模型。(将在比赛结束后 完善代码和使用说明),
Yuanxiaosc/Entidad-relación-extracción, entidad y extracción de relación basada en el flujo tensor. 基于 Tensorflow 的管道式实体及关系抽取 , 2019 语言与智能技术竞赛信息抽取任务解决方案(比赛结束后完善代码)。 Extracción de conocimiento basada en Schema, SKE 2019 http://lic2019.ccf.org.cn,
Wenrichard/Kbqa-Bert, 基于知识图谱的问答系统 , 做命名实体识别和句子相似度 做命名实体识别和句子相似度 做命名实体识别和句子相似度 分为 和 和 和 模式 模式 博客介绍 博客介绍 博客介绍 https://zhuanlan.zhihu.com/p/62946533,
ZHPMATRIX/BERTEM, ACL2019 论文实现《 Combinación de los espacios en blanco: similitud distributiva para el aprendizaje de relaciones》,
Ianycxu/rgcn-with-bert, redes convolucionales de gráficos con relieve (RGCN) con Bert para la tarea de resolución de coreferencia
IsabelleBouchard/bert_for_gap-coreference, Bert Finetuning para la resolución del pronombre imparcial
Gaoq1/rasa_nlu_gq, convierta el lenguaje natural en datos estructurados (支持中文 , 自定义了 n 种模型 , 支持不同的场景和任务),
Gaoq1/Rasa_chatbot_cn, 基于 Rasa-nlu 和 Rasa-Core 搭建的对话系统 Demo,
Gaoq1/Rasa-Bert-Finetune, 支持 Rasa-nlu 的 Bert Finetune,
Geodge831012/bert_robot, 用于智能助手回答问题的训练 , 基于 bert 模型进行训练改造
Yuanxiaosc/Bert-for-secuence-marcado y clasificación de texto, este es el código de plantilla para usar BERT para la secuencia de clasificación y clasificación de texto, para facilitar Bert para más tareas. Actualmente, el código de plantilla ha incluido la identificación de entidad con nombres de Conll-2003, el llenado de ranuras de recortes y la predicción de la intención.
Guillaume-Chevalier/Reubert, un chatbot de preguntas sobre preguntas, simplemente.
Hanxiao/Bert-as-Service, mapeando una oración de longitud variable a un vector de longitud fija utilizando el modelo Bert pretrés,
Yc-wind/incrusting_study, 中文预训练模型生成字向量学习 , 测试 bert , elmo 的中文效果,
Kyubyong/Bert-Token-Embeddings, berts de token previamente pretrados
Xu-Song/bert_as_language_model, Bert como modelo de idioma, bifurca desde https://github.com/google-research/bert,
Yuanxiaosc/Deep_Dynamic_Word_Representation, código TensorFlow y modelos previamente capacitados para la representación de palabras dinámicas profundas (DDWR). Combina el modelo Bert y la representación de palabras de contexto profundo de Elmo.
Imgarylai/Bert-Embedding, incrustaciones de nivel de token del modelo BERT en MXNET y Gluonnlp http://bert-embedding.readthedocs.io/,
Terrifyzhao/Bert-Utils, Bert 生成句向量 生成句向量 做文本分类、文本相似度计算 做文本分类、文本相似度计算
Fennudetudou/bert_implement, 使用 bert 模型进行文本分类 , 相似句子判断 以及词性标注 以及词性标注 以及词性标注
whqwill/seq2seq-keyphrase-bert, agregue bert a la parte del codificador para https://github.com/memray/seq2seq-keyphrase-pytorch,
Charles9n/Bert-Sklearn, un envoltorio de Sklearn para el modelo Bert de Google,
NVIDIA/MEGATRON-LM, Modelos de lenguaje de transformador de capacitación de investigación continua a escala, incluyendo: Bert,
Hankcs/bert-token-nivel incrustado, generar el nivel de token de Bert incrustando sin dolor
FacebookResearch/Lama, Lama: Análisis de modelos de idiomas, Lama es un conjunto de conectores a modelos de idiomas previamente capacitados.
Pengming617/bert_textmatching, 利用预训练的中文模型实现基于 bert 的语义匹配模型 数据集为 lcqmc 官方数据
Brokenwind/Bertsimilarity, calculando la similitud de dos oraciones con el algoritmo Bert de Google
Policema/China_Bert_Similarity, Bert Similitud china
LonePatient/Bert-Sentence-Similarity-Pytorch, este repositorio contiene una implementación de Pytorch de un modelo BERT previsto para la tarea de similitud de oraciones.
Nouhadziri/diálogo, la implementación del documento "Evaluación de la coherencia en los sistemas de diálogo utilizando la implicación" https://arxiv.org/abs/1904.03371
UKPLAB / TRANSFORMADORES DE ARRIENTES, INCURSOS DE ARENDIDOS CON BERT & XLNET, transformadores de oraciones: incrustaciones de oraciones usando Bert / Roberta / XLNet con Pytorch,
Graykode/NLP-Tutorial, Tutorial de procesamiento de lenguaje natural para investigadores de aprendizaje profundo https://www.reddit.com/r/machinelearn…,
dragen1860/tensorflow-2.x-tutorials, tensorflow 2.x Los tutoriales y ejemplos de la versión, incluidos CNN, RNN, GaN, Auto-Enners, FasterRcnn, GPT, Bert Ejemplos, etc. TF 2.0 版入门实例代码 实战教程。, 实战教程。,