Implementação de Pytorch do Bert 2018 do Google AI, com anotação simples
Bert 2018 Bert: Pré-treinamento de transformadores bidirecionais profundos para entendimento de idiomas URL: https://arxiv.org/abs/1810.04805
O artigo Bert do Google AI mostra o resultado incrível em várias tarefas de PNL (novas tarefas de 17 PNs SOTA), incluindo o desempenho superior da pontuação Human F1 na tarefa de QA do Esquadrão V1.1. Este artigo provou que o codificador baseado em transformador (auto-atimento) pode ser poderosamente usado como alternativa do modelo de idioma anterior com o método de treinamento de modelos de idiomas adequado. E, mais importante, eles nos mostraram que esse modelo de idioma pré-treinado pode ser transferido para qualquer tarefa de PNL sem fazer arquitetura de modelo específica da tarefa.
Esse resultado incrível seria recorde na história da PNL, e espero que muitos artigos sobre Bert sejam publicados em breve.
Este repositório é a implementação de Bert. O código é muito simples e fácil de entender rapidamente. Alguns desses códigos são baseados no transformador anotado
Atualmente, este projeto está trabalhando no progresso. E o código ainda não foi verificado.
pip install bert-pytorch
Aviso: Seu corpus deve ser preparado com duas frases em uma linha com o separador de Tab ( t)
Welcome to the t the junglen
I can stay t here all nightn
ou corpus tokenizado (a tokenização não está no pacote)
Wel_ _come _to _the t _the _junglen
_I _can _stay t _here _all _nightn
bert-vocab -c data/corpus.small -o data/vocab.smallbert -c data/corpus.small -v data/vocab.small -o output/bert.modelNo artigo, os autores mostram os novos métodos de treinamento de modelos de idiomas, que são "Modelo de Idioma Mascarado" e "prevê a próxima frase".
Papel original: 3.3.1 Tarefa nº 1: LM mascarado
Input Sequence : The man went to [MASK] store with [MASK] dog
Target Sequence : the his
Aleatoriamente 15% do token de entrada será alterado para algo, com base em sub-movimentos
[MASK][RANDOM] (outra palavra)Artigo original: 3.3.2 Tarefa 2: Próxima previsão da frase
Input : [CLS] the man went to the store [SEP] he bought a gallon of milk [SEP]
Label : Is Next
Input = [CLS] the man heading to the store [SEP] penguin [MASK] are flight ##less birds [SEP]
Label = NotNext
"Esta frase pode ser conectada continuamente?"
Compreendendo o relacionamento, entre duas frases de texto, que não são capturadas diretamente pela modelagem de idiomas
Junnseong Kim, Scatter Lab ([email protected] / [email protected])
Este projeto seguindo a licença Apache 2.0, conforme escrito no arquivo de licença
Copyright 2018 Junnseong Kim, Scatter Lab, respectivos colaboradores de Bert
Copyright (c) 2018 Alexander Rush: The Anotated Trasnformer