Modelo de linguagem sensível à indústria para negócios. O modelo está disponível no Huggingface: https://huggingface.co/pborchert/businessbert
from transformers import AutoModel
model = AutoModel . from_pretrained ( "pborchert/BusinessBERT" )Apresentamos a Businessbert, um novo modelo de idioma sensível à indústria para aplicativos de negócios. A principal novidade do nosso modelo está na incorporação de informações do setor para aprimorar a tomada de decisões nas tarefas de processamento de linguagem natural (PNL) relacionadas aos negócios. A Businessbert estende as representações bidirecionais do codificador da arquitetura Transformers (BERT) incorporando informações do setor durante o pré-treinamento em duas abordagens inovadoras que permitem que a Businessbert capture a terminologia específica da indústria: (1) Businessbert é treinado em empresas de comunicação comercial e siglina de 2,23 bilhões de tokens que consistem no site da empresa; (2) Empregamos a classificação do setor como um objetivo adicional de pré -treinamento. Nossos resultados sugerem que a Businessbert melhora a tomada de decisões orientada a dados, fornecendo desempenho superior às tarefas de PNL relacionadas aos negócios. Nossos experimentos abrangem 7 conjuntos de dados de referência que incluem classificação de texto, reconhecimento de entidade denominado, análise de sentimentos e tarefas de resposta a perguntas. Além disso, este artigo reduz a complexidade de usar o Businessbert para outros aplicativos de PNL, tornando -o disponível gratuitamente como um modelo de idioma pré -treinado para a comunidade empresarial.
O benchmark consiste em tarefas de PNL relacionadas a negócios estruturadas nas seguintes categorias:
Classificação de texto
Reconhecimento de entidade nomeado
Análise de sentimentos
data/fiqa/build_fiqa.py para combinar as peças de dados e criar data/fiqa/train.json . Link ou download diretoResposta de perguntas
Execute makfolder.sh para criar a estrutura da pasta abaixo.
BusinessBERT
├───data
│ ├───finphrase # obsolete, load data directly from https://huggingface.co/datasets
│ ├───fiqa
│ │ task1_headline_ABSA_train.json
│ │ task1_post_ABSA_train.json
│ │ build_fiqa.py
│ │ train.json
│ │
│ ├───news # obsolete, load data directly from https://huggingface.co/datasets
│ ├───risk
│ │ groundTruth.dat
│ │
│ ├───secfilings
│ │ test.txt
│ │ train.txt
│ │ valid.txt
│ │
│ └───stocktweets
│ tweets_clean.csv
│
└───tasks
finphrase.py
fiqa.py
news.py
risk.py
secfilings.py
stocktweets.py
__init__.py Os resultados de benchmark de NLP de negócios podem ser replicados usando o script run_benchmark.sh . Observe que o conjunto de dados FINQA e o código correspondente estão disponíveis aqui: https://github.com/czyssrs/finqa
for task in " risk " " news " " secfilings " " fiqa " " finphrase " " stocktweets "
do
for model in " pborchert/BusinessBERT " " bert-base-uncased " " ProsusAI/finbert " " yiyanghkust/finbert-pretrain "
do
for seed in 42
do
python businessbench.py
--task_name $task
--model_name $model
--seed $seed
done
done
doneO tamanho do lote e os parâmetros de acumulação de gradiente são selecionados para executar o experimento em uma GPU NVIDIA RTX4000 (8GB).
Este trabalho é licenciado sob uma licença internacional Creative Commons Attribution 4.0.