Промышленная языковая модель для бизнеса. Модель доступна на Huggingface: https://huggingface.co/pborchert/businessbert
from transformers import AutoModel
model = AutoModel . from_pretrained ( "pborchert/BusinessBERT" )Мы представляем Businessbert, новую отраслевую языковую модель для бизнес-приложений. Ключевой новистью нашей модели заключается в включении информации о отрасли для улучшения принятия решений в задачах обработки естественного языка, связанных с бизнесом (NLP). Businessbert расширяет двунаправленные представления энкодера от архитектуры Transformers (BERT) за счет встраивания информации о отрасли во время предварительной подготовки за счет двух инновационных подходов, которые позволяют Businessbert снимать терминологию, специфичную для отрасли: (1) Businessbert обучается на бизнес-коммуникации Corpora, общая сумма 2,23 млрд. Тукенов, состоящих из контента на веб-сайте компании, MD и A-заявления и научных пап в бизнес-доме в бизнес-доме в бизнес-доме; (2) Мы используем отраслевую классификацию в качестве дополнительной предварительной цели. Наши результаты показывают, что Businessbert улучшает принятие решений, управляемые данными, обеспечивая превосходную производительность для связанных с бизнесом задач NLP. Наши эксперименты охватывают 7 базовых наборов данных, которые включают в себя классификацию текста, распознавание объектов, анализ настроений и задачи, отвечающие вопросам. Кроме того, эта статья уменьшает сложность использования бизнесберта для других приложений НЛП, делая его свободно доступным в качестве предварительному языковой модели для бизнес -сообщества.
История состоит из задач NLP, связанных с бизнесом, структурированными в следующих категориях:
Текстовая классификация
Названное признание сущности
Анализ настроений
data/fiqa/build_fiqa.py чтобы объединить детали данных и создать data/fiqa/train.json . Ссылка или прямая загрузкаОтвет на вопрос
Запустите makfolder.sh , чтобы создать структуру папок ниже.
BusinessBERT
├───data
│ ├───finphrase # obsolete, load data directly from https://huggingface.co/datasets
│ ├───fiqa
│ │ task1_headline_ABSA_train.json
│ │ task1_post_ABSA_train.json
│ │ build_fiqa.py
│ │ train.json
│ │
│ ├───news # obsolete, load data directly from https://huggingface.co/datasets
│ ├───risk
│ │ groundTruth.dat
│ │
│ ├───secfilings
│ │ test.txt
│ │ train.txt
│ │ valid.txt
│ │
│ └───stocktweets
│ tweets_clean.csv
│
└───tasks
finphrase.py
fiqa.py
news.py
risk.py
secfilings.py
stocktweets.py
__init__.py Результаты Business NLP Benchmark могут быть воспроизведены с помощью сценария run_benchmark.sh . Обратите внимание, что набор данных FINQA и соответствующий код доступны здесь: https://github.com/czyssrs/finqa
for task in " risk " " news " " secfilings " " fiqa " " finphrase " " stocktweets "
do
for model in " pborchert/BusinessBERT " " bert-base-uncased " " ProsusAI/finbert " " yiyanghkust/finbert-pretrain "
do
for seed in 42
do
python businessbench.py
--task_name $task
--model_name $model
--seed $seed
done
done
doneРазмер партии и параметры накопления градиента выбираются для запуска эксперимента на графическом процессоре NVIDIA RTX4000 (8 ГБ).
Эта работа лицензирована по международной лицензии Creative Commons Attribution 4.0.