Arabic BERT
1.0.0
阿拉伯語的伯特語言模型
如果您在工作中使用任何這些模型,請引用本文:
@inproceedings{safaya-etal-2020-kuisail,
title = "{KUISAIL} at {S}em{E}val-2020 Task 12: {BERT}-{CNN} for Offensive Speech Identification in Social Media",
author = "Safaya, Ali and
Abdullatif, Moutasem and
Yuret, Deniz",
booktitle = "Proceedings of the Fourteenth Workshop on Semantic Evaluation",
month = dec,
year = "2020",
address = "Barcelona (online)",
publisher = "International Committee for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.semeval-1.271",
pages = "2054--2059",
}
這些模型是在約82億個單詞上估計的:
以及其他總計約95GB文本的阿拉伯資源。
培訓數據註釋:
| 伯特·米尼(Bert-Mini) | 伯特中等 | 伯特基 | Bert-large | |
|---|---|---|---|---|
| 隱藏層 | 4 | 8 | 12 | 24 |
| 注意力頭 | 4 | 8 | 12 | 16 |
| 隱藏尺寸 | 256 | 512 | 768 | 1024 |
| 參數 | 11m | 42m | 110m | 340m |
| 數據集 | 細節 | ML-bert | hulmona | 阿拉伯語 - 伯特基地 |
|---|---|---|---|---|
| Arsenlev | 5堂,黎凡特方言 | 0.510 | 0.511 | 0.552 |
| ASTD | 4堂,MSA和埃及方言 | 0.670 | 0.677 | 0.714 |
注意:其他下游NLP任務的更多結果將很快添加。如果您使用這些型號,我將感謝您的反饋。
您可以通過安裝torch或tensorflow和擁抱面庫transformers使用這些型號。您可以通過這樣的初始化直接使用它:
from transformers import AutoTokenizer , AutoModel
# Mini: asafaya/bert-mini-arabic
# Medium: asafaya/bert-medium-arabic
# Base: asafaya/bert-base-arabic
# Large: asafaya/bert-large-arabic
tokenizer = AutoTokenizer . from_pretrained ( "asafaya/bert-base-arabic" )
model = AutoModel . from_pretrained ( "asafaya/bert-base-arabic" )感謝Google提供了免費的TPU進行培訓過程,並為在其服務器上託管這些模型的擁抱面嗎?