
Lifeweb 언어 모델 저장소에 오신 것을 환영합니다. 여기서 우리는 다른 페르시아어 모델을 훈련시키고 페르시아 언어의 AI 분야에 우리의 몫을 기여하기 위해 공개적으로 공개하는 것을 목표로합니다. 우리의 모델의 첫 번째 버전은 모두 1 억 6,400 만 개가 넘는 문서 와 10B 이상의 토큰을 갖춘 Divan 이라는 데이터 세트에서 교육을 받고 정규화되고 세분화되어 세분적으로 강화되고 포괄적 인 성능을 보장합니다. 더 나은 데이터 세트는 더 나은 모델로 이어집니다.
아래 표에 제공된 Huggingface 모델 허브 링크를 사용하여 모델에 쉽게 액세스 할 수 있습니다.
| 모델 이름 | 기본 모델 | 어휘 크기 | |
|---|---|---|---|
| 테헤란 | 로베르타 | 50000 | 결과 |
| 시 라즈 | MobileBert | 50000 | 결과 |
from transformers import AutoTokenizer , AutoModelForMaskedLM , FillMaskPipeline
model_name = "lifeweb-ai/shiraz"
tokenizer = AutoTokenizer . from_pretrained ( model_name )
model = AutoModelForMaskedLM . from_pretrained ( model_name )
text = "در همین لحظه که شما مشغول [MASK] این متن هستید، میلیونها دیتا در فضای آنلاین در حال تولید است. ما در لایف وب به جمعآوری، پردازش و تحلیل این کلان داده (Big Data) میپردازیم."
classifier = FillMaskPipeline ( model = model , tokenizer = tokenizer )
result = classifier ( text )
print ( result [ 0 ])
#{'score': 0.3584367036819458, 'token': 5764, 'token_str': 'خواندن', 'sequence': 'در همین لحظه که شما مشغول خواندن این متن هستید، میلیون ها دیتا در فضای انلاین در حال تولید است. ما در لایف وب به جمع اوری، پردازش و تحلیل این کلان داده ( big data ) می پردازیم.'}Lifeweb 모델은 NER , 감정 분석 및 감정 탐지를 포함하는 3 가지 다운 스트림 NLP 작업에서 평가됩니다. 테헤란은 정확도와 매크로 F1 측면에서 다른 페르시아어 모델보다 우수합니다. 또한 Shiraz 는 상당히 빠르며, 정확도는 속도를 크게 손상시키지 않으면 서 경쟁이 치열합니다. Mobilebert Paper 에 따르면,이 모델은 Bert-Base보다 4.3 × 더 작고 5.5 × 빠릅니다. 우리는 우리의 모델이 현장에서 모든 유사한 모델을 능가하여 새로운 최첨단 성능을 달성한다고 주장합니다. Parsbert , Ariabert 및 Fabert를 참조하여, 우리는 다른 적합한 모델들 사이에서 더 나은 성능을 강조 했음에도 불구하고 우수한 평가 지표를 시연 함으로써이 주장을 입증합니다.
아래 표에서 명백하면 매크로 F1 점수 외에 튜토리얼로 사용할 각 작업에 대한 Colab 코드를 찾을 수 있습니다. 이 Colab 코드는 4x2080 Ti 그래픽 카드에서 동일하게 실행됩니다.
| 모델 | 네르 | 감정 | 감정 | ||
|---|---|---|---|---|---|
| 아르맨 | PEYMA | 추방자 (다중) | Snappfood | 아르맨 | |
| Lifeweb-Ai/Tehran | 71.87% | 90.79% | 63.75% | 88.74% | 77.73% |
| Lifeweb-Ai/Shiraz | 67.62% | 86.24% | 59.17% | 88.01% | 66.97% |
| sbunlp/fabert | 71.23% | 88.53% | 58.51% | 88.60% | 72.65% |
| ViraintelligentDatamining/Ariabert | 69.12% | 87.15% | 59.26% | 87.96% | 69.11% |
| hooshvarelab/bert-fa-zwnj-base | 67.49% | 85.73% | 59.61% | 87.58% | 59.27% |
| Hooshvarelab/Roberta-Fa-Zwnj-Base | 69.73% | 86.21% | 56.23% | 87.19% | 57.96% |
공개 데이터 세트에서 모델을 테스트하고 위의 표에 결과를 추가하려면 풀 요청을 열거나 문의하십시오. 또한 참조를 추가 할 수 있도록 온라인으로 코드를 사용할 수 있도록하십시오.
v1.0 (2024-03-09)
Tehran 과 Shiraz 모델의 첫 번째 버전은 Divan 에 대한 교육을 받았습니다.
이 프로젝트에 기여함으로써 귀하는 귀하의 기부금이 Apache License 2.0 에 따라 라이센스가 부여된다는 데 동의합니다.