albert zh for pytorch transformers
albert for pytorch
https://github.com/lonepatient/albert_pytorch/blob/master/readme_zh.md
프로젝트 에서이 저장소에서 albert_zh 먼저 배치하십시오.
from albert_zh import ...
AlbertConfig
AlbertTokenizer
AlbertModel
AlbertForMaskedLM
AlbertForQuestionAnswering
AlbertForSequenceClassification
https://huggingface.co/transformers/v2.3.0/model_doc/albert.html
usage_example.py 참조하십시오또는 P208P2002/Taipei-QA-Bert의 실제 사용 예제를 참조하십시오
이 repo naming은 Python 모듈 명명 컨벤션을 준수하지 않으며 Jupyter 자체는 맞춤형 모듈에 대한 지원이 적습니다. 아래의 솔루션 예제를 참조하십시오. 나중에 PYPI를 추진하는 것을 고려하십시오
# 此段code僅適用於jupyter、colab
!git clone https://github.com/p208p2002/albert-zh-for-pytorch-transformers.git albert
import sys
sys.path.append('.')
from albert.albert_zh import AlbertConfig, AlbertTokenizer, AlbertForSequenceClassification
변압기가 아닌 Albert_ZH가 모델 클래스 및 모델 구성을 도입하는지 확인하십시오.
LonePatient/Albert_pytorch#35
config.json은 "share_type":"all"
print() 대신 log() 사용하고 프로그램 시작 부분에서 한 번 blockPrint() 실행하십시오.
import os , sys
def log ( * logs ):
enablePrint ()
print ( * logs )
blockPrint ()
# Disable
def blockPrint ():
sys . stdout = open ( os . devnull , 'w' )
# Restore
def enablePrint ():
sys . stdout = sys . __stdout__