albert zh for pytorch transformers
albert for pytorch
https://github.com/lonepatient/albert_pytorch/blob/master/readme_zh.md
あなたのプロジェクトの下にあるこのレポのalbert_zh 1位にしてください
from albert_zh import ...
AlbertConfig
AlbertTokenizer
AlbertModel
AlbertForMaskedLM
AlbertForQuestionAnswering
AlbertForSequenceClassification
https://huggingface.co/transformers/v2.3.0/model_doc/albert.html
usage_example.pyを参照してくださいまたは、P208P2002/TAIPEI-QA-BERTの実際の使用例を参照してください
このレポの命名は、Pythonモジュールネーミング条約に準拠しておらず、Jupyter自体はカスタマイズされたモジュールを適切にサポートしていません。以下の解決策の例を参照してください。後でピピを押すことを検討してください
# 此段code僅適用於jupyter、colab
!git clone https://github.com/p208p2002/albert-zh-for-pytorch-transformers.git albert
import sys
sys.path.append('.')
from albert.albert_zh import AlbertConfig, AlbertTokenizer, AlbertForSequenceClassification
モデルクラスとモデルの構成が、変圧器ではなくalbert_zhによって導入されることを確認してください
lonepatient/albert_pytorch#35
config.jsonは"share_type":"all"
print()の代わりにlog()を使用し、プログラムの開始時にblockPrint()を1回実行してください
import os , sys
def log ( * logs ):
enablePrint ()
print ( * logs )
blockPrint ()
# Disable
def blockPrint ():
sys . stdout = open ( os . devnull , 'w' )
# Restore
def enablePrint ():
sys . stdout = sys . __stdout__