https://github.com/lonepatient/albert_pytorch/blob/master/readme_zh.md
Primer lugar, albert_zh en este repositorio en su proyecto
from albert_zh import ...
AlbertConfig
AlbertTokenizer
AlbertModel
AlbertForMaskedLM
AlbertForQuestionAnswering
AlbertForSequenceClassification
https://huggingface.co/transformers/v2.3.0/model_doc/albert.html
usage_example.pyO consulte el ejemplo de uso real de P208P2002/Taipei-Qa-Bert
Este nombramiento de reposio no cumple con la convención de nombres de módulos de Python, y Jupyter en sí no tiene un buen soporte para módulos personalizados. Consulte el ejemplo de la solución a continuación. Considere empujar a Pypi más tarde
# 此段code僅適用於jupyter、colab
!git clone https://github.com/p208p2002/albert-zh-for-pytorch-transformers.git albert
import sys
sys.path.append('.')
from albert.albert_zh import AlbertConfig, AlbertTokenizer, AlbertForSequenceClassification
Asegúrese de que Albert_ZH introduzca la clase de modelo y la configuración del modelo, no de Transformers
solitario/albert_pytorch#35
config.json agrega "share_type":"all"
Utilice log() en lugar de print() y ejecute blockPrint() una vez al comienzo del programa
import os , sys
def log ( * logs ):
enablePrint ()
print ( * logs )
blockPrint ()
# Disable
def blockPrint ():
sys . stdout = open ( os . devnull , 'w' )
# Restore
def enablePrint ():
sys . stdout = sys . __stdout__