https://github.com/lonepatient/albert_pytorch/blob/master/readme_zh.md
Placez d'abord albert_zh dans ce dépôt sous votre projet
from albert_zh import ...
AlbertConfig
AlbertTokenizer
AlbertModel
AlbertForMaskedLM
AlbertForQuestionAnswering
AlbertForSequenceClassification
https://huggingface.co/transformateurs/v2.3.0/model_doc/albert.html
usage_example.pyOu reportez-vous à l'exemple d'utilisation réel de P208P2002 / Taipei-QA-BERT
Cette dénomination des référentiels ne respecte pas la convention de dénomination du module Python, et Jupyter lui-même n'a pas une bonne prise en charge des modules personnalisés. Veuillez vous référer à l'exemple de la solution ci-dessous. Envisagez de pousser PYPI plus tard
# 此段code僅適用於jupyter、colab
!git clone https://github.com/p208p2002/albert-zh-for-pytorch-transformers.git albert
import sys
sys.path.append('.')
from albert.albert_zh import AlbertConfig, AlbertTokenizer, AlbertForSequenceClassification
Assurez-vous que la classe et la configuration du modèle sont introduits par Albert_Zh, pas les transformateurs
LonePatient / Albert_Pytorch # 35
config.json ajoute "share_type":"all"
Veuillez utiliser log() au lieu de print() et exécuter blockPrint() une fois au début du programme
import os , sys
def log ( * logs ):
enablePrint ()
print ( * logs )
blockPrint ()
# Disable
def blockPrint ():
sys . stdout = open ( os . devnull , 'w' )
# Restore
def enablePrint ():
sys . stdout = sys . __stdout__