TELE-Kenntnis vor dem Training für die Fehleranalyse
Autor: Zhuo Chen †, Wen Zhang †, Yufeng Huang, Mingyang Chen, Yuxia Geng, Hongtao Yu, Zhen Bi, Yichi Zhang, Zhen Yao, Huajun Chen (College of Informatic Yingying li, Lei Cheng (Naie PDU, Huawei Technologies Co., Ltd.) In diesem Artikel schlagen wir ein vorgebildetes Tele-Domain-Modell mit dem Namen Telebert , um das allgemeine semantische Wissen in den Telekommunikationsfeld zu erlernen, das diese impliziten Informationen in Maschinenlog - Daten und explizitem Wissen in den Bereichen Maschinenlog und explizit in unserem Tele-Pro-Pro-Pro-Pro-Pro-Pro-Pro-Pro-Pro-Pro-Pro-Pro-Pro-Profi-Wissen über maschinell und expliziten Wissen und ausgebildetem Kenntnisgeordneter zu erlernen.
here verfügbar. In Anbetracht der Sensibilität einiger Daten können wir nicht alle veröffentlichen. 






transformers >= 4.21.2PyTorch >= 1.6.0tqdmltp Weitere Details: config.py
--train_strategy
--batch_size
--batch_size_ke
--batch_size_od
--batch_size_ad
--epoch
--save_model {0,1}
--save_pretrain {0,1}
--from_pretrain {0,1}
--dump_path Experiment dump path
--random_seed
--train_ratio ratio for train/test
--final_mlm_probability
--mlm_probability_increase {linear,curve}
--mask_stratege {rand,wwm,domain}
--ernie_stratege
--use_mlm_task {0,1}
--add_special_word {0,1}
--freeze_layer {0,1,2,3,4}
--special_token_mask {0,1}
--emb_init {0,1}
--cls_head_init {0,1}
--use_awl {0,1}
--mask_loss_scale
--ke_norm
--ke_dim
--ke_margin
--neg_num
--adv_temp The temperature of sampling in self-adversarial negative sampling.
--ke_lr
--only_ke_loss
--use_NumEmb
--contrastive_loss {0,1}
--l_layers L_LAYERS
--use_kpi_loss
--only_test {0,1}
--mask_test {0,1}
--embed_gen {0,1}
--ke_test {0,1}
--ke_test_num
--path_gen
--order_load
--order_num
--od_type {linear_cat,vertical_attention}
--eps EPS label smoothing
--num_od_layer
--plm_emb_type {cls,last_avg}
--order_test_name
--order_threshold
--rank RANK rank to dist
--dist DIST whether to dist
--device DEVICE device id (i.e. 0 or 0,1 or cpu)
--world-size WORLD_SIZE number of distributed processes
--dist-url DIST_URL url used to set up distributed training
--local_rank LOCAL_RANK
bash run.sh bash test.sh Notiz :
.sh -Datei für die Standardparameteränderung öffnen. Bitte Condiser unter Berufung auf dieses Papier, wenn Sie den code aus unserer Arbeit verwenden. Vielen Dank :)
@inproceedings{DBLP:conf/icde/00070HCGYBZYSWY23,
author = {Zhuo Chen and
Wen Zhang and
Yufeng Huang and
Mingyang Chen and
Yuxia Geng and
Hongtao Yu and
Zhen Bi and
Yichi Zhang and
Zhen Yao and
Wenting Song and
Xinliang Wu and
Yi Yang and
Mingyi Chen and
Zhaoyang Lian and
Yingying Li and
Lei Cheng and
Huajun Chen},
title = {Tele-Knowledge Pre-training for Fault Analysis},
booktitle = {{ICDE}},
pages = {3453--3466},
publisher = {{IEEE}},
year = {2023}
}