Chaque fois que j'analysais les résultats de l'expérience DL, j'ai dû réimplémenter la fonction d'analyse à chaque fois. Donc, j'implémente des fonctions fréquemment utilisées dans ce référentiel. Les nouvelles fonctionnalités continuent d'être implémentées et des exemples simples d'utilisation de fonction peuvent être trouvés dans le répertoire examples .
Vous pouvez installer le package avec la commande pip . Python> = 3 sont pris en charge.
pip install dl-toolkits
Vous pouvez vérifier la version du package à l'aide des commandes suivantes.
import toolkits
print ( toolkits . __version__ )viz.tsne : intrigue t-snecluster.sse : somme d'erreur au carré (SSE) 1cluster.batch_sse : somme d'erreur carrée (SSE) pour l'entrée par lotscluster.nsse : SSE normalisé par la distance carrée du centroïde interférant le plus proche (NSSE) 1cluster.batch_nsse : SSE normalisé par la distance carrée du centroïde interférant le plus proche (NSSE) pour l'entrée par lotscluster.nearc : top n centroïde interférant le plus prochecluster.rfc : la qualité du clustering d'espace de fonction (R_FC) 2linalg.get_singular_values : obtenez des valeurs singulières par classelinalg.get_sum_of_singular_values : obtenez une somme de valeurs singulières par classelinalg.get_average_sum_of_singular_values : Obtenez la moyenne de la somme des valeurs singulières par classe 3pprint.pred_summary : Impression simple pour les prédictions et les véritables étiquettesparse.between_lines : extraire le journal entre les deux phrases d'entréeparse.between_lines_on_file : extraire le journal entre les deux phrases d'entrée sur le fichier cibleparse.between_lines_on_dir : extraire le journal entre les deux phrases d'entrée sur le répertoire cibletorch_helper.freeze_selected_param : congeler les poids avec le nom sélectionnétorch_helper.get_important_param_idx : obtenir des indices de paramètres importants 4 Pedregosa, Fabian, et al. "Scikit-learn: apprentissage automatique en python." The Journal of Machine Learning Research 12 (2011): 2825-2830.
Yoon, chanté Whan, et al. "Xtarnet: apprendre à extraire la représentation adaptative à la tâche pour l'apprentissage incrémentiel à quelques tirs." Conférence internationale sur l'apprentissage automatique . PMLR, 2020. ↩ ↩ 2
Goldblum, Micah, et al. "Déstaurer la méta-apprentissage: comprendre les représentations des fonctionnalités pour les tâches à quelques coups." Conférence internationale sur l'apprentissage automatique . PMLR, 2020. ↩
Verma, Vikas et al. "Mifold Mixup: meilleures représentations en interpolant les états cachés." Conférence internationale sur l'apprentissage automatique . PMLR, 2019. ↩
Mazumder, Pratik, Pravendra Singh et Piyush Rai. "Un apprentissage à vie à quelques coups." Actes de la conférence AAAI sur l'intelligence artificielle . Vol. 35. N ° 3. 2021. ↩