DCDevaluation est une bibliothèque qui optimise le processus d'évaluation du modèle. Il a été construit sur la base des nécessités de l'équipe de science des données d'une entreprise nommée Decode, basée sur São Paulo - Brésil. Comme dans ses premiers stades, pour l'instant, il ne prend en charge que les modèles de classification.
pip install dcdevaluationfrom dcdevaluation import EvaluatorsPour utiliser la classe "Evaluators", instanciez-la dans un objet Python transmettant une liste de probabilités (sera publié par votre modèle) et la vraie valeur de votre base de données (fonctionnalité cible utilisée pour former votre modèle)
train_dataset = Evaluators(predicted_y, true_y)Attributs Scores pour toutes les mesures prises en charge (voir ci-dessus) à votre "ensemble de données" sélectionné "
train_dataset.evaluate ()Cette méthode renvoie:
train_dataset.ks
train_dataset.auc
train_dataset.f1
train_dataset.precision
train_dataset.recall
train_dataset.accuracyCrée un Pandas DataFrame avec toutes les mesures prises en charge
train_dataset.to_table ()Cette méthode renvoie:
# DataFrame with all supported metrics
train_dataset.metric_df
# Transposed DataFrame
train_dataset.t_metric_dfCrée un graphique montrant le bon ou le mauvais taux de votre modèle
A les bacs d'attribut, qui permet à l'utilisateur de modifier le nombre souhaité de fentes (default = 10)
train_dataset.split_rate_graph ()Montre la précision, le rappel et le score F1 pour 20 points de coupe différents.
A également la possibilité de sélectionner une gamme de points de coupe (par défaut: min = 0, max = 20)
train_dataset.find_cut ()Crée comme graphique montrant de la courbe de roc et sa comparaison avec "la pièce".
train_dataset.ROC_auc ()