DCDevaluation ist eine Bibliothek, die den Modellbewertungsprozess optimiert. Es wurde auf der Grundlage der Notwendigkeiten des Data Science -Teams eines Unternehmens namens Decode gebaut, das auf São Paulo - Brasilien basiert. Wie in den frühen Stadien unterstützt es vorerst nur Klassifizierungsmodelle.
pip install dcdevaluationfrom dcdevaluation import EvaluatorsUm die Klasse "Evaluatoren" zu verwenden, in ein Python -Objekt in ein Python -Objekt über eine Liste von Wahrscheinlichkeiten (wird von Ihrem Modell ausgegeben) und den tatsächlichen Wert Ihrer Datenbank (Zielfunktion zum Training Ihres Modells ausgegeben) eingeleitet.
train_dataset = Evaluators(predicted_y, true_y)Attribute Scores für alle unterstützten Metriken (siehe oben) zu Ihrem Auswahl "Datensatz"
train_dataset.evaluate ()Diese Methode kehrt zurück:
train_dataset.ks
train_dataset.auc
train_dataset.f1
train_dataset.precision
train_dataset.recall
train_dataset.accuracyErstellt einen Pandas -Datenframe mit allen unterstützten Metriken
train_dataset.to_table ()Diese Methode kehrt zurück:
# DataFrame with all supported metrics
train_dataset.metric_df
# Transposed DataFrame
train_dataset.t_metric_dfErstellt eine Grafik, die die gute oder schlechte Rate Ihres Modells zeigt
Hat die Attributbins, die es dem Benutzer ermöglichen, die gewünschte Anzahl von Splits zu ändern (Standard = 10)
train_dataset.split_rate_graph ()Zeigt Präzision, Rückruf und F1 -Score für 20 verschiedene Schneidpunkte an.
Hat auch die Möglichkeit, einen Bereich von Schneidpunkten auszuwählen (Standardeinstellung: min = 0, max = 20)
train_dataset.find_cut ()Erstellt als Graph, die die ROC -Kurve zeigt und es ist Vergleich mit "The Münze".
train_dataset.ROC_auc ()