dcdevaluation
1.0.0
DCDevaluationは、モデル評価プロセスを最適化するライブラリです。サンパウロ - ブラジルに基づいて、デコードという名前の会社のデータサイエンスチームの必需品に基づいて構築されました。それは初期段階であるため、今のところ、分類モデルのみをサポートしています。
pip install dcdevaluationfrom dcdevaluation import Evaluators「評価者」クラスを使用するには、確率のリスト(モデルによって出力されます)とデータベースの真の値(モデルのトレーニングに使用されるターゲット機能)を渡すPythonオブジェクトにインスタンス化する
train_dataset = Evaluators(predicted_y, true_y)属性は、選択した「データセット」のすべてのサポートされているメトリック(上記を参照)のスコア
train_dataset.evaluate ()この方法は返されます:
train_dataset.ks
train_dataset.auc
train_dataset.f1
train_dataset.precision
train_dataset.recall
train_dataset.accuracyサポートされているすべてのメトリックを備えたPandasデータフレームを作成します
train_dataset.to_table ()この方法は返されます:
# DataFrame with all supported metrics
train_dataset.metric_df
# Transposed DataFrame
train_dataset.t_metric_dfモデルの良好または悪いレートを示すグラフを作成します
属性ビンを持っているため、ユーザーは目的の数のスプリットを変更できます(デフォルト= 10)
train_dataset.split_rate_graph ()20の異なる切断点の精度、リコール、F1スコアを示します。
また、一連の切断点を選択するオプションがあります(デフォルト:min = 0、max = 20)
train_dataset.find_cut ()de roc曲線を示すグラフとして作成し、「コイン」との比較です。
train_dataset.ROC_auc ()