
실험 결과를 자동으로 저장하고 배우고 모든 테스트를 기억하는 장기적이고 지속적인 최적화로 이어집니다.
HyperparameterHunter는 모든 중요한 데이터를 저장하는 기계 학습 알고리즘 용 래퍼를 제공합니다. 과도한 파라미터 헌터가 이미 수행 한 동일한 라이브러리를 사용하면서 테스트에서 녹음, 구성 및 학습의 노력을 기울여 실험 및 하이퍼 파라미터 튜닝 프로세스를 단순화하십시오. 실험을 낭비하지 말고 하이퍼 파라미터 최적화를 시작한 방식으로 시작하십시오.
pip install hyperparameter-hunter초 파라미터 최적화를 수행 할 때만 이발하는 다른 최적화 라이브러리로 간 파라미터 구체를 생각하지 마십시오. 물론, 최적화는하지만 하이퍼 파라미터 헌터를 자신의 개인 기계 학습 도구 상자/어시스턴트로 보는 것이 좋습니다.
아이디어는 즉시 하이퍼 파라미터 구두를 사용하는 것입니다. 모든 벤치 마크/일회성 실험을 통해 실행하십시오.
하이퍼 파라미터 구두를 많이 사용할수록 결과가 더 좋아집니다. 최적화를 위해 그것을 사용한다면, 그것은 당신이 원하는 것을 수행 할 것이지만, 그것은 하이퍼 파라미터 구두의 지점이 없습니다.
프로젝트의 전체 과정을 따라 실험 및 최적화를 위해 그것을 사용하고 있다면, 초 파라미터 최적화를하기로 결정할 때, Hyperparameterhunter는 이미 한 모든 일을 알고 있습니다. 다른 라이브러리와 마찬가지로 처음부터 최적화를 시작하지 않습니다. 그것은 당신이 이미 진행하는 모든 실험과 이전 최적화 라운드에서 시작합니다.
실험 및 최적화 결과를 구성하는 환경을 설정하십시오.
우리가 수행하는 모든 실험 또는 최적화 라운드는 활성 환경을 사용합니다.
from hyperparameter_hunter import Environment , CVExperiment
import pandas as pd
from sklearn . datasets import load_breast_cancer
from sklearn . model_selection import StratifiedKFold
data = load_breast_cancer ()
df = pd . DataFrame ( data = data . data , columns = data . feature_names )
df [ 'target' ] = data . target
env = Environment (
train_dataset = df , # Add holdout/test dataframes, too
results_path = 'path/to/results/directory' , # Where your result files will go
metrics = [ 'roc_auc_score' ], # Callables, or strings referring to `sklearn.metrics`
cv_type = StratifiedKFold , # Class, or string in `sklearn.model_selection`
cv_params = dict ( n_splits = 5 , shuffle = True , random_state = 32 )
)모델 초기화기 및 하이퍼 파라미터를 제공하여 좋아하는 라이브러리로 실험을 수행하십시오.
# Same format used by `keras.wrappers.scikit_learn`. Nothing new to learn
def build_fn ( input_shape ): # `input_shape` calculated for you
model = Sequential ([
Dense ( 100 , kernel_initializer = 'uniform' , input_shape = input_shape , activation = 'relu' ),
Dropout ( 0.5 ),
Dense ( 1 , kernel_initializer = 'uniform' , activation = 'sigmoid' )
]) # All layer arguments saved (whether explicit or Keras default) for future use
model . compile ( optimizer = 'adam' , loss = 'binary_crossentropy' , metrics = [ 'accuracy' ])
return model
experiment = CVExperiment (
model_initializer = KerasClassifier ,
model_init_params = build_fn , # We interpret your build_fn to save hyperparameters in a useful, readable format
model_extra_params = dict (
callbacks = [ ReduceLROnPlateau ( patience = 5 )], # Use Keras callbacks
batch_size = 32 , epochs = 10 , verbose = 0 # Fit/predict arguments
)
) experiment = CVExperiment (
model_initializer = LinearSVC , # (Or any of the dozens of other SK-Learn algorithms)
model_init_params = dict ( penalty = 'l1' , C = 0.9 ) # Default values used and recorded for kwargs not given
) experiment = CVExperiment (
model_initializer = XGBClassifier ,
model_init_params = dict ( objective = 'reg:linear' , max_depth = 3 , n_estimators = 100 , subsample = 0.5 )
) experiment = CVExperiment (
model_initializer = LGBMClassifier ,
model_init_params = dict ( boosting_type = 'gbdt' , num_leaves = 31 , max_depth = - 1 , min_child_samples = 5 , subsample = 0.5 )
) experiment = CVExperiment (
model_initializer = CatboostClassifier ,
model_init_params = dict ( iterations = 500 , learning_rate = 0.01 , depth = 7 , allow_writing_files = False ),
model_extra_params = dict ( fit = dict ( verbose = True )) # Send kwargs to `fit` and other extra methods
) experiment = CVExperiment (
model_initializer = RGFClassifier ,
model_init_params = dict ( max_leaf = 1000 , algorithm = 'RGF' , min_samples_leaf = 10 )
)실험과 마찬가지로, 하이퍼 파라미터를 최적화하려면 아래에서 수입 한 클래스를 사용하십시오.
from hyperparameter_hunter import Real , Integer , Categorical
from hyperparameter_hunter import optimization as opt def build_fn ( input_shape ):
model = Sequential ([
Dense ( Integer ( 50 , 150 ), input_shape = input_shape , activation = 'relu' ),
Dropout ( Real ( 0.2 , 0.7 )),
Dense ( 1 , activation = Categorical ([ 'sigmoid' , 'softmax' ]))
])
model . compile (
optimizer = Categorical ([ 'adam' , 'rmsprop' , 'sgd' , 'adadelta' ]),
loss = 'binary_crossentropy' , metrics = [ 'accuracy' ]
)
return model
optimizer = opt . RandomForestOptPro ( iterations = 7 )
optimizer . forge_experiment (
model_initializer = KerasClassifier ,
model_init_params = build_fn ,
model_extra_params = dict (
callbacks = [ ReduceLROnPlateau ( patience = Integer ( 5 , 10 ))],
batch_size = Categorical ([ 32 , 64 ]),
epochs = 10 , verbose = 0
)
)
optimizer . go () optimizer = opt . DummyOptPro ( iterations = 42 )
optimizer . forge_experiment (
model_initializer = AdaBoostClassifier , # (Or any of the dozens of other SKLearn algorithms)
model_init_params = dict (
n_estimators = Integer ( 75 , 150 ),
learning_rate = Real ( 0.8 , 1.3 ),
algorithm = 'SAMME.R'
)
)
optimizer . go () optimizer = opt . BayesianOptPro ( iterations = 10 )
optimizer . forge_experiment (
model_initializer = XGBClassifier ,
model_init_params = dict (
max_depth = Integer ( low = 2 , high = 20 ),
learning_rate = Real ( 0.0001 , 0.5 ),
n_estimators = 200 ,
subsample = 0.5 ,
booster = Categorical ([ 'gbtree' , 'gblinear' , 'dart' ]),
)
)
optimizer . go () optimizer = opt . BayesianOptPro ( iterations = 100 )
optimizer . forge_experiment (
model_initializer = LGBMClassifier ,
model_init_params = dict (
boosting_type = Categorical ([ 'gbdt' , 'dart' ]),
num_leaves = Integer ( 5 , 20 ),
max_depth = - 1 ,
min_child_samples = 5 ,
subsample = 0.5
)
)
optimizer . go () optimizer = opt . GradientBoostedRegressionTreeOptPro ( iterations = 32 )
optimizer . forge_experiment (
model_initializer = CatBoostClassifier ,
model_init_params = dict (
iterations = 100 ,
eval_metric = Categorical ([ 'Logloss' , 'Accuracy' , 'AUC' ]),
learning_rate = Real ( low = 0.0001 , high = 0.5 ),
depth = Integer ( 4 , 7 ),
allow_writing_files = False
)
)
optimizer . go () optimizer = opt . ExtraTreesOptPro ( iterations = 10 )
optimizer . forge_experiment (
model_initializer = RGFClassifier ,
model_init_params = dict (
max_leaf = 1000 ,
algorithm = Categorical ([ 'RGF' , 'RGF_Opt' , 'RGF_Sib' ]),
l2 = Real ( 0.01 , 0.3 ),
normalize = Categorical ([ True , False ]),
learning_rate = Real ( 0.3 , 0.7 ),
loss = Categorical ([ 'LS' , 'Expo' , 'Log' , 'Abs' ])
)
)
optimizer . go () 이것은 Experiment 생성 될 것으로 기대할 수있는 파일 구조의 간단한 그림입니다. 디렉토리 구조 및 다양한 파일의 내용에 대한 심층적 인 설명은 문서의 파일 구조 개요 섹션을 참조하십시오. 그러나 필수 요소는 다음과 같습니다.
Experiment 각 하이퍼 파라미터 헌터 세트/실험 experiment_id 디렉토리에 파일을 추가합니다.Experiment 또한 HyperparameterHunterAssets/leaderboards/globalleaderboard.csv 에 항목을 추가합니다Environment 의 file_blacklist 및 do_full_save kwargs를 통해 생성되는 파일을 사용자 정의하십시오 (여기에 문서화) HyperparameterHunterAssets
| Heartbeat.log
|
└───Experiments
| |
| └───Descriptions
| | | <Files describing Experiment results, conditions, etc.>.json
| |
| └───Predictions<OOF/Holdout/Test>
| | | <Files containing Experiment predictions for the indicated dataset>.csv
| |
| └───Heartbeats
| | | <Files containing the log produced by the Experiment>.log
| |
| └───ScriptBackups
| | <Files containing a copy of the script that created the Experiment>.py
|
└───Leaderboards
| | GlobalLeaderboard.csv
| | <Other leaderboards>.csv
|
└───TestedKeys
| | <Files named by Environment key, containing hyperparameter keys>.json
|
└───KeyAttributeLookup
| <Files linking complex objects used in Experiments to their hashes>
pip install hyperparameter-hunter
최첨단에있는 것을 좋아하고 모든 최신 개발을 원한다면 실행하십시오.
pip install git+https://github.com/HunterMcGushion/hyperparameter_hunter.git
초 파라미터 구두에 기여하고 싶다면 여기에서 시작하십시오.
괜찮아요. 기분이 나쁘지 않습니다. 머리를 감싸는 것은 조금 이상합니다. 다음은 모든 것이 어떻게 관련되어 있는지를 보여주는 예입니다.
from hyperparameter_hunter import Environment , CVExperiment , BayesianOptPro , Integer
from hyperparameter_hunter . utils . learning_utils import get_breast_cancer_data
from xgboost import XGBClassifier
# Start by creating an `Environment` - This is where you define how Experiments (and optimization) will be conducted
env = Environment (
train_dataset = get_breast_cancer_data ( target = 'target' ),
results_path = 'HyperparameterHunterAssets' ,
metrics = [ 'roc_auc_score' ],
cv_type = 'StratifiedKFold' ,
cv_params = dict ( n_splits = 10 , shuffle = True , random_state = 32 ),
)
# Now, conduct an `Experiment`
# This tells HyperparameterHunter to use the settings in the active `Environment` to train a model with these hyperparameters
experiment = CVExperiment (
model_initializer = XGBClassifier ,
model_init_params = dict (
objective = 'reg:linear' ,
max_depth = 3
)
)
# That's it. No annoying boilerplate code to fit models and record results
# Now, the `Environment`'s `results_path` directory will contain new files describing the Experiment just conducted
# Time for the fun part. We'll set up some hyperparameter optimization by first defining the `OptPro` (Optimization Protocol) we want
optimizer = BayesianOptPro ( verbose = 1 )
# Now we're going to say which hyperparameters we want to optimize.
# Notice how this looks just like our `experiment` above
optimizer . forge_experiment (
model_initializer = XGBClassifier ,
model_init_params = dict (
objective = 'reg:linear' , # We're setting this as a constant guideline - Not one to optimize
max_depth = Integer ( 2 , 10 ) # Instead of using an int like the `experiment` above, we provide a space to search
)
)
# Notice that our range for `max_depth` includes the `max_depth=3` value we used in our `experiment` earlier
optimizer . go () # Now, we go
assert experiment . experiment_id in [ _ [ 2 ] for _ in optimizer . similar_experiments ]
# Here we're verifying that the `experiment` we conducted first was found by `optimizer` and used as learning material
# You can also see via the console that we found `experiment`'s saved files, and used it to start optimization
last_experiment_id = optimizer . current_experiment . experiment_id
# Let's save the id of the experiment that was just conducted by `optimizer`
optimizer . go () # Now, we'll start up `optimizer` again...
# And we can see that this second optimization round learned from both our first `experiment` and our first optimization round
assert experiment . experiment_id in [ _ [ 2 ] for _ in optimizer . similar_experiments ]
assert last_experiment_id in [ _ [ 2 ] for _ in optimizer . similar_experiments ]
# It even did all this without us having to tell it what experiments to learn from
# Now think about how much better your hyperparameter optimization will be when it learns from:
# - All your past experiments, and
# - All your past optimization rounds
# And the best part: HyperparameterHunter figures out which experiments are compatible all on its own
# You don't have to worry about telling it that KFold=5 is different from KFold=10,
# Or that max_depth=12 is outside of max_depth=Integer(2, 10) 이것들은 "getcha"일 수있는 것들입니다.
OptPro 에 초기 검색 지점을 제공 할 수 없습니까?OptPro 초기화하기 전에 CVExperiment 수행하십시오.Experiment OptPro 에 의해 정의 된 검색 공간에 적합하다고 가정하면 Optimizer는 Experiment 결과를 찾아서 읽습니다.Experiment 제거하고 싶을 것입니다. 그대로두면 동일한 Experiment 계속해서 실행합니다.Activation 층을 사용하여 전환하고 activation Kwarg와 Dense 층을 제공함으로써 발생할 수 있습니다.Dense(10, activation='sigmoid')Dense(10); Activation('sigmoid')Activation 층을 사용하거나 다른 층에 activation kwargs를 제공하고이를 고수하십시오!model.compile 인수를 최적화 할 수 없습니다 : optimizer 및 optimizer_params 동시에?optimizers 다른 인수를 기대하기 때문에 발생합니다optimizer=Categorical(['adam', 'rmsprop']) 일 때 optimizer_params 의 두 가지 가능한 딘스가 있습니다.optimizer 와 optimizer_params 만 최적화 할 수 있습니다.optimizer_params 값을 제공하지 않는 것입니다. 이렇게하면 각 optimizer 기는 기본 매개 변수를 사용합니다optimizer 저를 가장 잘 선택하고, optimizer=<best optimizer> 를 설정 한 다음, 선택한 optimizer 관련된 인수와 함께 튜닝 optimizer_params 로 이동할 수 있습니다.__init__ 메서드가 다른 곳에서 정의되며 서명에서 None 표시 자 값이 주어지기 때문에 발생할 수 있습니다.None HyperparameterHunter