每个算法人员都应该知道的4个超参数调试方法( 二 )


3. 随机搜索使用随机搜索代替网格搜索的动机是 , 在许多情况下 , 所有的超参数可能不是同等重要的 。随机搜索从超参数空间中随机选择参数组合 , 参数由n_iter给定的固定迭代次数的情况下选择 。实验证明 , 随机搜索的结果优于网格搜索 。

每个算法人员都应该知道的4个超参数调试方法

文章插图
 
让我们来了解sklearn的RandomizedSearchCV是如何工作的 , 
from sklearn.model_selection import RandomizedSearchCVknn = KNeighborsClassifier()grid_param = { 'n_neighbors' : list(range(2,11)) ,               'algorithm' : ['auto','ball_tree','kd_tree','brute'] }rand_ser = RandomizedSearchCV(knn,grid_param,n_iter=10)rand_ser.fit(X_train,y_train)#best parameter combinationrand_ser.best_params_#score achieved with best parameter combinationrand_ser.best_score_#all combinations of hyperparametersrand_ser.cv_results_['params']#average scores of cross-validationrand_ser.cv_results_['mean_test_score']缺点:
随机搜索的问题是它不能保证给出最好的参数组合 。
4. 贝叶斯搜索贝叶斯优化属于一类优化算法 , 称为基于序列模型的优化(SMBO)算法 。这些算法使用先前对损失f的观察结果 , 以确定下一个(最优)点来抽样f 。该算法大致可以概括如下 。
  1. 使用先前评估的点X1*:n* , 计算损失f的后验期望 。
  2. 在新的点X的抽样损失f , 从而最大化f的期望的某些方法 。该方法指定f域的哪些区域最适于抽样 。
重复这些步骤 , 直到满足某些收敛准则 。
每个算法人员都应该知道的4个超参数调试方法

文章插图
 
让我们用scikit- optimization的BayesSearchCV来理解这
Installation: pip install scikit-optimize
from skopt import BayesSearchCVimport warningswarnings.filterwarnings("ignore")# parameter ranges are specified by one of belowfrom skopt.space import Real, Categorical, Integerknn = KNeighborsClassifier()#defining hyper-parameter gridgrid_param = { 'n_neighbors' : list(range(2,11)) ,               'algorithm' : ['auto','ball_tree','kd_tree','brute'] }#initializing Bayesian SearchBayes = BayesSearchCV(knn , grid_param , n_iter=30 , random_state=14)Bayes.fit(X_train,y_train)#best parameter combinationBayes.best_params_#score achieved with best parameter combinationBayes.best_score_#all combinations of hyperparametersBayes.cv_results_['params']#average scores of cross-validationBayes.cv_results_['mean_test_score']另一个实现贝叶斯搜索的类似库是bayesian-optimization 。
Installation: pip install bayesian-optimization
缺点:
要在2维或3维的搜索空间中得到一个好的代理曲面需要十几个样本 , 增加搜索空间的维数需要更多的样本 。
总结在确定参数的最佳组合的保证和计算时间之间总是存在权衡 。如果超参数空间(超参数个数)非常大 , 则使用随机搜索找到超参数的潜在组合 , 然后在该局部使用网格搜索(超参数的潜在组合)选择最优特征 。
 
英文原文:https://medium.com/swlh/4-hyper-parameter-tuning-techniques-924cb188d199




推荐阅读