机器学习超参数优化方法:手动、网格、随机与贝叶斯搜索

本文介绍了机器学习中四种超参数优化方法:手动调参、网格搜索、随机搜索和贝叶斯搜索。

原文标题:机器学习 4 个超参数搜索方法、代码

原文作者:数据派THU

冷月清谈:

在机器学习模型的构建过程中,超参数的选择对模型性能至关重要。文章介绍了四种常用的超参数搜索方法:传统手工调参、网格搜索、随机搜索和贝叶斯搜索。传统手工调参通过手动选择超参数组合,尽管简单但效率低下,难以找到最佳组合。网格搜索通过遍历所有可能的父参数组合,得到更靠谱的结果,但其计算量大,耗时较长。随机搜索则在超参数空间中随机取样,通常比网格搜索更高效,虽然也不保证找到最佳组合。贝叶斯搜索利用之前的试验结果优化下一步的搜索,适合高维搜索空间,样本需求也较高。最后,文章强调在选择调优策略时要在计算时间和最佳组合之间进行权衡。

怜星夜思:

1、超参数在模型中的重要性是怎样体现的?
2、如何选择合适的超参数调优方法呢?
3、传统手动调参难度大,是否有具体技巧可以分享?

原文内容

来源:机器学习杂货店

本文约1800字,建议阅读10分钟

ML工作流中最困难的部分之一是为模型找到最好的超参数。ML模型的性能与超参数直接相关。


介绍

维基百科上说,“Hyperparameter optimization或tuning是为学习算法选择一组最优的hyperparameters的问题”。
ML工作流中最困难的部分之一是为模型找到最好的超参数。ML模型的性能与超参数直接相关。超参数调优的越好,得到的模型就越好。调优超参数可能是非常乏味和困难的,更像是一门艺术而不是科学。

超参数

超参数是在建立模型时用于控制算法行为的参数。这些参数不能从常规训练过程中获得。在对模型进行训练之前,需要对它们进行赋值。

超参数的简单列表

内容


  1. 传统的手工调参

  2. 网格搜索

  3. 随机搜索

  4. 贝叶斯搜索


1. 传统手工搜索

在传统的调参过程中,我们通过训练算法手动检查随机超参数集,并选择符合我们目标的最佳参数集。
我们看看代码:
#importing required libraries
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.model_selection import KFold , cross_val_score
from sklearn.datasets import load_wine

wine = load_wine()
X = wine.data
y = wine.target

#splitting the data into train and test set
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size = 0.3,random_state = 14)

#declaring parameters grid
k_value = list(range(2,11))
algorithm = [‘auto’,‘ball_tree’,‘kd_tree’,‘brute’]
scores =
best_comb =
kfold = KFold(n_splits=5)

#hyperparameter tunning
for algo in algorithm:
for k in k_value:
knn = KNeighborsClassifier(n_neighbors=k,algorithm=algo)
results = cross_val_score(knn,X_train,y_train,cv = kfold)

print(f’Score:{round(results.mean(),4)} with algo = {algo} , K = {k}')
scores.append(results.mean())
best_comb.append((k,algo))

best_param = best_comb[scores.index(max(scores))]
print(f’\nThe Best Score : {max(scores)}')
print(f"[‘algorithm’: {best_param[1]} ,‘n_neighbors’: {best_param[0]}]")

缺点

  1. 没办法确保得到最佳的参数组合。

  2. 这是一个不断试错的过程,所以,非常的耗时。


2.网格搜索

网格搜索是一种基本的超参数调优技术。它类似于手动调优,为网格中指定的所有给定超参数值的每个排列构建模型,评估并选择最佳模型。考虑上面的例子,其中两个超参数k_value =[2,3,4,5,6,7,8,9,10] & algorithm =['auto','ball_tree','kd_tree','brute'],在这个例子中,它总共构建了9*4 = 36不同的模型。
图片
让我们来了解一下sklearn的GridSearchCV是如何工作的:
from sklearn.model_selection import GridSearchCV

knn = KNeighborsClassifier()
grid_param = { ‘n_neighbors’ : list(range(2,11)) ,
‘algorithm’ : [‘auto’,‘ball_tree’,‘kd_tree’,‘brute’] }

grid = GridSearchCV(knn,grid_param,cv = 5)
grid.fit(X_train,y_train)

#best parameter combination
grid.best_params_

#Score achieved with best parameter combination
grid.best_score_

#all combinations of hyperparameters
grid.cv_results_[‘params’]

#average scores of cross-validation
grid.cv_results_[‘mean_test_score’]


缺点:

由于它尝试了超参数的每一个组合,并根据交叉验证得分选择了最佳组合,这使得GridsearchCV非常慢。

3. 随机搜索

使用随机搜索代替网格搜索的动机是,在许多情况下,所有的超参数可能不是同等重要的。随机搜索从超参数空间中随机选择参数组合,参数由n_iter给定的固定迭代次数的情况下选择。实验证明,随机搜索的结果优于网格搜索。
图片
让我们来了解sklearn的RandomizedSearchCV是如何工作的,
from sklearn.model_selection import RandomizedSearchCV

knn = KNeighborsClassifier()

grid_param = { ‘n_neighbors’ : list(range(2,11)) ,
‘algorithm’ : [‘auto’,‘ball_tree’,‘kd_tree’,‘brute’] }

rand_ser = RandomizedSearchCV(knn,grid_param,n_iter=10)
rand_ser.fit(X_train,y_train)

#best parameter combination
rand_ser.best_params_

#score achieved with best parameter combination
rand_ser.best_score_

#all combinations of hyperparameters
rand_ser.cv_results_[‘params’]

#average scores of cross-validation
rand_ser.cv_results_[‘mean_test_score’]


缺点:
随机搜索的问题是它不能保证给出最好的参数组合。

4. 贝叶斯搜索

贝叶斯优化属于一类优化算法,称为基于序列模型的优化(SMBO)算法。这些算法使用先前对损失f的观察结果,以确定下一个(最优)点来抽样f。该算法大致可以概括如下。
  1. 使用先前评估的点X1*:n*,计算损失f的后验期望。

  2. 在新的点X的抽样损失f,从而最大化f的期望的某些方法。该方法指定f域的哪些区域最适于抽样。
重复这些步骤,直到满足某些收敛准则。
图片
让我们用scikit- optimization的BayesSearchCV来理解这:
安装: pip install scikit-optimize
from skopt import BayesSearchCV

import warnings
warnings.filterwarnings(“ignore”)

parameter ranges are specified by one of below

from skopt.space import Real, Categorical, Integer

knn = KNeighborsClassifier()
#defining hyper-parameter grid
grid_param = { ‘n_neighbors’ : list(range(2,11)) ,
‘algorithm’ : [‘auto’,‘ball_tree’,‘kd_tree’,‘brute’] }

#initializing Bayesian Search
Bayes = BayesSearchCV(knn , grid_param , n_iter=30 , random_state=14)
Bayes.fit(X_train,y_train)

#best parameter combination
Bayes.best_params_

#score achieved with best parameter combination
Bayes.best_score_

#all combinations of hyperparameters
Bayes.cv_results_[‘params’]

#average scores of cross-validation
Bayes.cv_results_[‘mean_test_score’]

另一个实现贝叶斯搜索的类似库是bayesian-optimization。

安装: pip install bayesian-optimization
缺点:
要在2维或3维的搜索空间中得到一个好的代理曲面需要十几个样本,增加搜索空间的维数需要更多的样本。

总结

在确定参数的最佳组合的保证和计算时间之间总是存在权衡。如果超参数空间(超参数个数)非常大,则使用随机搜索找到超参数的潜在组合,然后在该局部使用网格搜索(超参数的潜在组合)选择最优特征。
编辑:黄继彦

选择调优方法要根据项目的特点。比如时间有限可以考虑随机搜索,想追求最佳效果就可以选贝叶斯搜索,诉求高效又稳定时网格搜索还是可靠的。

最优的选择往往是结合使用,比如先用随机搜索找大致的合适参数,再用网格搜索细化,效率与效果并存。

超参数直接决定了模型的学习能力和表现,比如学习率、正则化等参数。在模型训练之前定义好合适的超参数可以显著提高模型的性能,尤其是在复杂任务中。

我觉得超参数就像是模型的调音师,没有调好就算乐器好听也会走音呀。不论是什么类型的模型,超参数都需要认真对待。

一个简单的方法是在每次训练后记录下每组参数的效果,慢慢积累数据,避免重复实验。可以先选定几个重要的超参数进行细致调参。

我认为要合理设置每次的参数范围,逐步收窄选项,有时候带着目标进行调试反而更有效。

调参的时候还可以参考一些预训练模型的参数设置,直接针对性的调整,能省很多麻烦,而不是完全主观上随意挑。

这就像选教学方法一样,看学员的水平和需求,灵活调整策略。没必要一味追求某种方法,适应场景是最重要的。

在实际项目中,偏差与方差的平衡常常依赖于超参数的设置,特别是在样本数据不平衡的时候,好的超参数可以缓解过拟合等问题。