学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,后者成为超参数。比如,支持向量机里面的C, Kernal, game;朴素贝叶斯里面的alpha等。
网格搜索
网格搜索通过查找搜索范围内的所有的点来确定最优值,如果采用较大的搜索范围和较小的步长,网格搜索有很大的概率找到全局最优值。但是随着超参数的增加这种搜索方法十分消耗计算资源和时间,因此网格搜索一般会先使用较广的搜索范围和较大的步长,来寻找全局最优值可能的位置;然后再逐渐缩小搜索范围和步长,来寻找更精确的最优值。这种操作方案可以降低所需的时间和计算量,但是由于目标函数一般是非凸的,所以很可能会错过全局最优值。
随机搜索
随机搜索的思想与网格搜索比较相似,只是不再测试上界和下界之间的所有值,而是在搜索范围中随机选取样本点,如果样本点集足够大,那么通过随机采样也能大概率的找到全局最优值,或与其近似,随机搜索一般要比网格搜索要快一些,但是和网格搜索的快速版一样,它的结果也是每办法保证的。
贝叶斯优化算法
贝叶斯优化算法在寻找最优值参数时,采用了与网格搜索、随机搜索完全不同的方法。网格搜索和随机搜索在测试一个新点时,会忽略前一个点的信息,而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优化算法通过对目标函数形状进行学习,找到使目标函数向全局最优值提升的参数。
贝叶斯优化算法首先根据先验分布,假设一个搜集函数;然后,每一次使用新的采样点来测试目标函数时,利用这个信息来更新目标函数的先验分布;最后,算法测试由后验分布给出的全局最值最可能出现的位置的点。
对于贝叶斯优化算法,一旦找到了一个局部最优值,他会在该区域不断采样,所以很容易陷入局部最优值,为了弥补这个缺点,贝叶斯优化算法会在探索和利用之间找到一个平衡点,“探索”指的是在还未取样的区域获取采样点,而“利用”则是根据后验分布在最可能出现全局最值的区域进行采样。