2020-02-25
阅读量:
899
Adaboost为什么会用到梯度下降
adaboost算法的思路如下:
(1)样本权重表示样本分布,对特定的样本分布生成一个弱学习器。
(2)根据该弱学习器模型的误差率e更新学习器权重α。
(3)根据上一轮的学习器权重α来更新下一轮的样本权重。
(4)重复步骤(1)(2)(3),结合所有弱学习器模型,根据结合策略生成强学习器。
该过程是通过迭代生成了一系列的学习器,我们给予误差率低的学习器一个高的权重,给予误差率高的学习器一个低的权重,结合弱学习器和对应的权重,生成强学习器。所以AdaBoost的训练误差是以指数速率下降的同梯度下降一样,即AdaBoost算法随着迭代次数的增加,训练误差不断减小,即模型偏差显著降低 。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论