热线电话:13121318867

登录
2020-02-25 阅读量: 899
Adaboost为什么会用到梯度下降

adaboost算法的思路如下:

(1)样本权重表示样本分布,对特定的样本分布生成一个弱学习器。
(2)根据该弱学习器模型的误差率e更新学习器权重α。
(3)根据上一轮的学习器权重α来更新下一轮的样本权重。
(4)重复步骤(1)(2)(3),结合所有弱学习器模型,根据结合策略生成强学习器。

该过程是通过迭代生成了一系列的学习器,我们给予误差率低的学习器一个高的权重,给予误差率高的学习器一个低的权重,结合弱学习器和对应的权重,生成强学习器。所以AdaBoost的训练误差是以指数速率下降的同梯度下降一样,即AdaBoost算法随着迭代次数的增加,训练误差不断减小,即模型偏差显著降低 。

3.5770
3
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子