shauna570392

2020-09-28   阅读量: 1619

Python

Adaboost和Xgboost原理的区别和联系是什么

扫码加入数据分析学习群

Adaboost
Adaboost是模型为加法模型,损失函数为指数函数,学习算法为向前分布算法的二分类学习算法。其基学习器最常见的是决策树桩,也就是深度为1 的决策树。在每一轮提升相应错分类点的权重可以被理解为调整错分类点的observation probability。

xgboost

在XGBoost中,树可以有不同数量的终端节点,并且计算证据较少的树的左权值收缩得更厉害。Newton Boosting 采用 Newton-Raphson 近似法,比梯度下降法提供了一条直接到达最小值的路径。额外的随机化参数可以用来减少树之间的相关性,分类器之间的相关性越小,我们的分类器集合就会越好。一般来说,XGBoost比 Gradient Boosting 快,但 Gradient Boosting 的范围很广。


添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
27.0521 3 0 关注作者 收藏

评论(0)


暂无数据

推荐课程

推荐帖子