热线电话:13121318867

登录
2019-01-25 阅读量: 842
Boosting与Bagging的区别?

Boosting与Bagging的有什么区别?

1、样本选择上:

Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化,而权值是根据上一轮的分类结果进行调整

Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的

2、样例权重:

Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大,因此Boosting的分类精度要优于Bagging

Bagging:使用均匀取样,每个样例的权重相等

3、预测函数:

Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重

Bagging:所有预测函数的权重相等

4、并行计算:

Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果

Bagging:各个预测函数可以并行生成,对于神经网络这样极为耗时的学习方法,Bagging可通过并行训练节省大量时间开销

这两种方法都是把若干个分类器整合为一个分类器的方法,只是整合的方式不一样,最终得到不一样的效果,将不同的分类算法套入到此类算法框架中一定程度上会提高了原单一分类器的分类效果,但是也增大了计算量。

0.0000
2
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子