热线电话:13121318867

登录
2018-11-23 阅读量: 786
基于错误提升分类器的性能

能否使用弱分类器和多个实例来构建一个强分类器?这是一个非常有趣的理论问题。这里的

“弱”意味着分类器的性能比随机猜测要略好,但是也不会好太多。这就是说,在二分类情况下

弱分类器的错误率会高于50%,而“强”分类器的错误率将会低很多。 AdaBoost算法即脱胎于上

述理论问题。

AdaBoost是adaptive boosting(自适应boosting)的缩写,其运行过程如下:训练数据中的每

个样本,并赋予其一个权重,这些权重构成了向量D。一开始,这些权重都初始化成相等值。首

先在训练数据上训练出一个弱分类器并计算该分类器的错误率,然后在同一数据集上再次训练弱

分类器。在分类器的第二次训练当中,将会重新调整每个样本的权重,其中第一次分对的样本的

权重将会降低,而第一次分错的样本的权重将会提高。为了从所有弱分类器中得到最终的分类结

果, AdaBoost为每个分类器都分配了一个权重值alpha,这些alpha值是基于每个弱分类器的错误

率进行计算的。其中,错误率ε的定义为:

0.0000
5
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子