2018-11-23
阅读量:
786
基于错误提升分类器的性能
能否使用弱分类器和多个实例来构建一个强分类器?这是一个非常有趣的理论问题。这里的
“弱”意味着分类器的性能比随机猜测要略好,但是也不会好太多。这就是说,在二分类情况下
弱分类器的错误率会高于50%,而“强”分类器的错误率将会低很多。 AdaBoost算法即脱胎于上
述理论问题。
AdaBoost是adaptive boosting(自适应boosting)的缩写,其运行过程如下:训练数据中的每
个样本,并赋予其一个权重,这些权重构成了向量D。一开始,这些权重都初始化成相等值。首
先在训练数据上训练出一个弱分类器并计算该分类器的错误率,然后在同一数据集上再次训练弱
分类器。在分类器的第二次训练当中,将会重新调整每个样本的权重,其中第一次分对的样本的
权重将会降低,而第一次分错的样本的权重将会提高。为了从所有弱分类器中得到最终的分类结
果, AdaBoost为每个分类器都分配了一个权重值alpha,这些alpha值是基于每个弱分类器的错误
率进行计算的。其中,错误率ε的定义为:








评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论