简单易学的机器学习算法—集成方法(Ensemble Method)
一、集成学习方法的思想
前面介绍了一系列的算法,每个算法有不同的适用范围,例如有处理线性可分问题的,有处理线性不可分问题。在现实世界的生活中,常常会因为“集体智慧”使得问题被很容易解决,那么问题来了,在机器学习问题中,对于一个复杂的任务来说,能否将很多的机器学习算法组合在一起,这样计算出来的结果会不会比使用单一的算法性能更好?这样的思路就是集成学习方法。
集成学习方法是指组合多个模型,以获得更好的效果,使集成的模型具有更强的泛化能力。对于多个模型,如何组合这些模型,主要有以下几种不同的方法:
在验证数据集上上找到表现最好的模型作为最终的预测模型;
对多个模型的预测结果进行投票或者取平均值;
对多个模型的预测结果做加权平均。
以上的几种思路就对应了集成学习中的几种主要的学习框架。
二、集成学习的主要方法
1、强可学习和弱可学习
在概率近似正确(probably approximately correct, PAC)学习的框架中,一个概念(一个类),如果存在一个多项式的学习算法能够学习它,并且正确率很高,那么就称这个概念是强可学习的。一个概念,如果存在一个多项式的学习算法能够学习它,学习正确率仅比随机猜测略好,那么就称这个概念是弱可学习的。Schapire指出在PAC学习框架下,一个概念是强可学习的充分必要条件是这个概念是弱可学习的。那么对于一个学习问题,若是找到“弱学习算法”,那么可以将弱学习方法变成“强学习算法”。
2、在验证集上找表现最好的模型
这样的方法的思想与决策树的思想类似,在不同的条件下选择满足条件的算法。
3、多个模型投票或者取平均值
在Bagging方法中,让学习算法训练多次,每次的训练集由初始的训练集中随机取出的个训练样本组成,初始的训练样本在某次的训练集中可能出现多次或者根本不出现。最终训练出m个预测函数,最终的预测函数为h对于分类和回归问题可采用如下的两种方法:
分类问题:采用投票的方法,得票最多的类别为最终的类别
回归问题:采用简单的平均方法
随机森林算法就是基于Bagging思想的学习算法。
4、对多个模型的预测结果做加权平均
在Boosting算法中,初始化时对每个训练样本赋予相等的权重,如,然后用该学习算法对训练集训练G轮,每次训练后,对训练失败的训练样本赋予更大的权重,也就是让学习算法在后续的学习中几种对比较难学的训练样本进行学习,从而得到一个预测函数序列,其中每个都有一个权重,预测效果好的预测函数的权重较大。最终的预测函数为H对于分类和回归问题可采用如下的两种方法:数据分析师培训
分类问题:有权重的投票方式
回归问题:加权平均
数据分析咨询请扫描二维码