登录
首页大数据时代不平衡数据处理常用方法--下采样
不平衡数据处理常用方法--下采样
2020-07-09
收藏

机器学习中,当原始数据的分类极不均衡,需要对不平衡数据进行处理,而下采样就是处理方法之一。简单来说就是从多数类中随机抽取样本从而减少多数类样本的数量,使数据达到平衡。

下采样,通常适用于正负样本相差较大,而且小样本数据不足的情况。就是将大样本中数据使用一定的方法取出一部分,让正负样本数量相当。但是下采样的缺点也很明显,就是没有学到全部的数据,只考虑了部分数据的情况。

下采样的方法常见的有:

1.随机下采样法。这种方法不能考虑到全部数据,在使用过程中会使用一些方式减小信息的损失。方法很简单,从多数类样本中随机选取一些,直接剔除掉。这种方法的最大缺点是,没有考虑到全部数据,被剔除的样本可能包含着一些重要信息,导致最终学习出来的模型效果比较差。

2.EasyEnsemble,就是利用模型融合的方法,将多数类样本随机划分成n个子集,每个子集的数量等于少数类样本的数量,多次进行下采样产生多个不同的模型,通过组合这些模型的结果,得到最终的结果。

3.BalanceCascade,即利用增量训练也就是有监督结合Boosting的方法,在第n轮训练中,将从多数类样本中抽样得来的子集与少数类样本结合起来训练一个基学习器H,训练完后多数类中能被H正确分类的样本不放回,然后对剩下的样本训练生成第二个基学习器,以此类推,最后将不同的基学习器集成起来。

3.NearMiss,本质上是一种原型选择(prototype selection)方法,就是从多数类样本中选取最具代表性的样本用于训练,这主要是为了缓解随机欠采样中的信息丢失问题。NearMiss采用一些启发式的规则来选择样本,根据规则的不同可分为3类:

NearMiss-1:选择到最近的K个少数类样本平均距离最近的多数类样本

NearMiss-2:选择到最远的K个少数类样本平均距离最近的多数类样本

NearMiss-3:对于每个少数类样本选择K个最近的多数类样本,目的是保证每个少数类样本都被多数类样本包围

数据分析咨询请扫描二维码

客服在线
立即咨询