2018-10-25
阅读量:
1771
决策树算法的优点和缺点
决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上决策树是通过一系列规则对数据进行分类的过程。
决策树算法的优点如下:
- 生成的模式简单
- 对噪声数据有很好的健壮性
- 速度快: 计算量相对较小, 且容易转化成分类规则. 只要沿着树根向下一直走到叶, 沿途的分裂条件就能够唯一确定一条分类的谓词
- 准确性高: 挖掘出来的分类规则准确性高, 便于理解, 决策树可以清晰的显示哪些字段比较重要, 即可以生成可以理解的规则
- 可以处理连续和种类字段
- 不需要任何领域知识和参数假设
- 适合高维数据
决策树算法的缺点如下:
- 对于各类别样本数量不一致的数据, 信息增益偏向于那些更多数值的特征
- 没有推广依据,这就过拟合
- 忽略属性之间的相关性
- 决策树的结果可能是不稳定的,因为在数据中一个很小的变化可能导致生成一个完全不同的树






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论