2019-01-11
阅读量:
904
决策树模型要注意什么
当决策树表示具有最少数量的级别或问题的大多数数据时,它被认为是最佳的。 旨在创建优化决策树的算法包括CART,ASSISTANT,CLS和ID3 / 4/5。 还可以通过构建关联规则来创建决策树,将目标变量放在右侧。
每种方法都必须确定哪种方法是在每个级别拆分数据的最佳方法。这样做的常用方法包括测量基尼杂质,信息增益和方差减少。
在机器学习中使用决策树有几个优点:
- 使用树来预测数据的成本随着每个附加数据点而降低
- 适用于分类或数字数据
- 可以用多个输出建模问题
- 使用白盒模型(使结果易于解释)
- 可以测试和量化树的可靠性
- 无论是否违反源数据的假设,都趋于准确
但它们也有一些缺点:
- 在处理具有多个级别的分类数据时,信息增益偏向于具有最多级别的属性。
- 在处理不确定性和许多相关结果时,计算可能变得复杂。
- 节点之间的连接限于AND,而决策图允许通过OR链接的节点。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论