热线电话:13121318867

登录
2020-03-18 阅读量: 584
sklearn的决策树模型中一般是选择预剪枝还是后剪枝?

问:

在scikit-learn的决策树模型中,一般是选择预剪枝还是后剪枝处理呢?

答:

sklearn中现在能做的是预剪枝,就是设置Classifier或者Regression里的参数max_depth, min_samples_split, min_samples_leaf,参数具体说明如下:

max_depth 决策树最⼤深度: (重要: ⽤于控制模型复杂度, 深度越⾼, 模型越复杂.模型学习能⼒就会越强, 但是就越容易过拟合)

min_samples_split 最⼩样本分类个数: # 默认2如果⼀个节点中的样本不这个参数的值还⼩, 则这个样本不能再继续向下分裂.

min_samples_leaf 最⼩叶节点样本个数:分裂之后, 如果有叶节点样本个数不到这个数字, 则本次分裂不允许

后剪枝的确是在sklearn中做不到的。

0.0061
3
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子