2020-03-18
阅读量:
584
sklearn的决策树模型中一般是选择预剪枝还是后剪枝?
问:
在scikit-learn的决策树模型中,一般是选择预剪枝还是后剪枝处理呢?
答:
sklearn中现在能做的是预剪枝,就是设置Classifier或者Regression里的参数max_depth, min_samples_split, min_samples_leaf,参数具体说明如下:
max_depth 决策树最⼤深度: (重要: ⽤于控制模型复杂度, 深度越⾼, 模型越复杂.模型学习能⼒就会越强, 但是就越容易过拟合)
min_samples_split 最⼩样本分类个数: # 默认2如果⼀个节点中的样本不这个参数的值还⼩, 则这个样本不能再继续向下分裂.
min_samples_leaf 最⼩叶节点样本个数:分裂之后, 如果有叶节点样本个数不到这个数字, 则本次分裂不允许
后剪枝的确是在sklearn中做不到的。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论