热线电话:13121318867

登录
2020-02-18 阅读量: 1286
决策树参数的理解

class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, splitter=’best’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, class_weight=None, presort=False)

criterion :特征选择标准 ,默认是’gini’基尼系数,亦可设定 “entropy”用于信息增益.

splitter :特征划分点选择标准 ,默认是’best’,亦可设定’random’去选择最优随机分裂。

max_depth :默认为None,树的最大深度

min_samples_split :默认为2,分裂内部节点需要的最小样本数

min_samples_leaf :默认为1,叶节点需要的最小样本数

min_weight_fraction_leaf :默认为0,叶节点中输入样本的最小权重比例

max_features:默认为None,寻找最优分裂时使用的特征变量的个数

random_state :默认为None,为随机数据生成器提供的种子

max_leaf_nodes :默认为None,最大叶节点个数

min_impurity_decrease:节点分裂所需的最小不纯度减小值,默认为0.  这个值限制了决策树的增长,如果某节点的不纯度小于这个阈值,则该节点不再生成子节点。即为叶子节点 。

class_weight :与类相关的权重,以{类标签:权重}赋值,默认为None,各类的权重为1

presort :布尔值默认为False,是否预排序数据从而在拟合中加速找到最优分裂

27.2492
1
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子