shauna570392

2020-02-18   阅读量: 816

机器学习

决策树参数的理解

扫码加入数据分析学习群

class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, splitter=’best’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, class_weight=None, presort=False)

criterion :特征选择标准 ,默认是’gini’基尼系数,亦可设定 “entropy”用于信息增益.

splitter :特征划分点选择标准 ,默认是’best’,亦可设定’random’去选择最优随机分裂。

max_depth :默认为None,树的最大深度

min_samples_split :默认为2,分裂内部节点需要的最小样本数

min_samples_leaf :默认为1,叶节点需要的最小样本数

min_weight_fraction_leaf :默认为0,叶节点中输入样本的最小权重比例

max_features:默认为None,寻找最优分裂时使用的特征变量的个数

random_state :默认为None,为随机数据生成器提供的种子

max_leaf_nodes :默认为None,最大叶节点个数

min_impurity_decrease:节点分裂所需的最小不纯度减小值,默认为0.  这个值限制了决策树的增长,如果某节点的不纯度小于这个阈值,则该节点不再生成子节点。即为叶子节点 。

class_weight :与类相关的权重,以{类标签:权重}赋值,默认为None,各类的权重为1

presort :布尔值默认为False,是否预排序数据从而在拟合中加速找到最优分裂

添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
27.2492 1 1 关注作者 收藏

评论(0)


暂无数据

推荐课程

推荐帖子