读童话的狼
2021-02-27 阅读量: 1891
将sklearn-learn升级到最新版即可,升级方法见https://www.cda.cn/discuss/post/details/603795369fd3554bc36786e9
按照步骤已解决,感谢!
答:cart树本身实现的时候就是二分的二叉树,cart算法先对数据进行二分,然后再计算基尼系数这个指标,最后根据基尼系数这个指标去寻找最优切分点。所以cart树的二分与基尼系数、信息增益率无关。
答:cv指的是scikit-learn的GridSearchCV做K折交叉验证时的k参数,k折交叉验证的逻辑是这样的:1、首先,将全部样本划分成k个大小相等的样本子集;2、依次遍历这k个子集,每次把当前子集作为验证集,其余所有样本作为训练集,进行模型的训练和评估;3、最后把k次评估指标的平均值作为最终的评估指标。在实际实验中,k通常取10.
这两个参数是什么含义?答:这是决策树的剪枝用的超参数,min_samples_split :当前节点至少有多少个样本才能分裂。min_samples_leaf :当前节点分裂后每个叶节点至少有多少样本通过这两个超参数来训练决策树模型,最终得到最优的决策树模型。