
简单易学的机器学习算法—分类回归树CART
分类回归树(Classification and Regression Tree,CART)是一种典型的决策树算法,CART算法不仅可以应用于分类问题,而且可以用于回归问题。
一、树回归的概念
对于一般的线性回归,其拟合的模型是基于全部的数据集。这种全局的数据建模对于一些复杂的数据来说,其建模的难度也会很大。其后,我们有了局部加权线性回归,其只利用数据点周围的局部数据进行建模,这样就简化了建模的难度,提高了模型的准确性。树回归也是一种局部建模的方法,其通过构建决策点将数据切分,在切分后的局部数据集上做回归操作。
在博文“简单易学的机器学习算法——决策树之ID3算法”中介绍了ID3算法的思想,ID3算法主要是用来处理离散性的问题,然而对于连续型的问题,ID3算法就无能无力了。其次ID3算法的分支也属于多分支,即通过一个特征可以分出很多的子数据集。分类回归树(Classification and Regression Tree, CART)是一种树构建算法,这种算法既可以处理离散型的问题,也可以处理连续型的问题。在处理连续型问题时,主要通过使用二元切分来处理连续型变量,即特征值大于某个给定的值就走左子树,或者就走右子树。
二、回归树的分类
在构建回归树时,主要有两种不同的树:
回归树(Regression Tree),其每个叶节点是单个值
模型树(Model Tree),其每个叶节点是一个线性方程
三、基于CART算法的回归树
在进行树的左右子树划分时,有一个很重要的量,即给定的值,特征值大于这个给定的值的属于一个子树,小于这个给定的值的属于另一个子树。这个给定的值的选取的原则是使得划分后的子树中的“混乱程度”降低。如何定义这个混乱程度是设计CART算法的一个关键的地方。在ID3算法中我们使用的信息熵和信息增益的概念。信息熵就代表了数据集的紊乱程度。对于连续型的问题,我们可以使用方差的概念来表达混乱程度,方差越大,越紊乱。所以我们要找到使得切分之后的方差最小的划分方式。数据分析师培训
四、实验仿真
对于数据集1,数据集2,我们分别使用CART算法构建回归树
(数据集1)
(数据集2)
从图上我们可以看出可以将数据集划分成两个子树,即左右子树,并分别在左右子树上做线性回归。同样的道理,下图可以划分为5个子树。
结果为:
(数据集1的结果)
(数据集2的结果)
MATLAB代码:
主程序
[plain] view plain copy 在CODE上查看代码片派生到我的代码片
%% CART
clear all
clc
% 导入数据集
%dataSet = load('ex00.txt');
dataSet = load('ex0.txt');
% 画图1
% plot(dataSet(:,1),dataSet(:,2),'.');
% axis([-0.2,1.2,-1.0,2.0]);
% 画图2
% plot(dataSet(:,2),dataSet(:,3),'.');
% axis([-0.2,1.2,-1.0,5.0]);
createTree(dataSet,1,4);
构建子树
[plain] view plain copy 在CODE上查看代码片派生到我的代码片
function [ retTree ] = createTree( dataSet,tolS,tolN )
[feat,val] = chooseBestSplit(dataSet, tolS, tolN);
disp(['feat:', num2str(feat)]);
disp(['value:', num2str(val)]);
if feat == 0
return;
end
[lSet,rSet] = binSplitDataSet(dataSet, feat, val);
disp('left:');
createTree( lSet,tolS,tolN );
disp('right:');
createTree( rSet,tolS,tolN );
end
最佳划分
[plain] view plain copy 在CODE上查看代码片派生到我的代码片
function [ Index, Value ] = chooseBestSplit( dataSet, tolS, tolN )
% 参数中tolS是容许的误差下降值,tolN是切分的最小样本数
m = size(dataSet);%数据集的大小
if length(unique(dataSet(:,m(:,2)))) == 1%仅剩下一种时
Index = 0;
Value = regLeaf(dataSet(:,m(:,2)));
return;
end
S = regErr(dataSet);%误差
bestS = inf;%初始化,无穷大
bestIndex = 0;
bestValue = 0;
%找到最佳的位置和最优的值
for j = 1:(m(:,2)-1)%得到列
b = unique(dataSet(:,j));%得到特征所在的列
lenCharacter = length(b);
for i = 1:lenCharacter
temp = b(i,:);
[mat0,mat1] = binSplitDataSet(dataSet, j ,temp);
m0 = size(mat0);
m1 = size(mat1);
if m0(:,1) < tolN || m1(:,1) < tolN
continue;
end
newS = regErr(mat0) + regErr(mat1);
if newS < bestS
bestS = newS;
bestIndex = j;
bestValue = temp;
end
end
end
if (S-bestS) < tolS
Index = 0;
Value = regLeaf(dataSet(:,m(:,2)));
return;
end
%划分
[mat0, mat1] = binSplitDataSet(dataSet, bestIndex ,bestValue);
m0 = size(mat0);
m1 = size(mat1);
if m0(:,1) < tolN || m1(:,1) < tolN
Index = 0;
Value = regLeaf(dataSet(:,m(:,2)));
return;
end
Index = bestIndex;
Value = bestValue;
end
划分
[plain] view plain copy 在CODE上查看代码片派生到我的代码片
%% 将数据集划分为两个部分
function [ dataSet_1, dataSet_2 ] = binSplitDataSet( dataSet, feature, value )
[m,n] = size(dataSet);%计算数据集的大小
DataTemp = dataSet(:,feature)';%变成行
%计算行中标签列的元素大于value的行
index_1 = [];%空的矩阵
index_2 = [];
for i = 1:m
if DataTemp(1,i) > value
index_1 = [index_1,i];
else
index_2 = [index_2,i];
end
end
[m_1,n_1] = size(index_1);%这里要取列数
[m_2,n_2] = size(index_2);
if n_1>0 && n_2>0
for j = 1:n_1
dataSet_1(j,:) = dataSet(index_1(1,j),:);
end
for j = 1:n_2
dataSet_2(j,:) = dataSet(index_2(1,j),:);
end
elseif n_1 == 0
dataSet_1 = [];
dataSet_2 = dataSet;
elseif n_2 == 0
dataSet_2 = [];
dataSet_1 = dataSet;
end
end
%% 将数据集划分为两个部分
function [ dataSet_1, dataSet_2 ] = binSplitDataSet( dataSet, feature, value )
[m,n] = size(dataSet);%计算数据集的大小
DataTemp = dataSet(:,feature)';%变成行
%计算行中标签列的元素大于value的行
index_1 = [];%空的矩阵
index_2 = [];
for i = 1:m
if DataTemp(1,i) > value
index_1 = [index_1,i];
else
index_2 = [index_2,i];
end
end
[m_1,n_1] = size(index_1);%这里要取列数
[m_2,n_2] = size(index_2);
if n_1>0 && n_2>0
for j = 1:n_1
dataSet_1(j,:) = dataSet(index_1(1,j),:);
end
for j = 1:n_2
dataSet_2(j,:) = dataSet(index_2(1,j),:);
end
elseif n_1 == 0
dataSet_1 = [];
dataSet_2 = dataSet;
elseif n_2 == 0
dataSet_2 = [];
dataSet_1 = dataSet;
end
end
偏差
[plain] view plain copy 在CODE上查看代码片派生到我的代码片
function [ error ] = regErr( dataSet )
m = size(dataSet);%求得dataSet的大小
dataVar = var(dataSet(:,m(:,2)));
error = dataVar * (m(:,1)-1);
end
叶节点
[plain] view plain copy 在CODE上查看代码片派生到我的代码片
function [ leaf ] = regLeaf( dataSet )
m = size(dataSet);
leaf = mean(dataSet(:,m(:,2)));
end
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
R 语言:数据科学与科研领域的核心工具及优势解析 一、引言 在数据驱动决策的时代,无论是科研人员验证实验假设(如前文中的 T ...
2025-09-08T 检验在假设检验中的应用与实践 一、引言 在科研数据分析、医学实验验证、经济指标对比等领域,常常需要判断 “样本间的差异是 ...
2025-09-08在商业竞争日益激烈的当下,“用数据说话” 已从企业的 “加分项” 变为 “生存必需”。然而,零散的数据分析无法持续为业务赋能 ...
2025-09-08随机森林算法的核心特点:原理、优势与应用解析 在机器学习领域,随机森林(Random Forest)作为集成学习(Ensemble Learning) ...
2025-09-05Excel 区域名定义:从基础到进阶的高效应用指南 在 Excel 数据处理中,频繁引用单元格区域(如A2:A100、B3:D20)不仅容易出错, ...
2025-09-05CDA 数据分析师:以六大分析方法构建数据驱动业务的核心能力 在数据驱动决策成为企业共识的当下,CDA(Certified Data Analyst) ...
2025-09-05SQL 日期截取:从基础方法到业务实战的全维度解析 在数据处理与业务分析中,日期数据是连接 “业务行为” 与 “时间维度” 的核 ...
2025-09-04在卷积神经网络(CNN)的发展历程中,解决 “梯度消失”“特征复用不足”“模型参数冗余” 一直是核心命题。2017 年提出的密集连 ...
2025-09-04CDA 数据分析师:驾驭数据范式,释放数据价值 在数字化转型浪潮席卷全球的当下,数据已成为企业核心生产要素。而 CDA(Certified ...
2025-09-04K-Means 聚类:无监督学习中数据分群的核心算法 在数据分析领域,当我们面对海量无标签数据(如用户行为记录、商品属性数据、图 ...
2025-09-03特征值、特征向量与主成分:数据降维背后的线性代数逻辑 在机器学习、数据分析与信号处理领域,“降维” 是破解高维数据复杂性的 ...
2025-09-03CDA 数据分析师与数据分析:解锁数据价值的关键 在数字经济高速发展的今天,数据已成为企业核心资产与社会发展的重要驱动力。无 ...
2025-09-03解析 loss.backward ():深度学习中梯度汇总与同步的自动触发核心 在深度学习模型训练流程中,loss.backward()是连接 “前向计算 ...
2025-09-02要解答 “画 K-S 图时横轴是等距还是等频” 的问题,需先明确 K-S 图的核心用途(检验样本分布与理论分布的一致性),再结合横轴 ...
2025-09-02CDA 数据分析师:助力企业破解数据需求与数据分析需求难题 在数字化浪潮席卷全球的当下,数据已成为企业核心战略资产。无论是市 ...
2025-09-02Power BI 度量值实战:基于每月收入与税金占比计算累计税金分摊金额 在企业财务分析中,税金分摊是成本核算与利润统计的核心环节 ...
2025-09-01巧用 ALTER TABLE rent ADD INDEX:租房系统数据库性能优化实践 在租房管理系统中,rent表是核心业务表之一,通常存储租赁订单信 ...
2025-09-01CDA 数据分析师:企业数字化转型的核心引擎 —— 从能力落地到价值跃迁 当数字化转型从 “选择题” 变为企业生存的 “必答题”, ...
2025-09-01数据清洗工具全景指南:从入门到进阶的实操路径 在数据驱动决策的链条中,“数据清洗” 是决定后续分析与建模有效性的 “第一道 ...
2025-08-29机器学习中的参数优化:以预测结果为核心的闭环调优路径 在机器学习模型落地中,“参数” 是连接 “数据” 与 “预测结果” 的关 ...
2025-08-29