京公网安备 11010802034615号
经营许可证编号:京B2-20210330
机器学习中的kNN算法及Matlab实例
K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
尽管kNN算法的思想比较简单,但它仍然是一种非常重要的机器学习(或数据挖掘)算法。在2006年12月召开的 IEEE
International Conference on Data Mining (ICDM),与会的各位专家选出了当时的十大数据挖掘算法( top 10 data mining algorithms ),可以参加文献【1】, K最近邻算法即位列其中。
二、在Matlab中利用kNN进行最近邻查询
如果手头有一些数据点(以及它们的特征向量)构成的数据集,对于一个查询点,我们该如何高效地从数据集中找到它的最近邻呢?最通常的方法是基于k-d-tree进行最近邻搜索。
KNN算法不仅可以用于分类,还可以用于回归,但主要应用于回归,所以下面我们就演示在MATLAB中利用KNN算法进行数据挖掘的基本方法。
首先在Matlab中载入数据,代码如下,其中meas( : , 3:4)相当于取出(之前文章中的)Petal.Length和Petal.Width这两列数据,一共150行,三类鸢尾花每类各50行。
[plain] view plain copy
load fisheriris
x = meas(:,3:4);
然后我们可以借助下面的代码来用图形化的方式展示一下数据的分布情况:
[plain] view plain copy
gscatter(x(:,1),x(:,2),species)
legend('Location','best')
执行上述代码,结果如下图所示:

然后我们在引入一个新的查询点,并在图上把该点用×标识出来:
[plain] view plain copy
newpoint = [5 1.45];
line(newpoint(1),newpoint(2),'marker','x','color','k',...
'markersize',10,'linewidth',2)
结果如下图所示:

接下来建立一个基于KD-Tree的最近邻搜索模型,查询目标点附近的10个最近邻居,并在图中用圆圈标识出来。
[plain] view plain copy
>> Mdl = KDTreeSearcher(x)
Mdl =
KDTreeSearcher with properties:
BucketSize: 50
Distance: 'euclidean'
DistParameter: []
X: [150x2 double]
>> [n,d] = knnsearch(Mdl,newpoint,'k',10);
line(x(n,1),x(n,2),'color',[.5 .5 .5],'marker','o',...
'linestyle','none','markersize',10)
下图显示确实找出了查询点周围的若干最近邻居,但是好像只要8个,

不用着急,其实系统确实找到了10个最近邻居,但是其中有两对数据点完全重合,所以在图上你只能看到8个,不妨把所有数据都输出来看看,如下所示,可知确实是10个。
[plain] view plain copy
>> x(n,:)
ans =
5.0000 1.5000
4.9000 1.5000
4.9000 1.5000
5.1000 1.5000
5.1000 1.6000
4.8000 1.4000
5.0000 1.7000
4.7000 1.4000
4.7000 1.4000
4.7000 1.5000
KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。例如下面的代码告诉我们,待查询点的邻接中有80%是versicolor类型的鸢尾花,所以如果采用KNN来进行分类,那么待查询点的预测分类结果就应该是versicolor类型。
[plain] view plain copy
>> tabulate(species(n))
Value Count Percent
virginica 2 20.00%
versicolor 8 80.00%
在利用 KNN方法进行类别决策时,只与极少量的相邻样本有关。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。
我们还要说明在Matlab中使用KDTreeSearcher进行最近邻搜索时,距离度量的类型可以是欧拉距离('euclidean')、曼哈顿距离('cityblock')、闵可夫斯基距离('minkowski')、切比雪夫距离('chebychev'),缺省情况下系统使用欧拉距离。你甚至还可以自定义距离函数,然后使用knnsearch()函数来进行最近邻搜索,具体可以查看MATLAB的帮助文档,我们不具体展开。
三、利用kNN进行数据挖掘的实例
下面我们来演示在MATLAB构建kNN分类器,并以此为基础进行数据挖掘的具体步骤。首先还是载入鸢尾花数据,不同的是这次我们使用全部四个特征来训练模型。
[plain] view plain copy
load fisheriris
X = meas; % Use all data for fitting
Y = species; % Response data
然后使用fitcknn()函数来训练分类器模型。
[plain] view plain copy
>> Mdl = fitcknn(X,Y)
Mdl =
ClassificationKNN
ResponseName: 'Y'
CategoricalPredictors: []
ClassNames: {'setosa' 'versicolor' 'virginica'}
ScoreTransform: 'none'
NumObservations: 150
Distance: 'euclidean'
NumNeighbors: 1
你可以看到默认情况下,最近邻的数量为1,下面我们把它调整为4。
[plain] view plain copy
Mdl.NumNeighbors = 4;
或者你可以使用下面的代码来完成上面同样的任务:
[plain] view plain copy
Mdl = fitcknn(X,Y,'NumNeighbors',4);
既然有了模型,我们能否利用它来执行以下预测分类呢,具体来说此时我们需要使用predict()函数,例如
[plain] view plain copy
>> flwr = [5.0 3.0 5.0 1.45];
>> flwrClass = predict(Mdl,flwr)
flwrClass =
'versicolor'
最后,我们还可以来评估一下建立的kNN分类模型的情况。例如你可以从已经建好的模型中建立一个cross-validated 分类器:
[plain] view plain copy
CVMdl = crossval(Mdl);
然后再来看看cross-validation loss,它给出了在对那些没有用来训练的数据进行预测时每一个交叉检验模型的平均损失
[plain] view plain copy
>> kloss = kfoldLoss(CVMdl)
kloss =
0.0333
再来检验一下resubstitution loss, which,默认情况下,它给出的是模型Mdl预测结果中被错误分类的数据占比。
[plain] view plain copy
>> rloss = resubLoss(Mdl)
rloss =
0.0400
如你所见,cross-validated 分类准确度与 resubstitution 准确度大致相近。所以你可以认为你的模型在面对新数据时(假设新数据同训练数据具有相同分布的话),分类错误的可能性大约是 4% 。
四、关于k值的选择
kNN算法在分类时的主要不足在于,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。因此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。
从另外一个角度来说,算法中k值的选择对模型本身及其对数据分类的判定结果都会产生重要影响。如果选择较小的k值,就相当于用较小的领域中的训练实例来进行预测,学习的近似误差会减小,只有与输入实例较为接近(相似的)训练实例才会对预测结果起作用。但缺点是“学习”的估计误差会增大。预测结果会对近邻的实例点非常敏感。如果临近的实例点恰巧是噪声,预测就会出现错误。换言之,k值的减小意味着整体模型变得复杂,容易发成过拟合。数据分析师培训
如果选择较大的k值,就相当于用较大的邻域中的训练实例进行预测,其优点是可以减少学习的估计误差,但缺点是学习的近似误差会增大。这时与输入实例较远的(不相似的)训练实例也会对预测起作用,使预测发生错误。k值的增大就意味着整体的模型变得简单。
在应用中,k值一般推荐取一个相对比较小的数值。并可以通过交叉验证法来帮助选取最优k值。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27