京公网安备 11010802034615号
经营许可证编号:京B2-20210330
聚类分析是一种常用的无监督学习方法,旨在将样本数据划分为相似的群组或簇。在R中,有多种聚类分析方法可供选择,包括层次聚类和K均值聚类等。本文将介绍如何使用R进行聚类分析。
在进行聚类分析之前,需要先准备好要分析的数据集。数据通常以矩阵或数据框的形式呈现,其中每行代表一个样本,每列代表一个特征。在这里,我们将使用UCI Machine Learning Repository上的Iris数据集作为示例。该数据集包含150个样本,每个样本有4个特征:花萼长度、花萼宽度、花瓣长度和花瓣宽度。首先,我们需要从网络上下载数据集并导入到R中:
iris <- read.csv("https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data", header = FALSE)
colnames(iris) <- c("Sepal.Length", "Sepal.Width", "Petal.Length", "Petal.Width", "Species")
层次聚类是一种将样本逐步分组的方法,可以形成一个树形结构,称为树状图。在R中,可以使用hclust函数来执行层次聚类分析。hclust函数需要一个距离矩阵或相似性矩阵作为输入,因此我们需要首先计算样本之间的距离或相似性矩阵。在这里,我们将使用欧几里得距离来度量样本之间的距离:
dist_mat <- dist(iris[, 1:4], method = "euclidean")
接下来,我们可以使用hclust函数对距离矩阵进行聚类分析:
hc_res <- hclust(dist_mat, method = "ward.D2")
其中,method = "ward.D2"表示使用Ward方法进行聚类分析。Ward方法尝试最小化群组内方差的增加量,因此通常能够产生更紧密的群组。执行完聚类分析后,我们可以使用plot函数来绘制树状图:
plot(hc_res)

从树状图中可以看出,Iris数据集可以被分成3个主要簇。我们还可以使用cutree函数将每个样本分配到不同的簇中:
cluster_labels <- cutree(hc_res, k = 3)
其中,k = 3表示我们期望将数据分为3个簇。可以通过以下方式查看每个样本所属的簇:
head(cluster_labels)
#> [1] 1 1 1 1 1 1
K均值聚类是一种迭代方法,旨在将样本分为k个不同的簇,使得每个簇内部的样本之间的距离最小化。在R中,可以使用kmeans函数来执行K均值聚类分析。kmeans函数需要指定要分成的簇数,并且通常需要多次运行以避免收敛于局部最小值。
kmeans_res <- kmeans(iris[, 1:4], centers = 3, nstart = 20)
其中,centers = 3表示我们期望将数据分为3个簇,nstart = 20表示我们希
望执行20次随机初始化来避免局部最小值。
K均值聚类分析的输出包括每个样本所属的簇标签和每个簇的中心点。我们可以通过以下方式查看分配到每个簇的样本数量:
table(kmeans_res$cluster)
#>
#> 1 2 3
#> 38 50 62
从结果可以看出,Iris数据集被成功地分成了3个主要簇,每个簇都有相似的特征值。
除了树状图之外,我们还可以使用其他方法来可视化聚类结果。例如,我们可以使用ggplot2包中的函数绘制散点图,并使用不同的颜色表示不同的簇:
library(ggplot2)
iris_clustered <- cbind(iris, cluster_labels)
ggplot(iris_clustered, aes(x = Sepal.Length, y = Petal.Width, color = factor(cluster_labels))) +
geom_point()

从散点图可以看出,不同簇的样本在花萼长度和花瓣宽度之间存在明显的差异。
聚类分析是一种有用的无监督学习方法,可以帮助我们发现数据中隐藏的结构。在R中,我们可以使用层次聚类和K均值聚类等多种方法进行聚类分析。在进行聚类分析之前,我们需要准备好要分析的数据集,并选择合适的聚类算法和参数。最后,我们可以通过树状图、散点图等方式来可视化聚类结果。
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15