京公网安备 11010802034615号
经营许可证编号:京B2-20210330
在 CDA(Certified Data Analyst)数据分析师认证体系中,描述性统计是贯穿初级到中级认证的核心模块,占比约 15%。不同于推断统计的 “概率预测”,描述性统计通过整理、概括数据的基础特征,将零散数据转化为可解读的信息,是 CDA 分析师开展后续分析(如建模、预测)的前置环节。根据 CDA 考试大纲,该模块要求掌握 “集中趋势、离散程度、分布形态” 三大类指标的计算与解读,以及 “数据可视化与业务洞察转化” 能力 —— 例如,某零售企业的 CDA 分析师通过描述性统计发现客单价的中位数显著低于均值,进而定位低收入客群的消费痛点,为促销策略提供方向。
描述性统计的核心是通过量化指标揭示数据 “是什么”,而非 “为什么”,其指标体系可分为三大维度,每类指标在 CDA 认证中均有明确考核标准:
集中趋势反映数据的平均水平,是 CDA 分析师判断数据整体特征的首要工具,核心指标包括:
均值(Mean):所有数据的算术平均,适用于对称分布且无异常值的场景。例如,某电商平台日均订单量的均值为 5000 单,可作为基础运营目标的参考。
CDA 考点提示:均值对异常值敏感,若存在极端大值(如单日促销订单 10 万单),需结合中位数修正结论。
中位数(Median):将数据排序后位于中间位置的数值,适用于偏态分布或含异常值的数据。例如,某公司员工薪资分布呈右偏(少数高管薪资极高),此时中位数(8000 元 / 月)比均值(12000 元 / 月)更能反映普通员工的薪资水平。
众数(Mode):数据中出现频率最高的数值,适用于分类数据或离散数据。例如,某快消品牌的产品规格中,“500ml” 的销量占比达 60%,众数指标直接指导生产备货。
离散程度衡量数据的分散程度,是 CDA 认证中 “风险评估”“稳定性分析” 的关键,核心指标包括:
标准差(Standard Deviation):反映数据与均值的平均偏离度,值越小说明数据越稳定。例如,某连锁超市的日销售额标准差为 2000 元(均值 5 万元),说明销售额波动可控;若标准差达 1 万元,则需排查门店运营问题。
四分位数(Quartiles)与四分位距(IQR):通过 Q1(25% 分位数)、Q2(中位数)、Q3(75% 分位数)划分数据区间,IQR=Q3-Q1,可有效识别异常值(超出 Q1-1.5IQR 或 Q3+1.5IQR 的数值)。
CDA 实践案例:某金融平台通过四分位距筛选出 “贷款金额超过 Q3+1.5IQR” 的客户,作为高风险群体重点审核。
变异系数(CV):标准差与均值的比值,用于对比不同量级数据的离散程度。例如,A 产品日均销量均值 100 件、标准差 20 件,B 产品均值 500 件、标准差 50 件,通过 CV(A=0.2,B=0.1)可知 B 产品销量更稳定。
分布形态揭示数据的概率分布规律,是 CDA 分析师选择后续分析方法的依据,核心指标包括:
偏度(Skewness):衡量数据分布的不对称性。偏度 > 0(右偏)表示数据集中在左侧,右侧有长尾(如用户消费金额,多数人小额消费,少数人高额消费);偏度 < 0(左偏)表示数据集中在右侧,左侧有长尾(如产品使用寿命,多数产品达标,少数提前损坏)。
峰度(Kurtosis):衡量数据分布的陡峭程度。峰度 > 0(尖峰分布)表示数据集中在均值附近,波动小(如成熟产品的质量检测数据);峰度 < 0(平峰分布)表示数据分散,波动大(如新产品的用户反馈评分)。
CDA 分析师开展描述性统计需遵循 “数据清洗→指标计算→解读可视化→业务落地” 四步流程,且需熟练运用 Python/R 工具实现:
描述性统计的准确性依赖数据质量,CDA 认证要求优先处理两类问题:
缺失值:若缺失率 <5%,可通过 “均值 / 中位数填充”(数值型数据)或 “众数填充”(分类数据);若缺失率 > 20%,需评估字段必要性(如某用户行为数据中 “浏览时长” 缺失率 30%,可直接删除该字段)。
import pandas as pd
import numpy as np
# 读取数据
data = pd.read_csv("sales_data.csv")
# 计算Z-score
z_scores = np.abs((data["sales"] - data["sales"].mean()) / data["sales"].std())
# 筛选正常数据(Z-score<3)
clean_data = data[z_scores < 3]
CDA 认证推荐使用 Python 的pandas库或 R 的summary()函数快速生成描述性统计指标,例如:
# 计算集中趋势
mean_sales = clean_data["sales"].mean() # 均值
median_sales = clean_data["sales"].median() # 中位数
mode_sales = clean_data["sales"].mode()[0] # 众数
# 计算离散程度
std_sales = clean_data["sales"].std() # 标准差
iqr_sales = clean_data["sales"].quantile(0.75) - clean_data["sales"].quantile(0.25) # 四分位距
# 输出结果
print(f"销量均值:{mean_sales:.2f},中位数:{median_sales:.2f}")
print(f"销量标准差:{std_sales:.2f},四分位距:{iqr_sales:.2f}")
CDA 认证强调 “让数据说话”,需通过可视化将指标转化为业务语言:
基础可视化:用折线图展示均值变化趋势,箱线图呈现离散程度(如某门店月度销量箱线图,可直观看到 Q4 存在多个异常高值,对应双 11 促销);
BI 工具应用:在 FineBI 或 Tableau 中搭建 “描述性统计看板”,联动筛选 “区域 - 时间 - 产品” 维度,例如某品牌通过看板发现 “华东区域客单价中位数高于全国 15%”,进而加大该区域的高端产品投放。
某连锁便利店的 CDA 分析师对 2024 年 Q1 消费数据开展描述性统计:
集中趋势:客单价均值 35 元,中位数 30 元(说明存在高消费客群拉高均值);
离散程度:客单价标准差 18 元,四分位距 22 元(消费金额差异较大);
分布形态:客单价偏度 = 1.2(右偏),峰度 = 0.8(平峰)。
业务落地:针对高消费客群(客单价 > Q3=48 元)推出 “会员专属套餐”,针对普通客群(客单价 15-30 元)推出 “组合优惠”,推动 Q2 整体客单价提升 8%。
某银行 CDA 分析师对申请贷款客户的收入数据进行描述性统计:
收入中位数 8000 元 / 月,均值 10500 元 / 月(存在高收入客户);
收入标准差 5000 元,异常值界定为 “收入> 8000+1.5×(12000-6000)=17000 元” 或 “收入 < 6000-1.5×6000=-3000 元”(排除负收入异常值);
高收入客户(>17000 元)占比 5%,但其贷款违约率仅 0.3%(远低于平均 2%)。
业务落地:将收入中位数作为基础授信门槛,对高收入客户简化审核流程,提升审批效率的同时降低风险。
考点聚焦:重点掌握 “异常值处理方法”“偏度 / 峰度的业务解读”“不同数据类型(数值型 / 分类型)的指标选择”—— 例如,分类数据(如用户性别)仅能用众数描述集中趋势,不能用均值。
工具深化:除pandas外,学习 Python 的scipy.stats库计算偏度、峰度,用seaborn绘制更专业的分布可视化图表(如小提琴图结合箱线图,同时展示分布形态与离散程度)。
业务关联:避免 “唯指标论”,例如某产品的销量均值下降,但中位数上升,需结合业务场景分析(可能是低端产品销量减少,高端产品销量稳定,并非整体下滑)。
描述性统计是 CDA 数据分析师的 “基本功”,其价值不在于复杂的计算,而在于从基础指标中挖掘业务痛点。通过掌握集中趋势、离散程度、分布形态的核心逻辑,结合 CDA 认证的工具与流程要求,分析师可将零散数据转化为决策依据,为企业的精细化运营奠定基础。建议备考 CDA 的读者通过 SQLPub、Kaggle 等平台练习真实数据集,在实践中提升指标解读与业务转化能力。

数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01