京公网安备 11010802034615号
经营许可证编号:京B2-20210330
数据分析?这么简单的描述性统计先学了好吗
用户研究中数据分析的目的,常见有三种:
归纳分析、差异分析、关联分析
今天我们聊一下,在以归纳分析为目的的数据分析中,集中趋势和离散趋势怎么玩,形状测量将在《Part.5: 不用的数据类型对应的视觉化呈现》中一并聊。
如上图,归纳分析中对集中趋势和离散趋势的描述我们统称为描述性统计,这是统计分析中最基础的概念,也是日常的数据分析如问卷调研中用得最多的统计方法。本文中会另外聊到一个事情,就是在分析好集中趋势和离散趋势后,还需要判断这个结果在多大程度上可以相信,也就是置信区间的玩法。
集中趋势
集中趋势可以简单地理解成用单个数值来代表一组数据。最常见的三种集中趋势指标是平均数(mean)、中位数(median)和众数(mode)。
a.平均数
平均数大家都很熟悉,用户的平均年龄、平时在线时长、平均客单价等等,他是拿到用户数据后第一件要做的事情。大多数用户体验度量的平均值都能提供非常有用的信息,比如新版本上线后采用5分或7分量表获取用户的体验满意度,最简单的方法就是根据采集的数据计算出平均值,将平均值作为用户满意度结果进行报告。这份满意度报告展示的第一个数据就已经呈现了,读者对该次版本的满意度就有了初步的印象。
b.中位数(中数)
中位数,顾名思义,就是将数据从小到大或从大到小进行排序排序,然后取中间的数字作为这一列数据的中位数。如果正好样本量是偶数,那么就平均一下中间的两个数据得到中位数。
什么时候该用中位数而不是平均数来表示呢?如下表,一项可用性研究中12名参加者完成某任务的时间(秒)。
上图这组数据中,第12位参与者大大拉高了平均值,但是中位数不受其影响。所以一般情况下存在某些数据偏差太大的情况,中位数比平均数更适用。
c.众数
能用字面意思理解的概念都是好概念,众数也同样可以从字面理解,就是出现次数最多的那个数值。如1、2、2、3、6这组数据的众数为2。众数的使用场景比较少,但当一组数据包含的数值范围很小(如1-3分的主观评价量表,满意、一般、不满意)时,众数会更有价值。
一般收集到用户数据后,我们录入和分析工具使用最多的是excel和spss,数据量未超过一万条(样本量未超1万)可以直接在excel中进行计算,超过一万条后excel的处理速度会变慢,可以考虑spss或其他统计软件。
[excel 计算方法]
(1)平均数:可以用“=AVERAGE”函数计算
(2)中数:可以用“=MEDIAN”函数计算
(3)众数:可以用“=MODE”函数计算
离散趋势
实例:
新版本上线后针对操作简便性与账户安全性两个维度进行满意度的问卷调研。现选取10名核心用户分别在两个维度上进行满意度评分,结果如下表。
如上表,两组得分数据平均值均为5.5,但是操作简便性维度上,10名用户间的差异很大,而账户安全性维度上10名用户的差异很小。也就是说,在操作简便性上,其实只有一半用户表示最为满意,但另一半用户认为一般及不满意;在账户安全性维度上,所有用户都较满意,评价较统一。
平均数相同的两个维度,其实样本间差异非常大,这时候如果只用平均数来表示这次调研的整体表现,结果就会对读者产生误导,因为样本间的差异过大时将平均数作为产品的评判和改进依据是没有意义的,应该从离散的数据中找到数据背后的疑问点进行深入了解。
如果发现了样本背景有差异,则应该进一步分析,比如按照不同样本背景将用户进行分组,验证是否的确由于这个原因引起了整体数据的离散,然后再通过其他质性的方式深入了解样本背景与其数据表现的相关性或因果性。
从上面的事例中,我们发现:除了需要报告数据的集中趋势,数据的离散趋势即变异性也是必不可少的。
变异性描述统计显示的是数据的分散或离散程度。如上表中,不同用户对操作简便性满意度的评分差异很大,也就是说数据离散程度高、集中趋势低;不同用户对账户安全性满意度的评分差异较小,也就是说数据离散程度低、集中趋势高。
在实际的数据统计中,在99.9%的情况下,我们都无法像上述例子那样直接用肉眼判断数据的离散程度,需要借助几个数据指标来判断。表示离散趋势的常见指标为全距(range)、方差(variance)和标准差(standard deviation)。
a.全距
全距就是一组数据中最大值和最小值之间的距离。计算最大值和最小值的差距即发现极端值,所以查看全距大小是初步检验数据离散趋势的一个最快捷方法。
b.方差
方差说明的是一组数据中每个数据与平均数的离散程度。具体公式在此就不细述,因为感谢强大的excel公式,足以帮我们从繁复的公式中解放出来。具体操作详见下文[excel计算方法]部分。
c.标准差
标准差其实就是开方后的方差。标准差的原理和方差的原理是一样的,只是将方差开方后,它的单位与原始数据单位就一致了,所以业内普遍用标准差反映数据的离散程度。标准差越大就说明每个数据与平均值的差异很大,能够证明这组数据之间差异很大(离散程度高)。
[excel计算方法]
(1)全距:用“=MIN”函数得到最小值;用“=MAX”函数得到最大值;MAX-MIN得到的就是全距
(2)方差:用“=VAR”函数就可以得出方差
(3)标准差:用“=STAEV”函数就能得出标准差
置信区间
上述满意度的问卷中,考虑到成本和时间等各方面因素,只能搜集到200份有效问卷,如果老板对于得出的数据结果有质疑:200份够吗?可以代表总体的实际评分吗?这时候就可以潇洒地甩一个置信区间给他(老板我这么说你是不会介意 对吗,看了这里不要扣我绩效)。
置信区间是对总体样本实际平均值的估计。一般情况下是先自己设置好置信区间,再算出这个置信区间下真实的平均数范围是什么样。
如置信区间是95%,说明你得出的“真实的平均数范围”这一结论它的可信度在95%,相应的错误概率(也就是α系数,α系数在计算操作的时候会用到)就是5%。
我们通常选用的置信区间有99%、95%和90%。如果你需要估值的置信区间有更大的把握,就选择99%的置信区间;如果对需要估值的置信区间不是很有把握,就选择90%的置信区间。
实例:
如果我们需要根据上述10名用户对账户安全性的满意度评分来估计总样本的实际满意度,我们不可能让所有用户都来填写问卷,但是你可以根据获得的10份样本估计满意度可能的范围(这里只是用虚拟的数据举例,实际的问卷调研样本数量要求会根据具体情况而定)。
在上表中,得到平均数为5.5,90%置信区间下的估值结果为0.15(0.145269539,取小数点后两位),所以可以将结果表述为这个平均数的90%置信区间是5.5±0.15。也就是说,你有90%的把握判断出所有用户对账户安全性的满意度在5.35至5.65之间(置信区间非常有用,可以当作汇报平均值的常规项)。数据分析培训
[excel计算方法]
在excel中用“CONFIDENCE”函数“=CONFIDENCE(α系数、标准差、样本量)”就能快速计算置信区间。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12在数字化转型深度渗透的今天,企业管理已从“经验驱动”全面转向“数据驱动”,数据思维成为企业高质量发展的核心竞争力,而CDA ...
2026-03-12在数字经济飞速发展的今天,数据分析已从“辅助工具”升级为“核心竞争力”,渗透到商业、科技、民生、金融等各个领域。无论是全 ...
2026-03-11上市公司财务报表是反映企业经营状况、盈利能力、偿债能力的核心数据载体,是投资者决策、研究者分析、从业者复盘的重要依据。16 ...
2026-03-11数字化浪潮下,数据已成为企业生存发展的核心资产,而数据思维,正是CDA(Certified Data Analyst)数据分析师解锁数据价值、赋 ...
2026-03-11线性回归是数据分析中最常用的预测与关联分析方法,广泛应用于销售额预测、风险评估、趋势分析等场景(如前文销售额预测中的多元 ...
2026-03-10在SQL Server安装与配置的实操中,“服务名无效”是最令初学者头疼的高频问题之一。无论是在命令行执行net start启动服务、通过S ...
2026-03-10在数据驱动业务的当下,CDA(Certified Data Analyst)数据分析师的核心价值,不仅在于解读数据,更在于搭建一套科学、可落地的 ...
2026-03-10在企业经营决策中,销售额预测是核心环节之一——无论是库存备货、营销预算制定、产能规划,还是战略布局,都需要基于精准的销售 ...
2026-03-09金融数据分析的核心价值,是通过挖掘数据规律、识别风险、捕捉机会,为投资决策、风险控制、业务优化提供精准支撑——而这一切的 ...
2026-03-09在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心工作,是通过数据解读业务、支撑决策,而指标与指标体系 ...
2026-03-09在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04