京公网安备 11010802034615号
经营许可证编号:京B2-20210330
通过数据解释过去
数据的作用主要体现在两方面:解释过去和预测未来。本篇文章介绍如何通过数据解释过去发生的事情。包括过去发生了什么事情?这些事情有什么样的规律?驱动因素是什么?是否有明显的改进或提升?等等。在开始之前我们先来介绍下数据的获取来源以及数据的特点和分类。
数据来源及分类
我们以网站的数据为例,网站的数据来自于服务确日志和网站分析工具。下面是来自网站分析工具Google Analytics的一条日志信息。在这条日志中包含了一些用户及网站的信息。Google通过对这些信息的处理产生数据,并最终生成我们所看到的网站数据报告。
我们将日志进行拆分展现,以便更加清晰的看到日志中所包含的具体信息。可以看到,每一条信息都是以一对参数和值的形式进行记录的。例如,参数t表示这条日志的类型,值pageview表示这是一条PV日志。(Google Analytics中除了PV日志,还包括event日志等其他多种日志类别)说明每条这样的日志都表示一次页面浏览。又如参数dl表示用户当前浏览的页面地址,值表示页面的具体URL。
通过观察日志中的信息可以发现,日志中所包含的信息分为两大类,也就是参数后面的值类型。一类是类别变量,这在Google Aanalytics中参数值类型为text或boolean,例如客户ID,地理位置和屏幕分辨率等。另一类是数值变量,这在Google Analytics中参数值类别为integer或currency,例如事件价值,商品数量,交易收入等。详细信息请参考《Measurement Protocol 参数参考》
类别型变量
数值型变量
在了解了Google Analytics日志中信息的分类后,我们开始分布对每个类别信息的分析方法进行说明。包括每一个类别信息的分析方法和它们所适合的图表展现形式。首先分布介绍类别型变量和数值型变量的分析方法。
单因素分析
这里再啰嗦两句,很多时候我们面对数据无法获得有用的结果或洞察,原因不是因为缺少数据,而是因为数据太多。这里我们将信息进行拆分,每次只针对一类信息进行介绍,发现其中的规律及驱动因素。避免迷失在大量无用的数据中。
前面我们说过,Google Analytics日志收集到的信息分为两类,类别变量和数值变量。下面我们分别来看下这两类信息的分析方法。
类别变量
类别变量指日志中以文本或布尔值的形式记录的信息。这类信息本身不是数据,不能直接进行运算。需要进行处理后才能转化为我们常见的数据形式。例如下面的浏览器信息。每个用户都会使用不同品类的浏览器。当用户访问网站时我们以文本形式记录下了这些浏览器的品牌信息。这类信息就属于类别变量。下面是一组浏览器的品牌信息列表。
对于浏览器品牌这样的类别变量,我们会通过计算生成频率和占比数据。用来分析不同浏览器品牌的流行及重要程度。下面是经计算获得的不同浏览器品牌出现的次数以及在所有浏览器品牌中的占比情况。可以发现,Chrome在所有浏览器中出现次数最多,为30次。占比在所有浏览器中超过50%。说明Chrome在样本数据中是较为流行的浏览器品牌。
柱状图,条形图和饼图或环形图是对类别变量频次和占比数据最好的展现形式,下面我们分别使用的条形图展示了不同浏览器品牌出现的频率,使用环形图展示了不同浏览器品牌的占比情况。
数值变量
数值变量是指日志中以数值形式记录的信息。这些信息可以直接作为数据,或者通过相互间的运算生成新的数据。例如下面的浏览深度是通过到访网站次数和浏览页面总次数计算获得的。
对于数值变量,我们通常使用描述统计来观察这组数据的集中程度和离散程度。用来描述集中程度的指标有平均数,中位数和众数。描述离散程度的有方差和标准差。通过描述统计提供的一系列指标,我们可以发现并描述数值的规律。对于浏览深度数据,通过描述统计可以发现,浏览深度集中在1.5个页面左右。标准差为0.3,表示整体数据离散程度不高。描述统计可以在Excel中数据菜单下的数据分析功能中找到。
除了描述统计外,第二个要分析的是数值的分布。其实前面的平均数,标准差,峰度和偏度几个指标已经大体描绘出了变量分布的形态,但下面的直方图更加直观的展示了数据分布。从直方图中可以看到浏览深度数据符合正态分布,概率最高的是1.5次。换句话说,浏览深度数据集中在1.5页左右,并且较为平稳,变化不大。浏览较多和较少页面的都不多。最少的页面浏览深度为1.12页。最多的页面浏览深度为2.29页。
双变量分析
在前面的单因素分析中,我们分别介绍了类别变量和数值变量的分析方法,下面我们介绍双变量的分析方法。双变量分析简单来说就是单因素的组合。我们把双变量分为三类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。分析两个变量间的关联和差异。
类别变量&类别变量
第一个双变量是类别变量&类别变量。下面是一组客户来源和是否成交情况的列表。记录了每个客户的来源以及最终是否成交的情况。其中客户来源分为线上和线下两个来源,是否成交中已成交的记录为”是”,未成交的记录为”否”。对这组数据我们使用卡方检验来分析线上与线下来源在成交率上是否有显著差异。
卡方检验的方法我们之前有单独的文章进行介绍,感兴趣的朋友可以查看详细的计算过程。这里我们粗略说明下计算过程和结果。首先,生成频率表计算出不同来源的成交与未成交数量。并由此计算出线上和线下来源的成交率数据。
第二步,根据前面频率表中的数据,按照卡方检验的方法计算出线上和线下来源成交与未成交的期望值数据。以下是经过计算获得的期望值数据。
最后,通过使用频率表和期望值的数据进行计算,线上和线下的成交率存在显著差异。具体数据请参考下表。
数值变量&数值变量
第二个双变量是数值变量&数值变量,下面是一组广告消费和点击量的数据。记录了在广告平台上的消费情况和获得的点击量数据。对于这组数据我们通过关联分析来分析消费和点击量之间的关联。
相关分析的方法有很多种,我们之前单独有文章介绍过《5种常用的相关分析方法》。这里使用相关分析来分析消费和点击量数据间的关联。通过Excel数据菜单中的数据分析功能获得消费和点击量的相关性数据为0.95,说明消费和点击量高度正相关。
对于两组数值变量,最好的展现形式是使用散点图。下面通过散点图描述了点击量与消费的关系。随着消费的增长,点击量也随之增长。在Excel的散点图中,选择添加趋势线可以自动生成回归方程和判定系数R方。点击量有91%的变化可以被解释。
类别变量&数值变量
第三个双变量是类别变量&数值变量,下面是一组每日访问量数据,分别对应了每一天网站获得的访问量数据。其中日期是类别变量,访问量是数值变量。我们在前15天和后15天分别使用了不同的推广策略。下面将分别使用Z建议和T检验分析访问量数据前后变化差异的显著性。
首先将30天的访问量数据按投放策略分为前后两组,每组各15天,然后计算出每组数据的均值和方差。具体数据如下表所示。
然后在Excel的数据菜单中选择数据分析,使用其中的Z检验进行差异显著性检验。经检验,在95%的置信区间下两组访问量数据间不存在显著性差异。
T检验和Z检验类似,我们在Excel对数据菜单中选择数据分析,使用T检验对两组访问量数据进行差异显著性检验,经检验在95%的置信区间下两组访问量数据不存在显著差异。
最后,总结一下整篇文章的内容。我们将信息分为两类,类别变量和数值变量,类别变量是以文本或布尔值记录的信息,数值变量是以数字记录的信息。在单独对这两类信息进行分析时,类别变量通常使用频率和占比的方法,数值变量通常使用藐视统计和数据分布的方法进行分析。在双变量分析中,主要分析两个变量间的关联和差异的显著性。双变量分析分为三大类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。第一种类别变量&类别变量通过卡方检验分析数据间差异的显著性。数值变量&数值变量通过线性相关分析发现数据间的关系。类别变量&数值变量通过Z检验和T检验分析数据间差异的显著性。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在Excel数据分析中,数据透视表是汇总、整理海量数据的高效工具,而公式则是实现数据二次计算、逻辑判断的核心功能。实际操作中 ...
2026-04-30Excel透视图是数据分析中不可或缺的工具,它能将透视表中的数据快速可视化,帮助我们直观捕捉数据规律、呈现分析结果。但在实际 ...
2026-04-30 很多数据分析师能熟练地计算指标、搭建标签体系,但当被问到“画像到底在解决什么问题”“画像和标签是什么关系”“画像如何 ...
2026-04-30在中介效应分析中,人口统计学变量(如年龄、性别、学历、收入、职业等)是常见的控制变量或调节变量,其处理方式直接影响分析结 ...
2026-04-29在SQL数据库实操中,日期数据的存储与显示是高频需求,而“数字日期”(如20240520、20241231、45321)是很多开发者、数据分析师 ...
2026-04-29 很多分析师在设计标签时思路清晰,但真到落地环节却面临“数据在手,不知如何转化为可用标签”的困境:或因加工方式选择不当 ...
2026-04-29在手游行业竞争日趋白热化的当下,“流量为王”早已升级为“留存为王”,而付费用户留存率更是衡量一款手游盈利能力、运营质量的 ...
2026-04-28在日常MySQL数据库运维与开发中,经常会遇到“同一台服务器上,两个不同数据库(以下简称“源库”“目标库”)的表数据需要保持 ...
2026-04-28 很多分析师每天和数据打交道,但当被问到“标签是什么”“标签和指标有什么区别”“标签体系如何设计”时,却常常答不上来。 ...
2026-04-28箱线图(Box Plot)作为一种经典的数据可视化工具,广泛应用于统计学、数据分析、科研实证等领域,核心价值在于直观呈现数据的集 ...
2026-04-27实证分析是社会科学、自然科学、经济管理等领域开展研究的核心范式,其核心逻辑是通过对多维度数据的收集、分析与解读,揭示变量 ...
2026-04-27 很多数据分析师精通Excel函数和数据透视表,但当被问到“数据从哪里来”“表和视图有什么区别”“数据库管理系统和SQL是什么 ...
2026-04-27在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22