京公网安备 11010802034615号
经营许可证编号:京B2-20210330
通过数据解释过去
数据的作用主要体现在两方面:解释过去和预测未来。本篇文章介绍如何通过数据解释过去发生的事情。包括过去发生了什么事情?这些事情有什么样的规律?驱动因素是什么?是否有明显的改进或提升?等等。在开始之前我们先来介绍下数据的获取来源以及数据的特点和分类。
数据来源及分类
我们以网站的数据为例,网站的数据来自于服务确日志和网站分析工具。下面是来自网站分析工具Google Analytics的一条日志信息。在这条日志中包含了一些用户及网站的信息。Google通过对这些信息的处理产生数据,并最终生成我们所看到的网站数据报告。
我们将日志进行拆分展现,以便更加清晰的看到日志中所包含的具体信息。可以看到,每一条信息都是以一对参数和值的形式进行记录的。例如,参数t表示这条日志的类型,值pageview表示这是一条PV日志。(Google Analytics中除了PV日志,还包括event日志等其他多种日志类别)说明每条这样的日志都表示一次页面浏览。又如参数dl表示用户当前浏览的页面地址,值表示页面的具体URL。
通过观察日志中的信息可以发现,日志中所包含的信息分为两大类,也就是参数后面的值类型。一类是类别变量,这在Google Aanalytics中参数值类型为text或boolean,例如客户ID,地理位置和屏幕分辨率等。另一类是数值变量,这在Google Analytics中参数值类别为integer或currency,例如事件价值,商品数量,交易收入等。详细信息请参考《Measurement Protocol 参数参考》
类别型变量
数值型变量
在了解了Google Analytics日志中信息的分类后,我们开始分布对每个类别信息的分析方法进行说明。包括每一个类别信息的分析方法和它们所适合的图表展现形式。首先分布介绍类别型变量和数值型变量的分析方法。
单因素分析
这里再啰嗦两句,很多时候我们面对数据无法获得有用的结果或洞察,原因不是因为缺少数据,而是因为数据太多。这里我们将信息进行拆分,每次只针对一类信息进行介绍,发现其中的规律及驱动因素。避免迷失在大量无用的数据中。
前面我们说过,Google Analytics日志收集到的信息分为两类,类别变量和数值变量。下面我们分别来看下这两类信息的分析方法。
类别变量
类别变量指日志中以文本或布尔值的形式记录的信息。这类信息本身不是数据,不能直接进行运算。需要进行处理后才能转化为我们常见的数据形式。例如下面的浏览器信息。每个用户都会使用不同品类的浏览器。当用户访问网站时我们以文本形式记录下了这些浏览器的品牌信息。这类信息就属于类别变量。下面是一组浏览器的品牌信息列表。
对于浏览器品牌这样的类别变量,我们会通过计算生成频率和占比数据。用来分析不同浏览器品牌的流行及重要程度。下面是经计算获得的不同浏览器品牌出现的次数以及在所有浏览器品牌中的占比情况。可以发现,Chrome在所有浏览器中出现次数最多,为30次。占比在所有浏览器中超过50%。说明Chrome在样本数据中是较为流行的浏览器品牌。
柱状图,条形图和饼图或环形图是对类别变量频次和占比数据最好的展现形式,下面我们分别使用的条形图展示了不同浏览器品牌出现的频率,使用环形图展示了不同浏览器品牌的占比情况。
数值变量
数值变量是指日志中以数值形式记录的信息。这些信息可以直接作为数据,或者通过相互间的运算生成新的数据。例如下面的浏览深度是通过到访网站次数和浏览页面总次数计算获得的。
对于数值变量,我们通常使用描述统计来观察这组数据的集中程度和离散程度。用来描述集中程度的指标有平均数,中位数和众数。描述离散程度的有方差和标准差。通过描述统计提供的一系列指标,我们可以发现并描述数值的规律。对于浏览深度数据,通过描述统计可以发现,浏览深度集中在1.5个页面左右。标准差为0.3,表示整体数据离散程度不高。描述统计可以在Excel中数据菜单下的数据分析功能中找到。
除了描述统计外,第二个要分析的是数值的分布。其实前面的平均数,标准差,峰度和偏度几个指标已经大体描绘出了变量分布的形态,但下面的直方图更加直观的展示了数据分布。从直方图中可以看到浏览深度数据符合正态分布,概率最高的是1.5次。换句话说,浏览深度数据集中在1.5页左右,并且较为平稳,变化不大。浏览较多和较少页面的都不多。最少的页面浏览深度为1.12页。最多的页面浏览深度为2.29页。
双变量分析
在前面的单因素分析中,我们分别介绍了类别变量和数值变量的分析方法,下面我们介绍双变量的分析方法。双变量分析简单来说就是单因素的组合。我们把双变量分为三类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。分析两个变量间的关联和差异。
类别变量&类别变量
第一个双变量是类别变量&类别变量。下面是一组客户来源和是否成交情况的列表。记录了每个客户的来源以及最终是否成交的情况。其中客户来源分为线上和线下两个来源,是否成交中已成交的记录为”是”,未成交的记录为”否”。对这组数据我们使用卡方检验来分析线上与线下来源在成交率上是否有显著差异。
卡方检验的方法我们之前有单独的文章进行介绍,感兴趣的朋友可以查看详细的计算过程。这里我们粗略说明下计算过程和结果。首先,生成频率表计算出不同来源的成交与未成交数量。并由此计算出线上和线下来源的成交率数据。
第二步,根据前面频率表中的数据,按照卡方检验的方法计算出线上和线下来源成交与未成交的期望值数据。以下是经过计算获得的期望值数据。
最后,通过使用频率表和期望值的数据进行计算,线上和线下的成交率存在显著差异。具体数据请参考下表。
数值变量&数值变量
第二个双变量是数值变量&数值变量,下面是一组广告消费和点击量的数据。记录了在广告平台上的消费情况和获得的点击量数据。对于这组数据我们通过关联分析来分析消费和点击量之间的关联。
相关分析的方法有很多种,我们之前单独有文章介绍过《5种常用的相关分析方法》。这里使用相关分析来分析消费和点击量数据间的关联。通过Excel数据菜单中的数据分析功能获得消费和点击量的相关性数据为0.95,说明消费和点击量高度正相关。
对于两组数值变量,最好的展现形式是使用散点图。下面通过散点图描述了点击量与消费的关系。随着消费的增长,点击量也随之增长。在Excel的散点图中,选择添加趋势线可以自动生成回归方程和判定系数R方。点击量有91%的变化可以被解释。
类别变量&数值变量
第三个双变量是类别变量&数值变量,下面是一组每日访问量数据,分别对应了每一天网站获得的访问量数据。其中日期是类别变量,访问量是数值变量。我们在前15天和后15天分别使用了不同的推广策略。下面将分别使用Z建议和T检验分析访问量数据前后变化差异的显著性。
首先将30天的访问量数据按投放策略分为前后两组,每组各15天,然后计算出每组数据的均值和方差。具体数据如下表所示。
然后在Excel的数据菜单中选择数据分析,使用其中的Z检验进行差异显著性检验。经检验,在95%的置信区间下两组访问量数据间不存在显著性差异。
T检验和Z检验类似,我们在Excel对数据菜单中选择数据分析,使用T检验对两组访问量数据进行差异显著性检验,经检验在95%的置信区间下两组访问量数据不存在显著差异。
最后,总结一下整篇文章的内容。我们将信息分为两类,类别变量和数值变量,类别变量是以文本或布尔值记录的信息,数值变量是以数字记录的信息。在单独对这两类信息进行分析时,类别变量通常使用频率和占比的方法,数值变量通常使用藐视统计和数据分布的方法进行分析。在双变量分析中,主要分析两个变量间的关联和差异的显著性。双变量分析分为三大类,分别为类别变量&类别变量,数值变量&数值变量和类别变量&数值变量。第一种类别变量&类别变量通过卡方检验分析数据间差异的显著性。数值变量&数值变量通过线性相关分析发现数据间的关系。类别变量&数值变量通过Z检验和T检验分析数据间差异的显著性。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
B+树作为数据库索引的核心数据结构,其高效的查询、插入、删除性能,离不开节点间指针的合理设计。在日常学习和数据库开发中,很 ...
2026-01-30在数据库开发中,UUID(通用唯一识别码)是生成唯一主键、唯一标识的常用方式,其标准格式包含4个短横线(如550e8400-e29b-41d4- ...
2026-01-30商业数据分析的价值落地,离不开标准化、系统化的总体流程作为支撑;而CDA(Certified Data Analyst)数据分析师,作为经过系统 ...
2026-01-30在数据分析、质量控制、科研实验等场景中,数据波动性(离散程度)的精准衡量是判断数据可靠性、稳定性的核心环节。标准差(Stan ...
2026-01-29在数据分析、质量检测、科研实验等领域,判断数据间是否存在本质差异是核心需求,而t检验、F检验是实现这一目标的经典统计方法。 ...
2026-01-29统计制图(数据可视化)是数据分析的核心呈现载体,它将抽象的数据转化为直观的图表、图形,让数据规律、业务差异与潜在问题一目 ...
2026-01-29箱线图(Box Plot)作为数据分布可视化的核心工具,能清晰呈现数据的中位数、四分位数、异常值等关键统计特征,广泛应用于数据分 ...
2026-01-28在回归分析、机器学习建模等数据分析场景中,多重共线性是高频数据问题——当多个自变量间存在较强的线性关联时,会导致模型系数 ...
2026-01-28数据分析的价值落地,离不开科学方法的支撑。六种核心分析方法——描述性分析、诊断性分析、预测性分析、规范性分析、对比分析、 ...
2026-01-28在机器学习与数据分析领域,特征是连接数据与模型的核心载体,而特征重要性分析则是挖掘数据价值、优化模型性能、赋能业务决策的 ...
2026-01-27关联分析是数据挖掘领域中挖掘数据间潜在关联关系的经典方法,广泛应用于零售购物篮分析、电商推荐、用户行为路径挖掘等场景。而 ...
2026-01-27数据分析的基础范式,是支撑数据工作从“零散操作”走向“标准化落地”的核心方法论框架,它定义了数据分析的核心逻辑、流程与目 ...
2026-01-27在数据分析、后端开发、业务运维等工作中,SQL语句是操作数据库的核心工具。面对复杂的表结构、多表关联逻辑及灵活的查询需求, ...
2026-01-26支持向量机(SVM)作为机器学习中经典的分类算法,凭借其在小样本、高维数据场景下的优异泛化能力,被广泛应用于图像识别、文本 ...
2026-01-26在数字化浪潮下,数据分析已成为企业决策的核心支撑,而CDA数据分析师作为标准化、专业化的数据人才代表,正逐步成为连接数据资 ...
2026-01-26数据分析的核心价值在于用数据驱动决策,而指标作为数据的“载体”,其选取的合理性直接决定分析结果的有效性。选对指标能精准定 ...
2026-01-23在MySQL查询编写中,我们习惯按“SELECT → FROM → WHERE → ORDER BY”的语法顺序组织语句,直觉上认为代码顺序即执行顺序。但 ...
2026-01-23数字化转型已从企业“可选项”升级为“必答题”,其核心本质是通过数据驱动业务重构、流程优化与模式创新,实现从传统运营向智能 ...
2026-01-23CDA持证人已遍布在世界范围各行各业,包括世界500强企业、顶尖科技独角兽、大型金融机构、国企事业单位、国家行政机关等等,“CDA数据分析师”人才队伍遵守着CDA职业道德准则,发挥着专业技能,已成为支撑科技发展的核心力量。 ...
2026-01-22在数字化时代,企业积累的海量数据如同散落的珍珠,而数据模型就是串联这些珍珠的线——它并非简单的数据集合,而是对现实业务场 ...
2026-01-22