京公网安备 11010802034615号
经营许可证编号:京B2-20210330
用R语言分析报表访问的相关性
用R语言分析报表访问的相关性
1.起因
公司有几个提供数据系统,我负责其中一些系统的日常运维。其中最大的一个系统(有上千张的报表、清单)偶尔会有一些状况出现。而如果早上有问题,客服中心(呼叫中心)立即会对此进行严重投诉,并强调所有坐席都受到影响。印象中此类投诉一般出现在上午9点,而到了其他时间段,就算系统出现状况,他们也不会有投诉了。所以一直想分析一下客服中心的访问模式、访问重点是什么。另外,对于报表的总体访问情况也一直很有兴趣看一看。
这个工作一直没有去做。原因多种多样。最近有点时间,就打算用R来分析一下看看会有什么结果。
2.实战
a.数据整理。
进行数据分析,不能避免的第一步就是数据提取和整理。报表的每次点击都会有日志存放在数据库中,从最近一次系统升级到现在经过了19个月,一共有38万次点击,点击记录、点击用户、用户所属单位等信息分别存放在不同的表中。初始的关联工作我就利用数据库来完成了。也尝试过倒出来用R的merge函数,但是发现运行后R崩溃了。感觉是几十万的数据进行merge对我的机器来说可能太大了一些。既然手边有数据库,那很多初期工作就可以交给sql了,然后再利用R对初步整理好的数据框进行后续的各种处理。
最后生成的数据文件是如下格式的(csv文件)(部分字段进行了处理,以下是的简化版,呃.....实际折腾数据的过程总是有点复杂的):
"date","yyyymm","yyyy","mm","dd","day","hour","rpt_name","tag","dept"
"20120627","201206","2012","06","27","4","10","EVT_电话记录","事务报表","客户服务中心"
"20120627","201206","2012","06","27","4","10","SSR_投诉清单","投诉报表","东区"
....
字段的含义很明确,依次是:日期、年月、年、月、日、星期(1代表周日,2代表周一,etc)、小时、报表名、二级单位。
将数据读入。由于每个字段都有分析价值,所以每个字段都设为因子,并按照字符方式读入:
rptd <- read.csv("vis130730.csv",head=TRUE,stringsAsFactors=TRUE,sep=",",na.strings=" ",colClasses=c("character"))
读入数据后,用str(rptd)检查数据框结构时,发现所有的字段都不是因子。这是为什么?我不是已经设定stringsAsFactors=TRUE了么?看了一下手册,原来对于指定了字段类型的字段都将作为非因子读入,该选项无效。那就先这样吧,等需要的时候再进行因子化。
好了,数据初步整理完毕,接下来就要借助可视化分析了。这应该是R的强项之一了。
加载所需的加装包:
library(plyr)
library(reshape)
library(ggplot2)
b.客服中心在一天之中的报表访问情况是什么样的呢?
筛选出客服中心的数据(约有接近8万条,是总访问量的20%):
rptdkf <- rptd[rptd$dept=="客户服务中心",]
然后按照小时来绘图:
qplot(hour,data=rptdkf,xlab="小时",ylab="访问次数")
我们看到这样的结果:

有点令人失望。虽然大量访问集中在上午,但是并没有出现我预想中的“访问非常集中在8-9点”这样的情况,而是符合一般上午时点访问最多(8-11点,8点段访问少于9点段,应该是因为8:30才上班),中午休息,然后下午有一定访问量这种模式。
那么,在8-10点之间访问最多的报表是哪些呢?这些报表应该是维护的重中之重吧。我们再次进行筛选,并统计所有报表在这段时间的访问次数,按照访问次数的高低进行排序,可以看到有几张报表的访问频次远远超过其他报表:
rptdkf1 <- rptd[(rptdkf$hour=="08" | rptdkf$hour=="09" ),]
cnt <- ddply(rptdkf,.(rpt_name),nrow)
cnt <- cnt[order(cnt$V1,decreasing=TRUE),]
cnt
(结果略,可以发现有5张报表的访问量是其他报表的几倍、十几倍)
可以预计这些数据对于客服中心的人员是最重要,这些可以作为大家运行保障的重点(嗯,这话很像领导的口气)。这个信息当然也可以通过用户访谈得到,但是用户可能出于各种原因夸大重点报表的范围,对运维形成误导。而通过访问数据来分析就可能更准确地反映问题了。这并不是说访谈不重要,可能确实有些报表是少量管理人员每天上班要重点关注的,这需要通过访谈来甄别发现。这个工作就暂略了。
c.总体访问情况:
按照月份绘制了报表总体曲线,如下:
qplot(yyyymm, data=rptd,xlab="月份",ylab="访问次数")

可以看到访问量今年有所减少。13年的每个月对应12年的相应月份看也是在减少。这个可能是其他新的报表系统的替代作用。所以如果结合对其他报表系统访问情况的分析能看出一些其他的信息来。
分公司对报表的访问量占到了总访问量的60%,我们来看看他们的访问模式是什么样的。由于市场部等管理部门对各个分公司的工作有管理、指导的职责,所以我们将他们(他们占总访问量占10%)也纳入分析,我们用%in%筛选出这些单位,并按照个单位作图。
我们按照按照各个分公司绘制了按月的访问曲线:
rptdsub <- rptd[rptd$dept %in% c("宝山","北区","崇明","东区","奉贤","嘉定","金山","南区","浦东","青浦","莘闵","松江","西区","中区","市场部","政企客户部","公众客户部"),]
qplot(yyyymm, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)

可以看到各个单位的访问量是有很大差异,虽然总体的访问次数是略有下降的,但是对应到不同的单位,可以看到有的在增加。或许这些访问在增加的单位加大了数据分析的力度,也可能是他们有分析的需求,但是对其他新的数据系统不够了解,所以没有好好利用新系统,而只能重点使用该系统。我们还可以看到浦东分公司的访问量最大(实际上超过了管理部门之和),中区分公司的访问量下降最明显。另外市区公司的访问量普遍高于郊区公司。这个可能和郊区竞争不激烈、人员配备较少有关。
再按照访问的钟点作图:
qplot(hour, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)

我们还可以看到有些单位(金山、宝山)上班可能比标准时间早半个小时,因为他们在8点档的访问量超过9点档,与其他单位明显不同。有些单位下了班后就没有点击量了,有些单位明显勤快很多。另外,我们还可以注意到有些单位8点档几乎没有访问量,而到了9点的访问量也不是很多(呃,就不点名了,可能是他们的工作重点有所不同吧.....)
d.访问相关性。
最后,我们来看看分公司和市场等管理部门之间的访问相关性。我们采用多维定标(MDS)算法(参考《机器学习:实用案例解析》)。
首先我们需要建立一个访问矩阵,每行是各个单位,每列是各张报表。如果某个单位访问了某张报表,则对应的单元格填1,如果没有就填0。这个操作在数据库上好像很不好办(我不知道简单的实现办法,如果有人知道,烦请赐教)。原来想用循环的方式来做,忽然想到了reshape包的cast命令应该能完成这样的工作:
mds1 <- cast(mdsd, abbr~rpt_name)
第一列是单位的名称,我们需要将其剔除,剩余部分转化为一个矩阵。第一列转化为行名,原来的字段名(剔除第一个的dept)作为列名:
mds.m <- as.matrix(mds[,2:ncol(mds)])
row.names(mds.m) <- t(as.matrix(mds[,1]))[1,]
colnames(mds.m) <- colnames(mds)[2:ncol(mds)]
矩阵做好了,代码非常简洁,我相信,光凭reshape包,R就物超所值了。看了一下,发现交叉点上的值不是0和1,而是访问次数。我们再将所有非0的值都赋为1:
mds.m[mds.m>0] <- 1
好了,我们得到我们要的矩阵了,以下就是按部就班的操作:计算距离并作图:
mds.mute <- mds.m %*% t(mds.m)
mds.dist <-dist(mds.mute)
mds.g <- cmdscale(mds.dist)
plot(mds.g, type='n')
text(mds.g, row.names(mds.g))
最终看到的图如下:

真是令人意外:各个分公司与管理部门之间所看的报表情况竟然如此旗帜鲜明地分成两个聚类。这说明什么呢?二级公司与管理部门之间的分析思路和重点不同?管理部门没有将管理思路贯彻到各个分公司?还是说管理部门有秘而不宣的武器呢?
另外,分公司之间也有比较明显的区分:市区公司和郊区公司的关注重点明显有一定的差异。这个在IT部门以后开发支持分公司经营的数据应用时,也可以作为调研访谈的参考吧。
对于报表点击情况的简要分析就到此为止了。我到达了分析的目标,也顺便演练了数据筛选、作图、相关性分析等工作。除掉数据整理的工作,核心代码也就不到二十句,就做出了有点意思的功能了。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
【专访摘要】本次CDA持证专访邀请到拥有丰富物流供应链数据分析经验的赖尧,他结合自身在京东、华莱士、兰格赛等企业的从业经历 ...
2026-05-12在手游行业存量竞争日趋激烈、流量成本持续高企的当下,“拉新”早已不是行业核心痛点,“留存”尤其是“付费留存”,成为决定手 ...
2026-05-12 很多数据分析师掌握了Excel函数、会写SQL查询,但当被问到“数据从哪里来”“数据加工有哪些步骤”“如何使用分析工具连接数 ...
2026-05-12用户调研是企业洞察客户需求、优化产品服务、制定运营策略的核心前提,而调研数据的可靠性,直接决定了决策的科学性与有效性。在 ...
2026-05-11在市场竞争日趋激烈、流量成本持续攀升的今天,企业的核心竞争力已从“获取流量”转向“挖掘客户价值”。客户作为企业最宝贵的资 ...
2026-05-11 很多数据分析师精通Excel单元格操作,熟练应用多种公式,但当被问到“表结构数据的基本处理单位是什么”“字段和记录的本质 ...
2026-05-11在互联网运营、产品优化、用户增长等领域,次日留存率是衡量产品价值、用户粘性与运营效果的核心指标,更是判断新用户是否认可产 ...
2026-05-09相关性分析是数据分析领域中用于探究两个或多个变量之间关联强度与方向的核心方法,广泛应用于科研探索、商业决策、医疗研究、社 ...
2026-05-09 数据分析师八成以上的时间在和数据表格打交道,但许多人拿到Excel后习惯性地先算、先分析,结果回头发现漏了一列关键数据, ...
2026-05-09在数据驱动运营的时代,指标是连接业务目标与实际行动的核心桥梁,是企业解读业务现状、发现问题、预判趋势的“量化标尺”。一套 ...
2026-05-08在存量竞争日趋激烈的商业时代,“以客户为中心”早已从口号落地为企业运营的核心逻辑。而客户画像作为打通“了解客户”与“服务 ...
2026-05-08 很多数据分析师每天与Excel打交道,但当被问到“什么是表格结构数据”“它和表结构数据有什么区别”“表格结构数据有哪些核 ...
2026-05-08在数据分析、计量研究等场景中,回归分析是探究变量间量化关系的核心方法,无论是简单的一元线性回归,还是复杂的多元线性回归、 ...
2026-05-07在数据分析、计量研究等场景中,回归分析是探究变量间量化关系的核心方法,无论是简单的一元线性回归,还是复杂的多元线性回归、 ...
2026-05-07 很多数据分析师画过趋势图、做过业绩预测,但当被问到“这个月销售额增长20%,到底是长期趋势自然增长,还是促销活动的短期 ...
2026-05-07在数字化时代,商业竞争的核心已从“经验驱动”转向“数据驱动”,越来越多的企业意识到,商业分析不是简单的数据统计与报表呈现 ...
2026-05-06在Excel数据透视表的实操中,“引用”是连接透视表与公式、辅助数据的核心操作,而相对引用作为最基础、最常用的引用方式,其设 ...
2026-05-06 很多数据分析师做过按月份的销售额趋势图,画过按天的流量折线图,但当被问到“时间序列和普通数据有什么本质区别”“季节性 ...
2026-05-06在Excel数据分析中,数据透视表是汇总、整理海量数据的高效工具,而公式则是实现数据二次计算、逻辑判断的核心功能。实际操作中 ...
2026-04-30Excel透视图是数据分析中不可或缺的工具,它能将透视表中的数据快速可视化,帮助我们直观捕捉数据规律、呈现分析结果。但在实际 ...
2026-04-30