
用R语言分析报表访问的相关性
用R语言分析报表访问的相关性
1.起因
公司有几个提供数据系统,我负责其中一些系统的日常运维。其中最大的一个系统(有上千张的报表、清单)偶尔会有一些状况出现。而如果早上有问题,客服中心(呼叫中心)立即会对此进行严重投诉,并强调所有坐席都受到影响。印象中此类投诉一般出现在上午9点,而到了其他时间段,就算系统出现状况,他们也不会有投诉了。所以一直想分析一下客服中心的访问模式、访问重点是什么。另外,对于报表的总体访问情况也一直很有兴趣看一看。
这个工作一直没有去做。原因多种多样。最近有点时间,就打算用R来分析一下看看会有什么结果。
2.实战
a.数据整理。
进行数据分析,不能避免的第一步就是数据提取和整理。报表的每次点击都会有日志存放在数据库中,从最近一次系统升级到现在经过了19个月,一共有38万次点击,点击记录、点击用户、用户所属单位等信息分别存放在不同的表中。初始的关联工作我就利用数据库来完成了。也尝试过倒出来用R的merge函数,但是发现运行后R崩溃了。感觉是几十万的数据进行merge对我的机器来说可能太大了一些。既然手边有数据库,那很多初期工作就可以交给sql了,然后再利用R对初步整理好的数据框进行后续的各种处理。
最后生成的数据文件是如下格式的(csv文件)(部分字段进行了处理,以下是的简化版,呃.....实际折腾数据的过程总是有点复杂的):
"date","yyyymm","yyyy","mm","dd","day","hour","rpt_name","tag","dept"
"20120627","201206","2012","06","27","4","10","EVT_电话记录","事务报表","客户服务中心"
"20120627","201206","2012","06","27","4","10","SSR_投诉清单","投诉报表","东区"
....
字段的含义很明确,依次是:日期、年月、年、月、日、星期(1代表周日,2代表周一,etc)、小时、报表名、二级单位。
将数据读入。由于每个字段都有分析价值,所以每个字段都设为因子,并按照字符方式读入:
rptd <- read.csv("vis130730.csv",head=TRUE,stringsAsFactors=TRUE,sep=",",na.strings=" ",colClasses=c("character"))
读入数据后,用str(rptd)检查数据框结构时,发现所有的字段都不是因子。这是为什么?我不是已经设定stringsAsFactors=TRUE了么?看了一下手册,原来对于指定了字段类型的字段都将作为非因子读入,该选项无效。那就先这样吧,等需要的时候再进行因子化。
好了,数据初步整理完毕,接下来就要借助可视化分析了。这应该是R的强项之一了。
加载所需的加装包:
library(plyr)
library(reshape)
library(ggplot2)
b.客服中心在一天之中的报表访问情况是什么样的呢?
筛选出客服中心的数据(约有接近8万条,是总访问量的20%):
rptdkf <- rptd[rptd$dept=="客户服务中心",]
然后按照小时来绘图:
qplot(hour,data=rptdkf,xlab="小时",ylab="访问次数")
我们看到这样的结果:
有点令人失望。虽然大量访问集中在上午,但是并没有出现我预想中的“访问非常集中在8-9点”这样的情况,而是符合一般上午时点访问最多(8-11点,8点段访问少于9点段,应该是因为8:30才上班),中午休息,然后下午有一定访问量这种模式。
那么,在8-10点之间访问最多的报表是哪些呢?这些报表应该是维护的重中之重吧。我们再次进行筛选,并统计所有报表在这段时间的访问次数,按照访问次数的高低进行排序,可以看到有几张报表的访问频次远远超过其他报表:
rptdkf1 <- rptd[(rptdkf$hour=="08" | rptdkf$hour=="09" ),]
cnt <- ddply(rptdkf,.(rpt_name),nrow)
cnt <- cnt[order(cnt$V1,decreasing=TRUE),]
cnt
(结果略,可以发现有5张报表的访问量是其他报表的几倍、十几倍)
可以预计这些数据对于客服中心的人员是最重要,这些可以作为大家运行保障的重点(嗯,这话很像领导的口气)。这个信息当然也可以通过用户访谈得到,但是用户可能出于各种原因夸大重点报表的范围,对运维形成误导。而通过访问数据来分析就可能更准确地反映问题了。这并不是说访谈不重要,可能确实有些报表是少量管理人员每天上班要重点关注的,这需要通过访谈来甄别发现。这个工作就暂略了。
c.总体访问情况:
按照月份绘制了报表总体曲线,如下:
qplot(yyyymm, data=rptd,xlab="月份",ylab="访问次数")
可以看到访问量今年有所减少。13年的每个月对应12年的相应月份看也是在减少。这个可能是其他新的报表系统的替代作用。所以如果结合对其他报表系统访问情况的分析能看出一些其他的信息来。
分公司对报表的访问量占到了总访问量的60%,我们来看看他们的访问模式是什么样的。由于市场部等管理部门对各个分公司的工作有管理、指导的职责,所以我们将他们(他们占总访问量占10%)也纳入分析,我们用%in%筛选出这些单位,并按照个单位作图。
我们按照按照各个分公司绘制了按月的访问曲线:
rptdsub <- rptd[rptd$dept %in% c("宝山","北区","崇明","东区","奉贤","嘉定","金山","南区","浦东","青浦","莘闵","松江","西区","中区","市场部","政企客户部","公众客户部"),]
qplot(yyyymm, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)
可以看到各个单位的访问量是有很大差异,虽然总体的访问次数是略有下降的,但是对应到不同的单位,可以看到有的在增加。或许这些访问在增加的单位加大了数据分析的力度,也可能是他们有分析的需求,但是对其他新的数据系统不够了解,所以没有好好利用新系统,而只能重点使用该系统。我们还可以看到浦东分公司的访问量最大(实际上超过了管理部门之和),中区分公司的访问量下降最明显。另外市区公司的访问量普遍高于郊区公司。这个可能和郊区竞争不激烈、人员配备较少有关。
再按照访问的钟点作图:
qplot(hour, data = rptdsub,xlab="小时",ylab="访问次数") + facet_wrap(~ dept)
我们还可以看到有些单位(金山、宝山)上班可能比标准时间早半个小时,因为他们在8点档的访问量超过9点档,与其他单位明显不同。有些单位下了班后就没有点击量了,有些单位明显勤快很多。另外,我们还可以注意到有些单位8点档几乎没有访问量,而到了9点的访问量也不是很多(呃,就不点名了,可能是他们的工作重点有所不同吧.....)
d.访问相关性。
最后,我们来看看分公司和市场等管理部门之间的访问相关性。我们采用多维定标(MDS)算法(参考《机器学习:实用案例解析》)。
首先我们需要建立一个访问矩阵,每行是各个单位,每列是各张报表。如果某个单位访问了某张报表,则对应的单元格填1,如果没有就填0。这个操作在数据库上好像很不好办(我不知道简单的实现办法,如果有人知道,烦请赐教)。原来想用循环的方式来做,忽然想到了reshape包的cast命令应该能完成这样的工作:
mds1 <- cast(mdsd, abbr~rpt_name)
第一列是单位的名称,我们需要将其剔除,剩余部分转化为一个矩阵。第一列转化为行名,原来的字段名(剔除第一个的dept)作为列名:
mds.m <- as.matrix(mds[,2:ncol(mds)])
row.names(mds.m) <- t(as.matrix(mds[,1]))[1,]
colnames(mds.m) <- colnames(mds)[2:ncol(mds)]
矩阵做好了,代码非常简洁,我相信,光凭reshape包,R就物超所值了。看了一下,发现交叉点上的值不是0和1,而是访问次数。我们再将所有非0的值都赋为1:
mds.m[mds.m>0] <- 1
好了,我们得到我们要的矩阵了,以下就是按部就班的操作:计算距离并作图:
mds.mute <- mds.m %*% t(mds.m)
mds.dist <-dist(mds.mute)
mds.g <- cmdscale(mds.dist)
plot(mds.g, type='n')
text(mds.g, row.names(mds.g))
最终看到的图如下:
真是令人意外:各个分公司与管理部门之间所看的报表情况竟然如此旗帜鲜明地分成两个聚类。这说明什么呢?二级公司与管理部门之间的分析思路和重点不同?管理部门没有将管理思路贯彻到各个分公司?还是说管理部门有秘而不宣的武器呢?
另外,分公司之间也有比较明显的区分:市区公司和郊区公司的关注重点明显有一定的差异。这个在IT部门以后开发支持分公司经营的数据应用时,也可以作为调研访谈的参考吧。
对于报表点击情况的简要分析就到此为止了。我到达了分析的目标,也顺便演练了数据筛选、作图、相关性分析等工作。除掉数据整理的工作,核心代码也就不到二十句,就做出了有点意思的功能了。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
CDA数据分析师与数据指标:基础概念与协同逻辑 一、CDA 数据分析师:数据驱动时代的核心角色 1.1 定义与行业价值 CDA(Certified ...
2025-08-22Power Query 移动加权平均计算 Power Query 移动加权平均设置全解析:从原理到实战 一、移动加权平均法的核心逻辑 移动加权平均 ...
2025-08-22描述性统计:CDA数据分析师的基础核心与实践应用 一、描述性统计的定位:CDA 认证的 “入门基石” 在 CDA(Certified Data Analy ...
2025-08-22基于 Python response.text 的科技新闻数据清洗去噪实践 在通过 Python requests 库的 response.text 获取 API 数据后,原始数据 ...
2025-08-21基于 Python response.text 的科技新闻综述 在 Python 网络爬虫与 API 调用场景中,response.text 是 requests 库发起请求后获取 ...
2025-08-21数据治理新浪潮:CDA 数据分析师的战略价值与驱动逻辑 一、数据治理的多维驱动引擎 在数字经济与人工智能深度融合的时代,数据治 ...
2025-08-21Power BI 热力地图制作指南:从数据准备到实战分析 在数据可视化领域,热力地图凭借 “直观呈现数据密度与分布趋势” 的核心优势 ...
2025-08-20PyTorch 矩阵运算加速库:从原理到实践的全面解析 在深度学习领域,矩阵运算堪称 “计算基石”。无论是卷积神经网络(CNN)中的 ...
2025-08-20数据建模:CDA 数据分析师的核心驱动力 在数字经济浪潮中,数据已成为企业决策的核心资产。CDA(Certified Data Analyst)数据分 ...
2025-08-20KS 曲线不光滑:模型评估的隐形陷阱,从原因到破局的全指南 在分类模型(如风控违约预测、电商用户流失预警、医疗疾病诊断)的评 ...
2025-08-20偏态分布:揭开数据背后的非对称真相,赋能精准决策 在数据分析的世界里,“正态分布” 常被视为 “理想模型”—— 数据围绕均值 ...
2025-08-19CDA 数据分析师:数字化时代的价值创造者与决策智囊 在数据洪流席卷全球的今天,“数据驱动” 已从企业战略口号落地为核心 ...
2025-08-19CDA 数据分析师:善用 Power BI 索引列,提升数据处理与分析效率 在 Power BI 数据分析流程中,“数据准备” 是决定后续分析质量 ...
2025-08-18CDA 数据分析师:巧用 SQL 多个聚合函数,解锁数据多维洞察 在企业数据分析场景中,单一维度的统计(如 “总销售额”“用户总数 ...
2025-08-18CDA 数据分析师:驾驭表格结构数据的核心角色与实践应用 在企业日常数据存储与分析场景中,表格结构数据(如 Excel 表格、数据库 ...
2025-08-18PowerBI 累计曲线制作指南:从 DAX 度量到可视化落地 在业务数据分析中,“累计趋势” 是衡量业务进展的核心视角 —— 无论是 “ ...
2025-08-15Python 函数 return 多个数据:用法、实例与实战技巧 在 Python 编程中,函数是代码复用与逻辑封装的核心载体。多数场景下,我们 ...
2025-08-15CDA 数据分析师:引领商业数据分析体系构建,筑牢企业数据驱动根基 在数字化转型深化的今天,企业对数据的依赖已从 “零散分析” ...
2025-08-15随机森林中特征重要性(Feature Importance)排名解析 在机器学习领域,随机森林因其出色的预测性能和对高维数据的适应性,被广 ...
2025-08-14t 统计量为负数时的分布计算方法与解析 在统计学假设检验中,t 统计量是常用的重要指标,其分布特征直接影响着检验结果的判断。 ...
2025-08-14