京公网安备 11010802034615号
经营许可证编号:京B2-20210330
分类模型是数据挖掘中应用非常广泛的算法之一,常用的分类算法有Logistic模型、决策树、随机森林、神经网络、Boosting等。针对同一个数据集,可以有这么多的算法进行分析,那如何评估什么样的模型比较合理呢?本文就讲讲常用的模型验证武器,主要包括混淆矩阵、ROC曲线、提升度、增益法和KS统计量。
一、混淆矩阵
混淆矩阵就是如下图所示的那样,也是最简单的一种模型验证方法:
通过混淆矩阵可以算出模型预测精度((a+d)/(a+b+c+d))、正例覆盖率(b/(c+d))、负例覆盖率(a/(a+b))等。通过这么些指标综合考虑模型的预测准确率。
二、ROC曲线
在讲解ROC曲线之前,我们先看看几个定义:
Sensitivity:正确预测到的正例数/实际正例总数,即b/(c+d)
Specificity:正确预测到的负例数/实际负例总数,即a/(a+b)
ROC曲线就是根据这两个指标值绘制出来的,其中x轴为1-Specificity,y轴为Sensitivity。
通过比较ROC曲线与45°直线可以直观的反映模型的好坏,但并不能从定量的角度反馈模型好是好到什么程度或模型差是差到什么程度。那么就引申出了AUC的概念,即ROC曲线下的面积。当曲线偏离45°直线越远,则AUC越大,模型相应就会越好。一般认为AUC在0.75以上,模型就可以接受了。
三、提升度Lift
在讲解提升度曲线之前,我们先看看几个定义:
Pi:测试集中正例的比例,即(c+d)/(a+b+c+d)
Ptp:正确预测到的正例个数占总观测值的比例,即d/a+b+c+d=Pi1* Sensitivity
Pfp:把负例错误地预测成正例的个数占总数的比例,即b/a+b+c+d=(1-Pi1)*(1- Specificity)
Depth:预测成正例的比例,即b+d/a+b+c+d=Ptp+Pfp
PV_Plus:正确预测到的正例数/预测正例总数,即d/(b+d)=Ptp/depth
提升度Lift=(d/b+d)/(c+d/a+b+c+d)=PV_plus/Pi1
Lift曲线就是根据Depth和Lift两个指标绘制而成,它反映了预测正例的正真准确率。
四、增益法Gain
其实增益法Gain与提升度是一个事物的两种说法,从公式中就可以看出:
Gain=d/(b+d)=PV_plus
Gain与提升度相比并没有除以Pi值。
五、K-S统计量
统计学中,对于单样本的K-S检验就是利用样本数据来推断其是否服从某种分布,对于两样本的K-S检验主要推测的是两个样本是否具有相同的分布,对于模型的评估,希望正例的累积概率分布与负例的累积概率分布存在显著差异。
所以我们使用K-S统计量刻画模型的优劣,即使正例与负例的累积概率差达到最大。这是一个定量的判断规则,如下图所示,为传统的评价准则
:
通常要求模型KS值在0.4以上。
废话不多说,下面我们看看如何使用R语言实现这些评估模型的方法。
实例操作:
```{r}
#读取数据
dmagecr <- read.table(file = file.choose(), head = TRUE, sep = '')
#数据结构
str(dmagecr)
```
其中,二分变量good_bad为目标变量,Logistic模型默认将good水平作为感兴趣的水平,很显然对于客户是否为优质客户的问题,这里选择good作为关注对象是错误的,下面指定bad水平为兴趣水平。
```{r}
#指定感兴趣的水平为bad
dmagecr$good_bad <- factor(dmagecr$good_bad, levels = c('good','bad'),ordered = TRUE)
#创建训练集和测试集
set.seed(1234)
index <- sample(c(1,2), size = nrow(dmagecr), replace = TRUE, prob = c(0.7,0.3))
train <- dmagecr[index == 1,]
test <- dmagecr[index == 2,]
#构建Logistic模型
model <- glm(formula = good_bad ~ checking+history+duration+savings+property, family = binomial(link = "logit"), data = train)
#模型结果查看
summary(model)
```
从上图的结果可知,模型的预测变量均为显著,即认为这些变量是模型的重要变量。光有模型的预测变量显著还不够,还需要检测模型是否显著:
```{r}
#模型的显著性检验
anova(object = model, test = 'Chisq')
```
从第一个变量到最后一个变量,逐步加入模型后,模型的偏差检验均为显著,即认为整个模型是通过检验的。下面我们再看看模型的拟合优度如何,即模型的预测与实际情况是否吻合或相近,这里使用H-L检验:
```{r}
#模型的拟合优度检验--HL检验
library(sjmisc)
HL_test <- hoslem_gof(x = model)
HL_test
```
H-L的P值显著大于0.05,即接受实际值与预测值相吻合的原假设,再次说明模型是比较理想的。接下来我们就用这个训练集得到的模型来预测测试集:
```{r}
#模型预测
probility <- predict(object = model, newdata = test[,-21], type = 'response')
predict <- ifelse(probility > 0.5, 'bad', 'good')
#转型为因子
predict <- factor(predict, levels = c('good','bad'), order = TRUE)
#模型评估混淆矩阵
Freq <- table(test[,21], predict)
#预测精度
Accuracy <- sum(diag(Freq))/sum(Freq)
Freq;Accuracy
```
从模型的预测精度来看,准确率为74.2%,模型预测并不理想。除了使用混淆矩阵来评估模型,还可以使用ROC曲线下的面积AUC、提升度Lift、增益法Gain和K-S统计量。下面就深入介绍这几种方法:
```{r}
#ROC曲线
library(pROC)
roc_curve <- roc(test[,21],probility)
names(roc_curve)
Specificity <- roc_curve$specificities
Sensitivity <- roc_curve$sensitivities
library(ggplot2)
p <- ggplot(data = NULL, mapping = aes(x= 1-Specificity, y = Sensitivity))
p + geom_line(colour = 'red') +geom_abline(intercept = 0, slope = 1)+ annotate('text', x = 0.4, y = 0.5, label=paste('AUC=',round(roc_curve$auc,2)))+ labs(x = '1-Specificity',y = 'Sensitivity', title = 'ROC Curve')
```
结果显示,AUC为0.79,相比于0.75,模型马马虎虎还能说的过去。
```{r}
#Lift曲线
Pi <- table(test$good_bad)[2]/sum(table(test$good_bad))
Ptp <- Pi*Sensitivity
Pfp <- (1-Pi)*(1-Specificity)
Depth <- Ptp + Pfp
PV_Plus <- Ptp/Depth
Lift <- PV_Plus/Pi
p <- ggplot(data = NULL, mapping = aes(x= Depth, y = Lift))
p + geom_line(colour = 'blue') + labs(x = 'Depth',y = 'Lift', title = 'Lift Curve')
```
提升度一般是这样使用的:如果某项营销活动受成本的限制,又想使营销活动取得非常成功,一般通过Lift曲线进行人员的筛选,即给定某个Lift阈值,反过来确定Depth值。如提升度相比于不作任何模型,使其达到2倍以上的响应,需要设置Depth在前25%以内。同样,我们还可以绘制Gain曲线:
```{r}
#Gain曲线
p <- ggplot(data = NULL, mapping = aes(x= Depth, y = PV_Plus))
p + geom_line(colour = 'blue') + labs(x = 'Depth',y = 'PV_Plus', title = 'Gain Curve')
```
实际上,Lift曲线与Gain曲线长的一模一样,只不过是纵坐标不同而已。
胡江堂的基于SAS模型评估系列文章中没有涉及到K-S统计量的讲解,本文就对其作一个拓展,R中还没有找到直接绘制两个连续变量的K-S曲线统计量函数,故这里自定义绘制曲线所需数据的函数:
```{r}
#准备K-S数据
ks_data <- as.data.frame(cbind(good_bad=test[,21], probility))
good_ks <- ks_data[which(ks_data$good_bad==1),'probility']
bad_ks <- ks_data[which(ks_data$good_bad==2),'probility']
#自定义计算累计分布函数值
KS_Data <- function(x, y){
gaps_x <- seq(min(x), max(x), length=1000)
cauculate_x <- numeric()
for(i in 1:length(gaps_x)){
cauculate_x[i] <- sum(x<=gaps_x[i])/length(x)
}
gaps_x <- sort((gaps_x-min(gaps_x))/(max(gaps_x)-min(gaps_x)))
gaps_y <- seq(min(y), max(y), length=1000)
cauculate_y <- numeric()
for(i in 1:length(gaps_y)){
cauculate_y[i] <- sum(y<=gaps_y[i])/length(y)
}
gaps_y <- sort((gaps_y-min(gaps_y))/(max(gaps_y)-min(gaps_y)))
return(list(df = data.frame(rbind(data.frame(Gaps = gaps_x,Cauculate = cauculate_x,Type = 'Positive'),data.frame(Gaps = gaps_y,Cauculate = cauculate_y,Type = 'Negtive'))), KS = max(abs(cauculate_y-cauculate_x)), x = gaps_y[which.max(abs(cauculate_y-cauculate_x))],y = abs(cauculate_x[which.max(abs(cauculate_y-cauculate_x))]-cauculate_y[which.max(abs(cauculate_y+cauculate_x))])/2))
}
#绘制K-S曲线
ggplot(data = KS_Data(bad_ks,good_ks)$df, mapping = aes(x = Gaps, y = Cauculate, colour = Type)) + geom_line() + theme(legend.position='none') + annotate(geom = 'text', x = KS_Data(bad_ks,good_ks)$x, y = KS_Data(bad_ks,good_ks)$y, label = paste('K-S Value: ', round(KS_Data(bad_ks,good_ks)$KS,2))) + labs(x = 'Probility', y = 'CDF')
上图结果显示,K-S统计量的值为0.43,根据传统的评价准则,也说明该模型还是基本行得通的。
在数据挖掘实际过程中,需要横向的比较多个模型评估结果,还需要纵向的比较同一个模型不同参数调整的评估结果。通过上面所说的这些评估方法,终能够选出一个最理想的模型。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
尊敬的考生: 您好! 我们诚挚通知您,CDA Level III 考试大纲将于 2025 年 12 月 31 日实施重大更新,并正式启用,2026年3月考 ...
2025-12-31“字如其人”的传统认知,让不少“手残党”在需要签名的场景中倍感尴尬——商务签约时的签名歪歪扭扭,朋友聚会的签名墙不敢落笔 ...
2025-12-31在多元统计分析的因子分析中,“得分系数”是连接原始观测指标与潜在因子的关键纽带,其核心作用是将多个相关性较高的原始指标, ...
2025-12-31对CDA(Certified Data Analyst)数据分析师而言,高质量的数据是开展后续分析、挖掘业务价值的基础,而数据采集作为数据链路的 ...
2025-12-31在中介效应分析(或路径分析)中,间接效应是衡量“自变量通过中介变量影响因变量”这一间接路径强度与方向的核心指标。不同于直 ...
2025-12-30数据透视表是数据分析中高效汇总、多维度分析数据的核心工具,能快速将杂乱数据转化为结构化的汇总报表。在实际分析场景中,我们 ...
2025-12-30在金融投资、商业运营、用户增长等数据密集型领域,量化策略凭借“数据驱动、逻辑可验证、执行标准化”的优势,成为企业提升决策 ...
2025-12-30CDA(Certified Data Analyst),是在数字经济大背景和人工智能时代趋势下,源自中国,走向世界,面向全行业的专业技能认证,旨 ...
2025-12-29在数据分析领域,周期性是时间序列数据的重要特征之一——它指数据在一定时间间隔内重复出现的规律,广泛存在于经济、金融、气象 ...
2025-12-29数据分析师的核心价值在于将海量数据转化为可落地的商业洞察,而高效的工具则是实现这一价值的关键载体。从数据采集、清洗整理, ...
2025-12-29在金融、零售、互联网等数据密集型行业,量化策略已成为企业提升决策效率、挖掘商业价值的核心工具。CDA(Certified Data Analys ...
2025-12-29CDA中国官网是全国统一的数据分析师认证报名网站,由认证考试委员会与持证人会员、企业会员以及行业知名第三方机构共同合作,致 ...
2025-12-26在数字化转型浪潮下,审计行业正经历从“传统手工审计”向“大数据智能审计”的深刻变革。教育部发布的《大数据与审计专业教学标 ...
2025-12-26统计学作为数学的重要分支,是连接数据与决策的桥梁。随着数据规模的爆炸式增长和复杂问题的涌现,传统统计方法已难以应对高维、 ...
2025-12-26数字化浪潮席卷全球,数据已成为企业核心生产要素,“用数据说话、用数据决策”成为企业生存与发展的核心逻辑。在这一背景下,CD ...
2025-12-26箱线图(Box Plot)作为数据分布可视化的核心工具,凭借简洁的结构直观呈现数据的中位数、四分位数、异常值等关键信息,广泛应用 ...
2025-12-25在数据驱动决策的时代,基于历史数据进行精准预测已成为企业核心需求——无论是预测未来销售额、客户流失概率,还是产品需求趋势 ...
2025-12-25在数据驱动业务的实践中,CDA(Certified Data Analyst)数据分析师的核心工作,本质上是通过“指标”这一数据语言,解读业务现 ...
2025-12-25在金融行业的数字化转型进程中,SQL作为数据处理与分析的核心工具,贯穿于零售银行、证券交易、保险理赔、支付结算等全业务链条 ...
2025-12-24在数据分析领域,假设检验是验证“数据差异是否显著”的核心工具,而独立样本t检验与卡方检验则是其中最常用的两种方法。很多初 ...
2025-12-24