机器学习中的Accuracy,Precision,Recall和F1-Score
在模式识别和信息检索领域,二分类的问题(binary classification)是常会遇到的一类问题。例如,银行的信用卡中心每天都会收到很多的信用卡申请,银行必须根据客户的一些资料来预测这个客户是否有较高的违约风险,并据此判断是否要核发信用卡给该名客户。显然“是否会违约”就是一个二分类的问题。
如果你已经根据训练数据建立了一个模型,接下来你会用一些测试数据来评估你模型的效果,即 Evaluate model on held-out(留存) test data。通常你可能会考虑的评估指标主要有
Accuracy
Precision
Recall
F1 Score
但是这些指标常常令人混淆不清,下面我们逐个介绍并加以辨析。作为一个例子,来看表中这组分类结果
1、Accuracy
2、Precision
尽管 Accuracy 和 Precision 都可以翻译成“准确率”,但是二者含义并不相同。Precision 又称为 Positive predictive value,对于一个机器学习模型而言,假设有下图所示的预测结果:
那么,Precision = TP/(TP+FP),如果我们将B视作Positive class,那么Precision就是
“被预测成B且正确的/(被预测成B且正确的+被预测成B但错误的),即有
如果现在讨论的是一个信息检索问题,那么Precision,通常可译为“查准率”,(假设我们的目标是检索B)就是指:检索到的正确的信息(或文档)数(正确就是指与B相关)/ {检索到的正确的信息数(IR认为与B相关且确实相关) + 检索到的错误的信息数(IR认为与B相关但并不相关)}
3、Recall
Recall (常常译为”召回率“)是与 Precision 相对应的另外一个广泛用于信息检索和统计学分类领域的度量值,用来评价结果的质量。
Recall = TP/(TP + FN),同样如果我们将B视作Positive class,那么 Recall 就是
“被预测成B且正确的/(被预测成B且正确的+被预测成A但错误的(其实本来是B的)),即有
如果现在讨论的是一个信息检索问题,那么Recall通常可译为“查全率”,(假设我们的目标是检索B)就是指:检索到的正确的信息(或文档)数(正确就是指与B相关)/ {检索到的正确的信息数(IR认为与B相关且确实相关) + 没有检索到的但却相关的信息数(本来与B相关但IR认为并不相关所以未检索到的)},即检索出的相关文档数和文档库中所有的相关文档数的比率。
显然, Precision 和 Recall 两者取值在0和1之间,数值越接近1,查准率或查全率就越高。
4、F1 Score
F1 score (或称 F-score 或 F-measure) ,是一个兼顾考虑了Precision 和 Recall 的评估指标。通常, F-measure 就是指 Precision 和 Recall 的调和平均数(Harmonic mean),即数据分析师培训
更广泛的,对于一个实数β,还可以定义
数据分析咨询请扫描二维码