大数据培训_机器学习模型的评价指标和方法
衡量分类器的好坏
分类模型评估用于对分类模型的预测结果进行评估,分别可以对二分类模型和多分类模型进行评估,具体由目标变量的类别数来确定。
对于二分类模型,评估指标包括:混淆矩阵(Confusion Matrix)、精确率(Precision)、召回率(Recall)、F1值(F1-Measure)、AUC、ROC曲线(Receiver Operating Characteristic)、PR曲线(Precision and Recall)。
对于多分类模型,评估指标包括混淆矩阵(Confusion Matrix)、准确率(Accuracy)、各类别精准率(Precision by Label)、各类别召回率(Recall by Label)、各类别F1值(F1-Measure by Label)。
二分类问题
对于二分类问题,要求将实际样本分成正样本(positive)或负样本(negative),则预测结果会出现以下四种情况:
二分类问题的预测结果
实际 | 预测 | 结果 |
正样本 | 正样本 | 真正样本(TP) |
负样本 | 正样本 | 假正样本(FP) |
负样本 | 负样本 | 真负样本(TN) |
正样本 | 负样本 | 假负样本(FN) |
例如下述场景:某班有60名男生,40名女生,共100人。目标要找出所有的女生。现在某人挑选出了50人,其中有35名女生,15名男生,则:
真正样本(TP):35(预测正确的女生)
假正样本(FP):15(误当女生预测的男生)
真负样本(TN):45(预测正确的男生)
假负样本(FN):5(误当男生预测的女生)
可得到以下标量来评估这次的分类工作:
精确率:Precision=TP/(TP+FP)
召回率:Recall=True Positive Rate(TPR)=TP/(TP+FN)
F1测量:F1-Measure=2TP/(2TP+FP+FN)
FPR:False Positive Rate(FPR)=FP/(FP+TN)
PR曲线:以Precision为y轴,Recall为x轴绘制得到的曲线。
ROC曲线:以TPR为y轴,FPR为x轴绘制得到的曲线。
AUC数据:ROC曲线下方的面积值。
要计算这些指标,模型评估输入数据集中需要包含Target列,该列数据元数据的第二个Nominal值代表正样本。
对于多分类问题,根据多个类别的预测结果构建混淆矩阵,每一列代表预测值,每一行代表实际的类别。
准确率(Accuracy)是指全局预测正确的样本数占所有样本数的比例。
各类别精准率(Precision by Label)是指在该类别中预测正确样本数占预测为该类别样本数的比例。
各类别召回率(Recall by Label)是指在该类别中预测正确的样本数占该类别实际样本数的比例。
各类别F1值(F1-Measure by Label)是根据各类别精准率和召回率计算得到的评价指标。
评判标准
AUC表示为ROC曲线下方的面积,简单来说,AUC值越大,说明模型分类正确率
越高。
准确率表示样本中被识别成正样本准确率,即正样本被识别成正样本的个数与所
有样本被识别成正样本个数比例,衡量模型的查准率,数值越高越好。
召回率表示样本中正样本被识别成正样本的比例,即被识别成正样本的个数与实
际正样本的个数比例,衡量模型的查全率,数值越高越好。
F1 score是统计学中用来衡量二分类模型精确度的一种指标。可以看作是模型准确
率和召回率的一种加权平均,数值越高越好。