集团站切换校区

验证码已发送,请查收短信

复制成功
微信号:togogoi
添加微信好友, 详细了解课程
已复制成功,如果自动跳转微信失败,请前往微信添加好友
打开微信
图标

业界新闻

当前位置:首页 > >业界新闻 > >

大数据培训_机器学习模型的评价指标和方法

发布时间: 2019-08-16 13:36:01

  大数据培训_机器学习模型的评价指标和方法

  衡量分类器的好坏
  分类模型评估用于对分类模型的预测结果进行评估,分别可以对二分类模型和多分类模型进行评估,具体由目标变量的类别数来确定。
  对于二分类模型,评估指标包括:混淆矩阵(Confusion Matrix)、精确率(Precision)、召回率(Recall)、F1值(F1-Measure)、AUC、ROC曲线(Receiver Operating Characteristic)、PR曲线(Precision and Recall)。

  对于多分类模型,评估指标包括混淆矩阵(Confusion Matrix)、准确率(Accuracy)、各类别精准率(Precision by Label)、各类别召回率(Recall by Label)、各类别F1值(F1-Measure by Label)。

  二分类问题
  对于二分类问题,要求将实际样本分成正样本(positive)或负样本(negative),则预测结果会出现以下四种情况:
​  二分类问题的预测结果​

实际

预测

结果

正样本

正样本

真正样本(TP)

负样本

正样本

假正样本(FP)

负样本

负样本

真负样本(TN)

正样本

负样本

假负样本(FN)

  例如下述场景:某班有60名男生,40名女生,共100人。目标要找出所有的女生。现在某人挑选出了50人,其中有35名女生,15名男生,则:
  真正样本(TP):35(预测正确的女生)
  假正样本(FP):15(误当女生预测的男生)
  真负样本(TN):45(预测正确的男生)
  假负样本(FN):5(误当男生预测的女生)
  可得到以下标量来评估这次的分类工作:
  精确率:Precision=TP/(TP+FP)
  召回率:Recall=True Positive Rate(TPR)=TP/(TP+FN)
  F1测量:F1-Measure=2TP/(2TP+FP+FN)
  FPR:False Positive Rate(FPR)=FP/(FP+TN)
  PR曲线:以Precision为y轴,Recall为x轴绘制得到的曲线。
  ROC曲线:以TPR为y轴,FPR为x轴绘制得到的曲线。
  AUC数据:ROC曲线下方的面积值。
  要计算这些指标,模型评估输入数据集中需要包含Target列,该列数据元数据的第二个Nominal值代表正样本。
  对于多分类问题,根据多个类别的预测结果构建混淆矩阵,每一列代表预测值,每一行代表实际的类别。
  准确率(Accuracy)是指全局预测正确的样本数占所有样本数的比例。
  各类别精准率(Precision by Label)是指在该类别中预测正确样本数占预测为该类别样本数的比例。
  各类别召回率(Recall by Label)是指在该类别中预测正确的样本数占该类别实际样本数的比例。
  各类别F1值(F1-Measure by Label)是根据各类别精准率和召回率计算得到的评价指标。

大数据培训
  评判标准
  AUC表示为ROC曲线下方的面积,简单来说,AUC值越大,说明模型分类正确率
  越高。
  准确率表示样本中被识别成正样本准确率,即正样本被识别成正样本的个数与所
  有样本被识别成正样本个数比例,衡量模型的查准率,数值越高越好。
  召回率表示样本中正样本被识别成正样本的比例,即被识别成正样本的个数与实
  际正样本的个数比例,衡量模型的查全率,数值越高越好。
  F1 score是统计学中用来衡量二分类模型精确度的一种指标。可以看作是模型准确
  率和召回率的一种加权平均,数值越高越好。
​​

上一篇: Linux性能调优,从优化思路说起

下一篇: CentOS7安装Nginx

在线咨询 ×

您好,请问有什么可以帮您?我们将竭诚提供最优质服务!