机器学习分类模型评估(一)准确率、精确率、查准类、召回率等

机器学习分类模型评估(一)准确率、精确率、查准类、召回率等准确率(accuracy)、精确率(Precision)、查准类、召回率(Recall)、查全率概念准确率(accuracy),精确率(Prec

大家好,欢迎来到IT知识分享网。

准确率(accuracy)、精确率(Precision)、查准类、召回率(Recall)、查全率概念

准确率(accuracy),精确率(Precision)和召回率(Recall)是信息检索,人工智能,和搜索引擎的设计中很重要的几个概念和指标。

准确率(accuracy):预测对的/所有 = (TP+TN)/(TP+FN+FP+TN) 。实际上非常简单,准确率是我们最常见的评价指标,而且很容易理解,就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好。Acc = (TP + TN)/(P+N) = (TP + TN)/(TP + FN + FP + TN)

精确率(precision)、查准类:Precision = TP / (TP + FP)。精确率是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP)

召回率(recall)、查全率:Recall = TP/(TP + FN)。是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。

其中TP代表正确(TURE)预测出正样类(POSITIVE)、FN代表错误(FALSE)预测成负类(NEGTIVE)而真实标签为正样本。FP代表将负类预测为正类数,TN代表将负类预测为负类数,这些指标源于下表。

机器学习分类模型评估(一)准确率、精确率、查准类、召回率等

举例说明

先假定一个具体场景作为例子。假如某个班级有男生80人,女生20人,共计100人,目标是找出所有女生,某人挑选出50个人,其中20人是女生,另外还错误的把30个男生也当作女生挑选出来了。

TP=20,FP=30,FN=0,TN=50。

accuracy:分类正确的人占总人数的比例。他把其中70(20女+50男)人判定正确了,而总人数是100人,所以它的accuracy就是70 %。

当正负样本比例失调时,单纯的依靠准确率不靠谱。例如99个负样本,1个正样本,将样本全部判断为负即可达到99%的准确率。

Precision:TP / (TP + FP)=(20)/(20+30男生误判为女生)=40%

Recall :TP/(TP + FN)=(20)/(20+0女生误判为男生)=100%

总结

以上讲述了准确率(accuracy)、精确率(Precision)、查准类、召回率(Recall)、查全率之间的区别以及计算,下一章讲述机器学习分类模型评估F值(F-Measure)、AUC、ROC等概念

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/49853.html

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信