文章目录
- 一. 混淆矩阵
- 二. 准确度(Accuracy)
- 三. 精确度(Precision)
- 四. 召回率(Recall)
- 五. F1-score
- 六. P-R曲线
- 七. AP
- 八. mAP
- 九. mAP@0.5
- 十. mAP@[0.5:0.95]
一. 混淆矩阵
- TP (True positives):被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);
- FP(False positives):被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;
- FN(False negatives):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;
- TN(True negatives):被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数;
对于yolo系列的样本,例如,coco数据集有80个类别,针对person类而言,person类别就是正例,其他79个类别就是负例;针对car类而言,car类别就是正例,其他79个类别就是负例。
二. 准确度(Accuracy)
A
c
c
u
r
a
c
y
=
T
P
+
T
N
T
P
+
T
N
+
F
P
+
F
N
{ Accuracy }=\frac{T P+T N}{T P+T N+F P+F N}
Accuracy=TP+TN+FP+FNTP+TN
准确率的概念很好理解,就是分类正确的比例,是一个非常常用的评估指标。但是,准确率高并不代表分类算法就好,当各个类别的样本分布很不均匀时,即使准确率达到99%也没用。
举个例子,如果狗的样本数为99,猫的样本数都为1,那么,分类器只需要把结果全部置为狗,就可以获得99%的正确率。所以,只靠准确率来评价一个模型的优劣是不全面的。
三. 精确度(Precision)
P
r
e
c
i
s
i
o
n
=
T
P
T
P
+
F
P
{ Precision }=\frac{T P}{T P+F P}
Precision=TP+FPTP
根据定义,Precision
的分母是TP
与FP
之和,TP
是预测为正例,真实值也为正例的个数;FP
是预测为正例,实际为负例的个数。
分析式子可知,Precision
关心的是预测的正例,以及真实的正例和负例。当Precision
越大时,FP
越小,此时将其他类别预测为本类别的个数也就越少,可以理解为预测出的正例纯度越高。Precision
越高,误检越少。
例如,在yolov5中,100个真实框,其中有50个框的类别为人,50个框的类别为车:
- yolov5的预测结果把50个人中的47个预测为人,3个预测为车,把50个车中的42个预测为车,8个预测为人:
P r e c i s i o n = T P T P + F P = 47 47 + 8 = 0.85 { Precision }=\frac{T P}{T P+F P} = \frac{47}{47+8} = 0.85 Precision=TP+FPTP=47+847=0.85
- yolov5的预测结果把50个人中的47个预测为人,3个预测为车,把50个车中的50个预测为车,0个预测为人:
P r e c i s i o n = T P T P + F P = 47 47 + 0 = 1 { Precision }=\frac{T P}{T P+F P} = \frac{47}{47+0} = 1 Precision=TP+FPTP=47+047=1
从上面的例子可以看出,精确度更关心的是,在识别的结果里,有多少的负例被识别成了正例,例如精确度为50%,则说明识别结果里,有一半的结果是将负例(其他类别)识别成了正例(本类别)
四. 召回率(Recall)
R
e
c
a
l
l
=
T
P
T
P
+
F
N
{ Recall }=\frac{T P}{T P+F N}
Recall=TP+FNTP
根据定义,Recall
的分母时TP
与FN
之和,TP
是预测为正例,真实值也为正例的个数;FN
是预测为负例,实际是正例的个数。
分析式子可知,Recall
关心的是预测的正例和负例,以及真实的正例。当Recall
越大时,FN
越小,此时将正例预测为负例的个数越少,可以理解为把全部的正例挑出来的越多。Recall
越高,漏检越少。
例如,在yolov5中,100个真实框,其中有50个框的类别为人,50个框的类别为车:
- yolov5的预测结果把50个人中的47个预测为人,3个预测为车,把50个车中的42个预测为车,8个预测为人:
R e c a l l = T P T P + F N = 47 47 + 3 = 0.94 { Recall }=\frac{T P}{T P+F N} = \frac{47}{47+3} = 0.94 Recall=TP+FNTP=47+347=0.94
- yolov5的预测结果把50个人中的30个预测为人,20个预测为车,把50个车中的42个预测为车,8个预测为人:
R e c a l l = T P T P + F N = 30 30 + 20 = 0.6 { Recall }=\frac{T P}{T P+F N} = \frac{30}{30+20} = 0.6 Recall=TP+FNTP=30+2030=0.6
从上面的例子可以看出,召回率更关心的是,在识别的结果里,有多少的正例被识别成了负例,例如召回率为50%,则说明识别结果里,有一半的结果是将正例(本类别)识别成了负例(其他类别)
五. F1-score
F
1
S
c
o
r
e
=
2
∗
P
r
e
c
i
s
i
o
n
∗
R
e
c
a
l
l
P
r
e
c
i
s
i
o
n
+
R
e
c
a
l
l
{ F1 Score }=\frac{2 * { Precision } * { Recall }}{{ Precision }+ { Recall }}
F1Score=Precision+Recall2∗Precision∗Recall
精确率和召回率是一对矛盾的指标,因此需要放到一起综合考虑。F1-score是精确率和召回率的调和平均值。故:
F
1
=
2
P
R
P
+
R
=
2
T
P
2
T
P
+
F
P
+
F
N
\mathrm{F}_{1}=\frac{2 \mathrm{PR}}{\mathrm{P}+\mathrm{R}}=\frac{2 \mathrm{TP}}{2 \mathrm{TP}+\mathrm{FP}+\mathrm{FN}}
F1=P+R2PR=2TP+FP+FN2TP
上式是当精确率和召回率的权值都为1的情况,也可以加上一个不为1的权值β :
F
β
=
1
1
+
β
2
(
1
P
+
β
2
R
)
=
(
1
+
β
2
)
P
R
β
2
P
+
R
\mathrm{F}_{\beta}=\frac{1}{1+\beta^{2}}\left(\frac{1}{\mathrm{P}}+\frac{\beta^{2}}{\mathrm{R}}\right)=\frac{\left(1+\beta^{2}\right) \mathrm{PR}}{\beta^{2} \mathrm{P}+\mathrm{R}}
Fβ=1+β21(P1+Rβ2)=β2P+R(1+β2)PR
六. P-R曲线
P-R曲线即为分别以Precision与Recall为坐标围成的曲线。不同颜色的线代表不同类别的PR曲线,蓝色的粗线条表示所有类别平均的PR曲线
P-R曲线与坐标轴围成的面积,可作为衡量一个模型预测结果的参考。若一个模型的P-R曲线完全将另一模型的P-R曲线包裹,那么这个模型预测结果一定优于另一模型。
七. AP
AP(average precision 平均精度):虽然名为平均精度,但AP的计算方法并不是计算Precision的平均值,而是计算每个类别的PR曲线与坐标轴围成的面积,可以用积分的方法进行计算。如果一个模型的AP越大,也就是说PR曲线与坐标轴围成的面积越大,Precision与Recall在整体上也相对较高。
八. mAP
mAP(mean of Average Precision) : 对所有类别的AP值求平均值。AP可以反映每个类别预测的准确率,mAP就是对所有类的AP求平均值,用于反映整个模型的准确率。mAP越大,PR曲线与坐标轴围城的面积越大。平时我们说的,某一目标检测算法的准确率达到了多少,这个准确率就泛指mAP。
九. mAP@0.5
在YOLO模型中,你会见到mAP@0.5这样的表现形式,这种形式表示在IOU阈值为0.5的情况下,mAP的值为多少。当预测框与标注框的IOU大于0.5时,就认为这个对象预测正确,在这个前提下再去计算mAP。一般来说,mAP@0.5即为评价YOLO模型的指标之一。
十. mAP@[0.5:0.95]
YOLO模型中还存在mAP@[0.5:0.95]这样一种表现形式,这形式是多个IOU阈值下的mAP,会在q区间[0.5,0.95]内,以0.05为步长,取10个IOU阈值,分别计算这10个IOU阈值下的mAP,再取平均值。mAP@[0.5:0.95]越大,表示预测框越精准,因为它去取到了更多IOU阈值大的情况。