Precision(精确率 / 查准率)和 Recall(召回率 / 查全率)是分类任务中常用的两种性能度量,它们用于评估模型在处理二分类或多分类问题时的表现。
Precision(精确率)
精确率衡量的是模型预测为正类的样本中,真正为正类的比例。它回答了以下问题:
- 在所有被模型预测为正类的样本中,有多少是真正的正类?
精确率的计算公式为:
其中:
- TP(True Positive):真正例,即被正确预测为正类的样本数。
- FP(False Positive):假正例,即被错误预测为正类的样本数。
Recall(召回率)
召回率衡量的是实际为正类的样本中,被正确预测为正类的比例。它回答了以下问题:
- 在所有实际为正类的样本中,有多少被模型正确地识别出来?
召回率的计算公式为:
其中:
- TP(True Positive):真正例,即被正确预测为正类的样本数。
- FN(False Negative):假负例,即被错误预测为负类的样本数。
python使用示例
from sklearn.metrics import confusion_matrix, precision_score, recall_score
y_true = [0, 1, 1, 0, 1, 0, 1, 1, 0, 1]
y_pred = [0, 1, 0, 0, 1, 0, 1, 0, 0, 1]
cm = confusion_matrix(y_true, y_pred)
print("Confusion Matrix:\n", cm)
precision = precision_score(y_true, y_pred)
print(f'Precision (精确率): {precision}')
recall = recall_score(y_true, y_pred)
print(f'Recall (召回率): {recall}')
Precision和Recall的权衡
精确率和召回率之间通常存在权衡关系:
- 高精确率意味着预测为正类的样本中大部分是真正的正类,但可能会漏掉一些实际为正类的样本(召回率较低)。
- 高召回率意味着大部分实际为正类的样本都被正确识别,但可能会误将一些负类样本预测为正类(精确率较低)。
为了综合考虑精确率和召回率,可以使用F1-score,它是精确率和召回率的调和平均数:
F1-score提供了一个单一的度量来平衡精确率和召回率,特别适用于类不平衡的数据集。
总结
- Precision(精确率):在所有被预测为正类的样本中,真正为正类的比例。
- Recall(召回率):在所有实际为正类的样本中,被正确预测为正类的比例。