一、本文介绍
本文记录的是改进YOLOv11
的损失函数,将其替换成Slide Loss
,并详细说明了优化原因,注意事项等。Slide Loss
函数可以有效地解决样本不平衡问题,为困难样本赋予更高的权重,使模型在训练过程中更加关注困难样本。若是在自己的数据集中发现容易样本的数量非常大,而困难样本相对稀疏,可尝试使用Slide Loss
来提高模型在处理复杂样本时的性能。
文章目录
- 一、本文介绍
- 二、Slide Loss原理
- 2.1 IoU含义
- 2.2 原理
- 2.2 优势
- 三、Slide Loss的实现代码
- 四、添加步骤
- 4.1 修改ultralytics/utils/loss.py
- 4.2 Slide Loss的调用
二、Slide Loss原理
2.1 IoU含义
IoU(P, G) = area(P∩G) / area(G)
,其中P
是预测框,G
是真实框(ground truth)。IoU
的值在[0, 1]
之间。
IoU
是预测框与真实框的交集面积与并集面积之比。它用于衡量预测框与真实框的重合程度。
2.2 原理
- 样本分类依据:
Slide Loss函数
基于预测框和真实框的IoU
大小来区分容易样本和困难样本。- 为了减少超参数,将所有边界框的
IoU
值的平均值作为阈值µ
,小于µ
的被视为负样本,大于µ
的为正样本。
- 强调边界样本:
- 但处于边界附近的样本由于分类不明确,往往会遭受较大损失。为了解决这个问题,希望模型能够学习优化这些样本,并更充分地利用这些样本训练网络。
- 首先将样本通过参数
µ
分为正样本和负样本,然后通过一个加权函数Slide
来强调处于边界的样本。 Slide加权函数
表达式为:
f ( x ) = { 1 x ≤ μ − 0.1 e 1 − μ μ < x < μ − 0.1 e 1 − x x ≥ u f(x)= \begin{cases} 1&x\leq\mu - 0.1\\ e^{1-\mu}&\mu < x <\mu - 0.1\\ e^{1 - x}&x\geq u \end{cases} f(x)=⎩ ⎨ ⎧1e1−μe1−xx≤μ−0.1μ<x<μ−0.1x≥u
2.2 优势
- 解决样本不平衡问题:
- 在大多数情况下,容易样本的数量非常大,而困难样本相对稀疏,
Slide Loss函数
可以有效地解决样本不平衡问题,使模型在训练过程中更加关注困难样本。
- 在大多数情况下,容易样本的数量非常大,而困难样本相对稀疏,
- 自适应学习阈值:
- 通过自动计算所有边界框的
IoU
值的平均值作为阈值µ
,减少了人为设置超参数的难度,提高了模型的适应性。
- 通过自动计算所有边界框的
- 提高模型性能:
- 根据论文实验结果,
Slide函数
在中等难度和困难子集上提高了模型的性能,使模型能够更好地学习困难样本的特征,提高了模型的泛化能力。
- 根据论文实验结果,
论文:https://arxiv.org/pdf/2208.02019
源码:https://github.com/Krasjet-Yu/YOLO-FaceV2/blob/d9c8f24d5dba392ef9d6b350a7c50b850051b32b/utils/loss.py#L16
三、Slide Loss的实现代码
Slide Loss
的实现代码如下:
import math
class SlideLoss(nn.Module):
def __init__(self, loss_fcn):
super(SlideLoss, self).__init__()
self.loss_fcn = loss_fcn
self.reduction = loss_fcn.reduction
self.loss_fcn.reduction = 'none' # required to apply SL to each element
def forward(self, pred, true, auto_iou=0.5):
loss = self.loss_fcn(pred, true)
if auto_iou < 0.2:
auto_iou = 0.2
b1 = true <= auto_iou - 0.1
a1 = 1.0
b2 = (true > (auto_iou - 0.1)) & (true < auto_iou)
a2 = math.exp(1.0 - auto_iou)
b3 = true >= auto_iou
a3 = torch.exp(-(true - 1.0))
modulating_weight = a1 * b1 + a2 * b2 + a3 * b3
loss *= modulating_weight
if self.reduction == 'mean':
return loss.mean()
elif self.reduction == 'sum':
return loss.sum()
else: # 'none'
return loss
四、添加步骤
4.1 修改ultralytics/utils/loss.py
此处需要修改的文件是ultralytics/utils/loss.py
loss.py
中定义了模型的损失函数和计算方法,我们想要加入新的损失函数就只需要将代码放到这个文件内即可。
Slide Loss
添加后如下:
4.2 Slide Loss的调用
在loss.py
中的v8DetectionLoss函数
中添加如下代码,使模型调用此Slide Loss函数
。
self.bce = SlideLoss(nn.BCEWithLogitsLoss(reduction="none"))
此时再次训练模型便会使用Slide Loss
计算模型的损失函数。