Confidence Regularized Self-Training
领域自适应研究的最新进展表明,深度自训练是实现无监督领域自适应的有效手段。这些方法通常涉及到一个迭代过程,即在目标域上进行预测,然后将自信的预测作为伪标签进行再训练。然而,由于伪标签可能是嘈杂的,自我训练可能会将过度自信的标签信念放在错误的类中,从而导致带有传播错误的偏离解决方案。为了解决这个问题,我们提出了一个自信正则化自我训练(CRST)框架,它被表述为正则化自我训练。我们的方法将伪标签视为通过交替优化共同优化的连续潜在变量。我们提出了两种置信度正则化:标签正则化(LR)和模型正则化(MR)。CRST-LR生成软伪标签,而CRST-MR促进网络输出的平滑性。大量的图像分类和语义分割实验表明,crst以最先进的性能优于非正则化的crst。这项工作的代码和模型可在https://github.com/yzou2/CRST上获得。
简单来说就是相比于传统自训练中引入了两种正则化的方法。
0、传统自训练的步骤
主要有两步,第一步是获得伪标签,第二步是训练模型,两步交替进行。
1、label侧的正则化
传统获得伪标签的方式如下:
白话来说就是如果模型预测类别为c的概率最大,且这个概率大于我们设置的阈值(比如0.6),那么我们就选择这个样本的伪标签为c
但是这样存在的 问题是,模型可能过度自信的选择了错误的选项,这种过度自信的选择会影响后续的学习,造成和真实分布情况的偏差。
因此作者考虑使用一种标签正则化的方式做个软化。
只要计算的一个损失函数比类别0(未识别/识别置信度太低)的下,就选择这个标签,标签也并未是01离散值,而是对应预测的概率值。
这个损失函数计算如下
同时,我们也需要调整一下我们在训练伪标签时的损失函数
2、mdel正则化
第一步获得伪标签和之前完全一样,在第二步训练模型的时候在loss中增加正则项。
对于
r
c
(
p
)
r_c(p)
rc(p)的定义,可见下表,作者将label正则称作LRENT,将model正则称作MRKLD
3、实现
作者在github上公布了他们的代码,后续补充