这篇文章是ICLR‘ 2022的一篇文章。
No. | content |
---|---|
PAPER | {ICLR’ 2022} VOS: Learning What You Don’t Know by Virtual Outlier Synthesis |
URL | 论文地址 |
CODE | 代码地址 |
Motivation
· 现有OOD Detection方法大多依赖于真实的离群点数据集进行模型正则化,实际应用中过于昂贵,有时不可行。
· 作者认为导致OOD data效果差,主要是因为训练过程中缺少未知的知识,只在ID data上训练产生的决策边界对OOD Detection来说可能很糟糕。如图1-b所示,只用ID训练出来的分类器overconfident于远离ID data的区域(红色阴影部分),增加了OOD Detection的难度。作者认为模型应该学习一个更紧凑的决策边界,对于ID data应该有更低的不确定性,对OOD data有高的不确定性,如图1-c所示。
Contribution
· 提出了新的框架VOS,实现了SOTA
· VOS在feature space生成outliers的方式要比其他方法直接在高维像素空间生成的效果要好(e.g., using GAN (Lee et al., 2018a)),也优于直接使用噪声作为outliers的方法。
· 在常见的OOD Detection的benchmarks上测试了方法,还测试了一些目标检测任务。
Method
· 1. virtual outliers generation
假设特征表示满足多元类条件高斯分布:
p
θ
(
h
(
x
,
b
)
∣
y
=
k
)
=
N
(
μ
k
,
∑
)
p_{\theta}(h(x,\mathbb{b})|y=k)=\mathcal{N}(\mu_{k},\sum)
pθ(h(x,b)∣y=k)=N(μk,∑)
提取倒数第二层网络的特征,计算当前训练样本的
μ
^
k
\hat{\mu}_k
μ^k和
∑
^
\hat{\sum}
∑^
μ
^
k
=
1
N
k
∑
i
:
y
i
=
k
h
(
x
I
,
b
I
)
\hat{\mu}_k=\frac{1}{N_k}\sum_{i:y_i=k}h(x_I,b_I)
μ^k=Nk1i:yi=k∑h(xI,bI)
∑
^
=
1
N
∑
k
∑
i
:
y
i
=
k
(
h
(
x
i
,
b
i
)
−
μ
^
k
)
(
h
(
x
i
,
b
i
)
−
μ
^
k
)
T
\hat{\sum}=\frac{1}{N}\sum_{k}\sum_{i:y_i=k}(h(x_i,b_i)-\hat{\mu}_k)(h(x_i,b_i)-\hat{\mu}_k)^{T}
∑^=N1k∑i:yi=k∑(h(xi,bi)−μ^k)(h(xi,bi)−μ^k)T
得到高斯分布后,从特征空间采样outliers,
其中,
ϵ
\epsilon
ϵ应该足够小,保证采样的点很靠近类边界。
· 2. uncertainty Loss
Follow Liu et al., 2020a的思路,作者基于Energy-based model在OOD Detection uncertainty measurement优秀效果的启发,设计了uncertainty Loss。思路其实就是让ID data有更低的energy,outliers有更高的能量,作者这里直接让其分别为正值和负值了。
进一步,得到平滑近似版本
相比于Liu et al., 2020a的方法,作者认为他的方法不用再设置in- and out- of distribution data的超参阈值,效果更好。
最后总的training objective如下,
· 3. virtual outliers generation
在inference过程中,使用逻辑回归不确定性分支的输出进行OOD Detection。给定输入
x
∗
x^{*}
x∗,object detector产生
b
∗
b^{*}
b∗。OOD Detection的不确定性分数为
设置阈值区分ID和OOD目标
VOS整体framework:
Reference
Weitang Liu, Xiaoyun Wang, John Owens, and Yixuan Li. Energy-based out-of-distribution detection. Advances in Neural Information Processing Systems, 2020a.
Du X, Wang Z, Cai M, et al. VOS: Learning What You Don’t Know by Virtual Outlier Synthesis[C]//International Conference on Learning Representations.