ICLR 2024 Oral
paper
Intro
无监督RL旨在发现潜在的行为帮助提高下游任务效率以往方法集中于探索以及基于互信息的技能发现(skill)。然而去前者在高危复杂空间实现困难,后者也容易因为缺乏激励导致探索能力不足。本文提出METRA核心观点认为与其在复杂状态空间处理,不如构造一个更紧凑的隐空间z,类似于PCA将复杂状态空间简化:
ϕ
:
S
→
Z
\phi:\mathcal{S}\rightarrow\mathcal{Z}
ϕ:S→Z,而z可以通过时间距离(temporal distances)度量metric d链接到状态空间。
采用时间距离度量(状态间转换的最小交互步数)的原因是其对状态表征是不变的,因此该度量适用于pixel-based的任务。因此,通过最大化Z空间中的覆盖,可以获得近似覆盖整个状态空间的各种行为,便可实现扩展到高维、复杂的环境。
Method
METRA的目标是基于Z空间实现状态空间的最大化覆盖。类似于Skill-based的无监督方法,提出如下优化目标
I
W
(
S
;
Z
)
=
W
(
p
(
s
,
z
)
,
p
(
s
)
p
(
z
)
)
,
I_{\mathcal W}(S;Z)=\mathcal{W}(p(s,z),p(s)p(z)),
IW(S;Z)=W(p(s,z),p(s)p(z)),
上式计算了状态与skills之间的Wasserstein dependency measure (WDM)。为了让上述目标简介且易于计算,采用Kantorovich-Rubenstein duality提供一种可计算的方式最大化WDM。
I
W
(
S
;
Z
)
=
sup
∥
f
∥
L
≤
1
E
p
(
s
,
z
)
[
f
(
s
,
z
)
]
−
E
p
(
s
)
p
(
z
)
[
f
(
s
,
z
)
]
v
\begin{aligned}I_{\mathcal{W}}(S;Z)=\sup_{\|f\|_{L}\leq1}\mathbb{E}_{p(s,z)}[f(s,z)]-\mathbb{E}_{p(s)p(z)}[f(s,z)]\end{aligned}v
IW(S;Z)=∥f∥L≤1supEp(s,z)[f(s,z)]−Ep(s)p(z)[f(s,z)]v
直观来说更希望采样联合分布的(s,z)而非边际分布的(s,z)。上述目标是可计算的,可以设置f为1阶李普希兹连续的函数,通过梯度下降优化,而z-condition的策略
π
(
a
∣
s
,
z
)
\pi(a|s,z)
π(a∣s,z)可以通过RL算法优化,其奖励函数表示为:
r
(
s
,
z
)
=
f
(
s
,
z
)
−
N
−
1
∑
i
=
1
N
f
(
s
,
z
i
)
r(s,z)=f(s,z)-N^{-1}\sum_{i=1}^Nf(s,z_i)
r(s,z)=f(s,z)−N−1∑i=1Nf(s,zi)。而对每一个状态都需要从z的先验分布中采集N个
z
i
z_i
zi,这样计算量增加。
因此本文简化计算量提出参数化
f
(
s
,
a
)
=
ϕ
(
s
)
⊤
ψ
(
z
)
f(s,a)=\phi(s)^{\top}\psi(z)
f(s,a)=ϕ(s)⊤ψ(z)。上述优化目标转化为:
I
W
(
S
;
Z
)
≈
sup
∥
ϕ
∥
L
≤
1
,
∥
ψ
∥
L
≤
1
E
p
(
s
,
z
)
[
ϕ
(
s
)
⊤
ψ
(
z
)
]
−
E
p
(
s
)
[
ϕ
(
s
)
]
⊤
E
p
(
z
)
[
ψ
(
z
)
]
.
I_{\mathcal{W}}(S;Z)\approx\operatorname*{sup}_{\|\phi\|_{L}\leq1,\|\psi\|_{L}\leq1}\mathbb{E}_{p(s,z)}[\phi(s)^{\top}\psi(z)]-\mathbb{E}_{p(s)}[\phi(s)]^{\top}\mathbb{E}_{p(z)}[\psi(z)].
IW(S;Z)≈∥ϕ∥L≤1,∥ψ∥L≤1supEp(s,z)[ϕ(s)⊤ψ(z)]−Ep(s)[ϕ(s)]⊤Ep(z)[ψ(z)].
原文给出证明,在隐空间维度D趋于正无穷时
f
(
s
,
a
)
f(s,a)
f(s,a)与
ϕ
(
s
)
⊤
ψ
(
z
)
\phi(s)^{\top}\psi(z)
ϕ(s)⊤ψ(z)等价。然后考虑状态为最后T时刻的设定
I
W
(
S
T
;
Z
)
≈
sup
∥
ϕ
∥
L
≤
1
,
∥
ψ
∥
L
≤
1
E
p
(
τ
,
z
)
[
ϕ
(
s
T
)
⊤
ψ
(
z
)
]
−
E
p
(
τ
)
[
ϕ
(
s
T
)
]
⊤
E
p
(
z
)
[
ψ
(
z
)
]
=
sup
ϕ
,
ψ
∑
t
=
0
T
−
1
(
E
p
(
τ
,
z
)
[
(
ϕ
(
s
t
+
1
)
−
ϕ
(
s
t
)
)
⊤
ψ
(
z
)
]
−
E
p
(
τ
)
[
ϕ
(
s
t
+
1
)
−
ϕ
(
s
t
)
]
⊤
E
p
(
z
)
[
ψ
(
z
)
]
)
,
\begin{aligned}I_{\mathcal{W}}(S_T;Z)&\approx\sup_{\|\phi\|_L\leq1,\|\psi\|_L\leq1}\mathbb{E}_{p(\tau,z)}[\phi(s_T)^\top\psi(z)]-\mathbb{E}_{p(\tau)}[\phi(s_{T})]^{\top}\mathbb{E}_{p(z)}[\psi(z)]\\&=\sup_{\phi,\psi}\sum_{t=0}^{T-1}\big(\mathbb{E}_{p(\tau,z)}\big[(\phi(s_{t+1})-\phi(s_t))^\top\psi(z)\big]-\left.\mathbb{E}_{p(\tau)}[\phi(s_{t+1})-\phi(s_{t})]^{\top}\mathbb{E}_{p(z)}[\psi(z)]\right),\end{aligned}
IW(ST;Z)≈∥ϕ∥L≤1,∥ψ∥L≤1supEp(τ,z)[ϕ(sT)⊤ψ(z)]−Ep(τ)[ϕ(sT)]⊤Ep(z)[ψ(z)]=ϕ,ψsupt=0∑T−1(Ep(τ,z)[(ϕ(st+1)−ϕ(st))⊤ψ(z)]−Ep(τ)[ϕ(st+1)−ϕ(st)]⊤Ep(z)[ψ(z)]),
其中
p
(
s
0
)
p(s_0)
p(s0)与
p
(
z
)
p(z)
p(z)独立分布,设
ψ
(
z
)
=
z
\psi(z)=z
ψ(z)=z, 约简优化目标为
I
W
(
S
T
;
Z
)
≈
sup
∥
ϕ
∥
L
≤
1
E
p
(
τ
,
z
)
[
∑
t
=
0
T
−
1
(
ϕ
(
s
t
+
1
)
−
ϕ
(
s
t
)
)
⊤
(
z
−
z
ˉ
)
]
I_{\mathcal{W}}(S_T;Z)\approx\sup\limits_{\|\phi\|_L\leq1}\mathbb{E}_{p(\tau,z)}\left[\sum\limits_{t=0}^{T-1}(\phi(s_{t+1})-\phi(s_t))^\top(z-\bar{z})\right]
IW(ST;Z)≈∥ϕ∥L≤1supEp(τ,z)[t=0∑T−1(ϕ(st+1)−ϕ(st))⊤(z−zˉ)]
且其中
z
ˉ
=
E
p
(
z
)
[
z
]
{\bar{z}}={\mathbb{E}}_{p(z)}[z]
zˉ=Ep(z)[z],若是z均值为0那该问题可看作奖励函数
r
(
s
,
z
,
s
′
)
=
(
ϕ
(
s
′
)
−
ϕ
(
s
)
)
⊤
z
\begin{aligned}r(s,z,s^{\prime})=(\phi(s^{\prime})-\phi(s))^{\top}z\end{aligned}
r(s,z,s′)=(ϕ(s′)−ϕ(s))⊤z的RL问题,联合优化
ϕ
\phi
ϕ与
π
(
a
∣
s
,
z
)
\pi(a|s,z)
π(a∣s,z)
METRA
到目前为止,上述问题没有指定距离函数
d
d
d, 本文提出两个状态时间距离
d
t
e
m
p
(
s
1
,
s
2
)
d_{\mathrm{temp}}(s_{1},s_{2})
dtemp(s1,s2), 即从
s
1
s_1
s1到
s
2
s_2
s2最小环境交互步数。那么优化问题为
sup
π
,
ϕ
E
p
(
τ
,
z
)
[
∑
t
=
0
T
−
1
(
ϕ
(
s
t
+
1
)
−
ϕ
(
s
t
)
)
⊤
z
]
s
.
t
.
∥
ϕ
(
s
)
−
ϕ
(
s
′
)
∥
2
≤
1
,
∀
(
s
,
s
′
)
∈
S
adj
,
\begin{aligned}\sup_{\pi,\phi}\mathbb{E}_{p(\tau,z)}\left[\sum_{t=0}^{T-1}(\phi(s_{t+1})-\phi(s_{t}))^{\top}z\right]\\\mathrm{s.t.}\|\phi(s)-\phi(s')\|_2\leq1,\forall(s,s')\in\mathcal{S}_{\text{adj}},\end{aligned}
π,ϕsupEp(τ,z)[t=0∑T−1(ϕ(st+1)−ϕ(st))⊤z]s.t.∥ϕ(s)−ϕ(s′)∥2≤1,∀(s,s′)∈Sadj,
其中
S
adj
\mathcal{S}_{\text{adj}}
Sadj为相邻状态对的集合,因此d=1。直观来说,上述目标迫使策略
π
(
a
∣
s
,
z
)
\pi(a|s,z)
π(a∣s,z)尽可能向着由z指定的方向进行探索,但是由于
∥
ϕ
(
s
1
)
−
ϕ
(
s
2
)
∥
2
\|\phi(s_{1})-\phi(s_{2})\|_{2}
∥ϕ(s1)−ϕ(s2)∥2存在一个upper bound。这样潜在空间应该将其(有限的)维度分配给原始状态空间中流形最大限度“展开”的状态。从某种意义上说,状态集中的最短路径应该尽可能长
Zero-shot goal-reaching with METRA
得益于 ϕ ( s ) \phi(s) ϕ(s)考虑时间距离上的状态抽象,可以方便的实现Zero-shot goal-reaching 。只需将方向设置 z = ( ϕ ( g ) − ϕ ( s ) ) / ∥ ϕ ( g ) − ϕ ( s ) ∥ 2 z=(\phi(g)-\phi(s))/\|\phi(g)-\phi(s)\|_{2} z=(ϕ(g)−ϕ(s))/∥ϕ(g)−ϕ(s)∥2(连续技能)或者 z = arg max dim ( ϕ ( g ) − ϕ ( s ) ) z=\arg\max_{\dim}\left(\phi(g)-\phi(s)\right) z=argmaxdim(ϕ(g)−ϕ(s))(离散技能)