机器学习笔记之优化算法——AdaGrad算法的简单认识
- 引言
- 回顾:动量法与Nesterov动量法
- 优化学习率的合理性
- AdaGrad算法的简单认识
- AdaGrad的算法过程描述
引言
上一节对 Nesterov \text{Nesterov} Nesterov动量法进行了简单认识,本节将介绍 AdaGrad \text{AdaGrad} AdaGrad方法。
回顾:动量法与Nesterov动量法
关于动量法
(
Momentum
)
(\text{Momentum})
(Momentum)的迭代过程使用数学符号表示如下:
{
m
t
=
β
⋅
m
t
−
1
+
(
1
−
β
)
⋅
∇
θ
;
t
−
1
J
(
θ
t
−
1
)
θ
t
=
θ
t
−
1
−
η
⋅
m
t
\begin{cases} m_t = \beta \cdot m_{t-1} + (1 - \beta) \cdot \nabla_{\theta;t-1} \mathcal J(\theta_{t-1}) \\ \theta_t = \theta_{t-1} - \eta \cdot m_t \end{cases}
{mt=β⋅mt−1+(1−β)⋅∇θ;t−1J(θt−1)θt=θt−1−η⋅mt
-
其中 β \beta β表示动量因子,它可理解为权衡历史梯度信息 m t − 1 m_{t-1} mt−1与当前梯度信息 ∇ θ ; t − 1 J ( θ t − 1 ) \nabla_{\theta;t-1} \mathcal J(\theta_{t-1}) ∇θ;t−1J(θt−1)之间比例的量,或者说:由于历史梯度信息参与当前迭代步骤的梯度贡献, β \beta β表示历史梯度信息的贡献衰减得有多快。
-
η \eta η表示学习率,它描述是沿着梯度更新方向前进的步长大小。而动量法的核心思想在于:合理利用历史梯度信息,结合当前迭代步骤的梯度信息,共同优化当前迭代步骤的梯度更新方向。
同理,
Nesterov
\text{Nesterov}
Nesterov动量法的核心思想与动量法基本一致,只不过将当前迭代步骤的梯度信息替换为超前梯度信息:
{
m
t
=
β
⋅
m
t
−
1
+
(
1
−
β
)
⋅
∇
θ
;
t
−
1
J
(
θ
t
−
1
+
γ
⋅
m
t
−
1
)
θ
t
=
θ
t
−
1
−
η
⋅
m
t
\begin{cases} m_t = \beta \cdot m_{t-1} + (1 - \beta) \cdot \nabla_{\theta;t-1} \mathcal J(\theta_{t-1} + \gamma \cdot m_{t-1}) \\ \theta_t = \theta_{t-1} - \eta \cdot m_t \end{cases}
{mt=β⋅mt−1+(1−β)⋅∇θ;t−1J(θt−1+γ⋅mt−1)θt=θt−1−η⋅mt
可以看出:无论是动量法还是 Nesterov \text{Nesterov} Nesterov动量法,它们的底层逻辑都是针对梯度的更新方向,也就是 m t m_t mt自身;我们不否认,在 m t m_t mt的优化过程中,也伴随着梯度大小的变化。但真正掌握梯度大小的参数,是学习率 η \eta η。而在这两种算法中, η \eta η至始至终都是一个固定的超参数。我们是否也可以对学习率进行优化呢 ? ? ?
优化学习率的合理性
在优化学习率之前,需要认识以下:对于学习率的优化是否是有必要的 ? ? ?在线搜索方法(步长角度)中,我们从精确搜索、非精确搜索两种角度对步长进行了充分的描述,并延伸出一系列的搜索准则,如 Armijo \text{Armijo} Armijo准则、 wolfe \text{wolfe} wolfe准则等等。
这个小例子可能不是很贴切~因为无论是
精确搜索还是
非精确搜索,它们都建立在方向固定是
负梯度方向这个条件下。但是像
动量法或者是
Nesterov \text{Nesterov} Nesterov动量法,它的梯度方向会随着迭代步骤发生变化。
但也可以从侧面看出,步长的选择是有优劣之分的,并不是一成不变的。
基于上面的简单描述,无论使用哪类方法,做为调整梯度大小(步长)的学习率 η \eta η都不应该是一个确定的值。我们不否认:梯度向量自身会随着迭代步骤的增加而减小,并向零向量逼近;但如果学习率不跟随梯度向量进行变化,可能会出现下面的情况:
- 在极值点附近无法收敛。这种情况可能发生的条件是:在某迭代过程中,即便梯度信息已经足够小了,但由于学习率是定值,依然会导致虽然梯度方向指向正确,但梯度向量不够小而穿过极值点:
- 在后续的迭代过程中,它可能都无法收敛至极值点,从而在极值点周围震荡:
因而无论使用哪类方法,关于学习率的变化趋势我们都希望:学习率随着迭代过程慢慢减小。既然已经知道了目标,我们可以想到一种硬核的学习率优化方式:学习率随着每一次迭代减小一个固定的数值,当学习率减小至 0 0 0时,整个学习过程结束。
很明显,这种方式自然是不够优秀的,它的缺陷主要体现在:
- 减小的固定数值是人为设定的,实际上它也间接地人为设定了迭代步骤的上界。如果迭代次数超过了该上界——即便是没有到达极值点,也要强行将迭代停止;
- 相反地,如果人为设定的固定数值过小——意味着在迭代次数内已经到达极值点,它会一直在极值点处震荡,直到学习率为 0 0 0。
可以看出:人为设定学习率的衰减是不可取的,但也给我们提供新的思路:是否能够让学习率在迭代过程中自主进行调整 ? ? ?
AdaGrad算法的简单认识
AdaGrad
\text{AdaGrad}
AdaGrad算法的核心思想是:使学习率在算法迭代过程中进行自适应调节,而自适应调节同样依靠历史梯度信息。关于
AdaGrad
\text{AdaGrad}
AdaGrad的迭代过程使用数学符号表示如下:
{
G
t
=
∇
θ
;
t
−
1
J
(
θ
t
−
1
)
R
t
⇐
R
t
−
1
+
G
t
⊙
G
t
θ
t
⇐
θ
t
−
1
−
η
R
t
+
ϵ
⊙
G
t
\begin{cases} \mathcal G_t = \nabla_{\theta;t-1} \mathcal J(\theta_{t-1}) \\ \mathcal R_t \Leftarrow \mathcal R_{t-1} + \mathcal G_t \odot \mathcal G_t \\ \begin{aligned} \theta_t \Leftarrow \theta_{t-1} - \frac{\eta}{\sqrt{\mathcal R_t} + \epsilon} \odot \mathcal G_t \end{aligned} \end{cases}
⎩
⎨
⎧Gt=∇θ;t−1J(θt−1)Rt⇐Rt−1+Gt⊙Gtθt⇐θt−1−Rt+ϵη⊙Gt
其中:
- G t \mathcal G_t Gt表示当前步骤的梯度方向;
- R t \mathcal R_t Rt与动量法中的 m t m_t mt一样,是历史信息的一个累积载体;而这里的历史信息并不是单纯的历史梯度信息 G t \mathcal G_t Gt,而是 G t \mathcal G_t Gt与自身的内积结果: G t ⊙ G t \mathcal G_t \odot \mathcal G_t Gt⊙Gt;
- ϵ \epsilon ϵ是一个较小的正数,仅为保证分母项不为 0 0 0;
很明显,由于 G t ∈ R p \mathcal G_t \in \mathbb R^p Gt∈Rp( p p p表示权重空间维数),因而 G t ⊙ G t = ∥ G t ∥ 2 ∈ R \mathcal G_t \odot \mathcal G_t = \|\mathcal G_t \|^2 \in \mathbb R Gt⊙Gt=∥Gt∥2∈R,是一个实数;因而 R t = R t + G t ⊙ G t = ∑ i = 1 t ∥ G i ∥ 2 ∈ R \begin{aligned}\mathcal R_t = \mathcal R_t + \mathcal G_t \odot \mathcal G_t = \sum_{i=1}^t \|\mathcal G_i \|^2 \in \mathbb R \end{aligned} Rt=Rt+Gt⊙Gt=i=1∑t∥Gi∥2∈R也是一个实数。观察最后一项关于学习率的优化: η ⇒ η R t + ϵ \begin{aligned}\eta \Rightarrow \frac{\eta}{\sqrt{\mathcal R_t} + \epsilon}\end{aligned} η⇒Rt+ϵη:
- 关于分母部分: R t + ϵ = ∑ i = 1 t ∥ G i ∥ 2 + ϵ \sqrt{\mathcal R_t} + \epsilon = \sqrt{\sum_{i=1}^t \|\mathcal G_i\|^2} + \epsilon Rt+ϵ=∑i=1t∥Gi∥2+ϵ可以发现:这个函数是单调递增的,也就是说:关于 η \eta η的优化结果只会减小,不会增加;在梯度结果 G t \mathcal G_t Gt存在较大变化时, η \eta η会相应减小;
- 可以将
G
t
\mathcal G_t
Gt拿到分子上,可以得到:
η
⋅
G
t
R
t
+
ϵ
\begin{aligned}\frac{\eta \cdot \mathcal G_t}{\sqrt{\mathcal R_t} + \epsilon}\end{aligned}
Rt+ϵη⋅Gt(由于
⊙
\odot
⊙的两项分别是实数与向量,因而这里的内积
⊙
\odot
⊙就是乘法),其中分子的项
η
⋅
G
t
\eta \cdot \mathcal G_t
η⋅Gt实际上就是真实更新梯度,而
AdaGrad
\text{AdaGrad}
AdaGrad的操作就是将真实更新梯度执行标准化操作。
这种操作和
批标准化( Batch Normalization \text{Batch Normalization} Batch Normalization)中也出现过类似的形式。该部分欢迎小伙伴们一起讨论~
这种学习率优化的优势在于:
- 若某迭代步骤 t t t的梯度 G t = ∇ θ ; t − 1 J ( θ t − 1 ) \mathcal G_t = \nabla_{\theta;t-1} \mathcal J(\theta_{t-1}) Gt=∇θ;t−1J(θt−1)过大,其会相应地得到一个快速下降的学习率;
- 相反,对于梯度 G t \mathcal G_t Gt较小的部分,虽然学习率依然在减小,但但减小的幅度也会下降。这种情况会使参数在更新过程中面对平缓的倾斜方向会存在不错的收敛效果。
AdaGrad \text{AdaGrad} AdaGrad算法对于学习率的优化也存在明显的缺陷:
- 由于初始化状态下的参数可能是随机生成的,这种情况下有可能导致初始梯度 G \mathcal G G的结果极大/变化非常剧烈,而这种剧烈变化会使得 R t \mathcal R_t Rt累积了较大的内积信息,从而导致本在有效收敛的过程中,由于学习率过早地、并且过量的减少,最终使:参数没有动力收敛到预期的极值点而产生欠拟合。
AdaGrad的算法过程描述
基于
AdaGrad
\text{AdaGrad}
AdaGrad的算法步骤表示如下:
初始化操作:
- 全局学习率 η \eta η,初始化参数 θ \theta θ;
- 超参数 ϵ = 1 0 − 7 \epsilon = 10^{-7} ϵ=10−7,梯度累积信息 R = 0 \mathcal R = 0 R=0;
算法过程:
- While \text{While} While没有达到停止准则 do \text{do} do
- 从训练集 D \mathcal D D中采集出包含 k k k个样本的小批量: { ( x ( i ) , y ( i ) ) } i = 1 k \{(x^{(i)},y^{(i)})\}_{i=1}^k {(x(i),y(i))}i=1k;
- 计算当前步骤参数
θ
\theta
θ的梯度信息:
G ⇐ 1 k ∑ i = 1 k ∇ θ L [ f ( x ( i ) ; θ ) , y ( i ) ] \mathcal G \Leftarrow \frac{1}{k} \sum_{i=1}^k \nabla_{\theta} \mathcal L[f(x^{(i)};\theta),y^{(i)}] G⇐k1i=1∑k∇θL[f(x(i);θ),y(i)] - 使用
R
\mathcal R
R对梯度内积进行累积:
R ⇐ R + G ⊙ G \mathcal R \Leftarrow \mathcal R + \mathcal G \odot \mathcal G R⇐R+G⊙G - 计算更新的梯度量:
Δ θ = − η ϵ + R ⊙ G \Delta \theta = - \frac{\eta}{\epsilon + \sqrt{\mathcal R}} \odot \mathcal G Δθ=−ϵ+Rη⊙G - 更新梯度
θ
\theta
θ:
θ ⇐ θ + Δ θ \theta \Leftarrow \theta + \Delta \theta θ⇐θ+Δθ - End While \text{End While} End While
Reference
\text{Reference}
Reference:
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降的优化
《深度学习(花书)》
P187 8.5.1 AdaGrad
\text{P187 8.5.1 AdaGrad}
P187 8.5.1 AdaGrad