深度学习各类优化器大总结

news2024/11/15 8:11:51

一、优化算法设计原理

深度学习中的优化算法采用的原理是梯度下降法,即最小化目标函数 J ( θ ) J(\theta) J(θ),最优化的求解过程,首先求解目标函数的梯度 ∇ J ( θ ) \nabla J(\theta) J(θ),然后将参数 θ \theta θ 向负梯度方向更新, θ t = θ t − 1 − η ∇ J ( θ ) \theta_{t}=\theta_{t-1}-\eta\nabla J(\theta) θt=θt1ηJ(θ) η \eta η 为学习率,表明梯度更新的步伐的大小,最优化的过程依赖的算法称为优化器,可以看出深度学习优化器的两个核心是梯度与学习率,前者决定参数更新的方向,后者决定参数的更新程度。

我们定义 θ \theta θ为待优化的参数, J ( θ ) J(\theta) J(θ)为目标函数,初始学习率为 η \eta η。再进行一次梯度下降过程中优化算法的执行框架如下:

1、计算目标函数关于当前参数的梯度:

g t = ∇ J ( θ t ) g_t = \nabla J(\theta_t) gt=J(θt)

2、根据需要计算历史梯度的一阶和二阶动量:

m t = ϕ ( g 1 , g 2 , ⋅ ⋅ ⋅ , g t ) m_t = \phi(g_1, g_2,···,g_t) mt=ϕ(g1,g2,⋅⋅⋅,gt)

V t = ψ ( g 1 , g 2 , ⋅ ⋅ ⋅ , g t ) V_t = \psi(g_1, g_2,···,g_t) Vt=ψ(g1,g2,⋅⋅⋅,gt)

3、计算当前时刻的下降梯度:

p = η ∗ m t / V t ( 自适应优化器 ) p = \eta * m_t / \sqrt{V_t}(自适应优化器) p=ηmt/Vt (自适应优化器)

p = η ∗ g t ( 非自适应优化器 ) p = \eta * g_t(非自适应优化器) p=ηgt(非自适应优化器)

4、进行梯度下降更新

θ t + 1 = θ t − p \theta_{t+1} = \theta_t - p θt+1=θtp

对于各种优化器而言,步骤 3 3 3 和步骤 4 4 4 都是一样的,主要差别是体现在步骤 1 1 1 和步骤 2 2 2,下面我们就来具体讲解这些优化器的设计思路。

一、非自适应优化器

在优化过程中,学习率全程不变,或者按照一定的 l e a r n i n g learning learning s c h e d u l e schedule schedule 随时间变化,称之为非自适应优化器,这类包括最常见的 S G D SGD SGD(随机梯度下降法),带 M o m e n t u m Momentum Momentum S G D SGD SGD、带 N e s t e r o v Nesterov Nesterov S G D SGD SGD 等。

1、 B G D BGD BGD( B a t c h Batch Batch g r a d i e n t gradient gradient d e s c e n t descent descent)

其梯度更新公式为:

θ = θ − η ∗ ∇ θ J ( θ ) \theta = \theta - \eta * \nabla_{\theta} J(\theta) θ=θηθJ(θ)

S G D SGD SGD 在每次更新梯度的时候,采用整个训练集的数据来计算 l o s s loss loss 对参数的梯度,所以计算起来非常慢,遇到很大量的数据集也会非常棘手,而且不能投入新数据实时更新模型。

2、 S G D SGD SGD 随机梯度下降法( S t o c h a s t i c Stochastic Stochastic g r a d i e n t gradient gradient d e s c e n t descent descent)

其梯度更新公式和 S G D SGD SGD 类似。

S G D SGD SGD 的梯度下降过程,类似于一个小球从山坡上滚下,它的前进方向只于当前山坡的最大倾斜方向一致(最大负梯度方向),每一个时刻的初速度为 0。梯度更新规则为: 每次更新时对一个 b a t c h batch batch 内每个样本进行梯度更新,这样使得网络更新参数速度很快。但是其缺点也很明显,因为 S G D SGD SGD 更新梯度非常频繁,会造成 c o s t cost cost f u n c t i o n function function 会有严重的震荡,有可能在全局最小值处来回震荡跳出全局最优值。

3、 M S G D MSGD MSGD( M i n i − b a t c h Mini-batch Minibatch g r a d i e n t gradient gradient d e s c e n t descent descent)

其实我们更多时候把 M S G D MSGD MSGD 称之为 S G D SGD SGD,其梯度更新公式和 S G D SGD SGD 类似。梯度更新规则为: M S G D MSGD MSGD 每一次利用一个 b a t c h batch batch 样本,即 n n n 个样本进行计算,这样它可以降低参数更新时的方差,收敛更稳定,另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。和 2 2 2 S G D SGD SGD 的区别是每一次循环梯度更新的时候不是使用数据集中所有样本,而是一个 b a t c h batch batch 内的 n n n 个样本。在下面文章中提到的 S G D SGD SGD 就指代这里的 M S G D MSGD MSGD
在这里插入图片描述
优点:

1、虽然看起来在更新过程中 M S G D MSGD MSGD c o s t cost cost f u n c t i o n function function 波动非常大,会走很多弯路,但是对梯度的要求很低(计算梯度快),而且对于引入噪声,大量的理论和实践工作证明,只要噪声不是特别大, M S G D MSGD MSGD 都能很好地收敛。

2、应用大型数据集时,训练速度很快。比如每次从百万数据样本中,取几百个数据点,算一个 M S G D MSGD MSGD 梯度,更新一下模型参数。相比于标准梯度下降法的遍历全部样本,每输入一个样本更新一次参数,要快得多。

缺点:

1、不能保证很好的收敛性; m i n i mini mini- b a t c h batch batch 每次仅使用数据集中的一部分进行梯度下降,所以每次下降并不是严格按照朝最小方向下降,只是总体下降趋势是朝着最小方向,极度容易陷于局部最小值。

2、 l r lr lr 如果太小,收敛速度会很慢,如果太大, l o s s loss loss f u n c t i o n function function 就会在极小值处不停地震荡甚至偏离。(有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 l e a r n i n g learning learning r a t e rate rate,不过这个阈值的设定需要提前写好,但这样的话就不能够适应数据集的特点)。

3、对于非凸函数,还要避免陷于局部极小值处,或者鞍点处,因为鞍点周围的梯度都接近于 0 0 0 M S G D MSGD MSGD 很容易被困在这里。在这里解释一下鞍点就是:一个光滑函数的鞍点邻域的曲线,曲面,或超曲面,都位于这点的切线的不同边。如下图 2 2 2 所示。

在这里插入图片描述
4、 S G D M SGDM SGDM(带有 M o m e n t u m Momentum Momentum 动量的 S G D SGD SGD)

为了解决在上面的优化算法中容易出现的问题, S G D M SGDM SGDM 应用而生,在原有的 S G D SGD SGD 上加入了一阶动量,从直观理解就是加入了一个惯性,在坡度比较陡的地方,会有较大的惯性,下降的就会比较快;坡度平缓的地方,惯性较小,下降的会比较慢。

其梯度更新公式为:

v t = γ v t − 1 + η ∇ θ J ( θ ) v_t = \gamma v_{t-1} + \eta \nabla_{\theta}J(\theta) vt=γvt1+ηθJ(θ)

θ = θ − v t \theta = \theta - v_t θ=θvt

S G D M SGDM SGDM 通过加入 γ v t − 1 \gamma v_{t-1} γvt1,将其定义为动量, γ \gamma γ 常用的值为 0.9 0.9 0.9。使用动量后在梯度下降过程中可以使得梯度方向不变的方向上下降速度变快,梯度方向有所改变的方向上的下降速度变慢。在这里我们举一个比较贴近的例子:在原本的梯度下降中一直朝着一个方向去下降,而当遇到山沟的时候(也就是一个拐点),越过山沟此时就在另一边山坡,这个时候梯度方向是跟之前相反的,此时由于之前梯度大小的累加,在两个山坡间的变化就会被互相抵消掉,也就不会一直在两个山坡振荡,容易朝山沟向下走,也就是会减少震荡。 S G D M SGDM SGDM 的梯度更新时的状态如下图 3 3 3 所示,和图 1 1 1 相比,震荡明显减少。
在这里插入图片描述
5、 N A G NAG NAG( N e s t e r o v Nesterov Nesterov a c c e l e r a t e d accelerated accelerated g r a d i e n t gradient gradient)

上面介绍的 S G D M SGDM SGDM 的每下降一步都是由前面下降方向的一个累积和当前点的梯度方向组合而成,但当刚好下降到拐点附近时,如果这个时候继续以这样的方式更新参数,我们会有一个较大的幅度越过拐点,即:模型遇到拐点不会自动减弱更新的幅度。NAG 针对上述问题对动量方法进行了改进,其表达式如下:

v t = γ v t − 1 + η ∇ θ J ( θ − γ v t − 1 ) v_t = \gamma v_{t-1} + \eta \nabla_{\theta}J(\theta-\gamma v_{t-1}) vt=γvt1+ηθJ(θγvt1)

θ = θ − v t \theta = \theta - v_t θ=θvt

N A G NAG NAG 利用当前位置处先前的梯度值先做一个参数更新,然后在更新后的位置再求梯度,将此部分梯度跟之前累积下来的梯度值矢量相加,简单的说就是先根据之前累积的梯度方向模拟下一步参数更新后的值,然后将模拟后的位置处梯度替换动量方法中的当前位置梯度。那么这种方式为什么解决了之前说的那个问题呢?因为 N A G NAG NAG 有一个预测后一步位置梯度的步骤,所以当下降到拐点附近时, N A G NAG NAG 预测到会跨过拐点,该项梯度就会对之前梯度有个修正,相当于阻止了其跨度太大。
在这里插入图片描述
如上图 4 4 4 所示,我们举个例子来简单示意一下 N A G NAG NAG 的更新原理,其中蓝色线表示 S G D M SGDM SGDM方法,蓝色短线表示当前位置梯度更新,蓝色长线表示之前累积的梯度;第一个红色线表示用 N A G NAG NAG 算法预测下一步位置的梯度更新,第一条棕色线表示先前累积的梯度,其矢量相加结果(绿色线)就是参数更新的方向。 N A G NAG NAG 在更新梯度时的状态图如下图 5 5 5 所示,从图中可以看出,相对于 S G D M SGDM SGDM S G D SGD SGD N A G NAG NAG 表现出来的性能更好。
在这里插入图片描述

二、自适应优化器

在优化过程中,学习率随着梯度自适应的变化,并尽可能去消除给定的全局学习率的影响,叫做自适应优化器,常见的包括 A d a g r a d Adagrad Adagrad A d a d e l t a Adadelta Adadelta R M S p r o p RMSprop RMSprop A d a m Adam Adam 等。
1、 A d a g r a d Adagrad Adagrad

A d a g r a d Adagrad Adagrad 其实是对学习率进行了一个约束,对于经常更新的参数,我们已经积累了大量关于它的知识,不希望被单个样本影响太大,希望学习速率慢一些;对于偶尔更新的参数,我们了解的信息太少,希望能从每个偶然出现的样本身上多学一些,即学习速率大一些。而该方法中开始使用二阶动量,意味着“自适应学习率”优化算法时代的到来。

在这里我们说明一下二阶动量 V t V_t Vt 的定义:它是用来度量参数历史更新频率的,二阶动量是迄今为止所有梯度值的平方和。 A d a g r a d Adagrad Adagrad 的表达式为:

m t = g t m_t = g_t mt=gt

V t = ∑ i = 1 t g t 2 V_t = \sum_{i=1}^{t}{g_t}^2 Vt=i=1tgt2

θ t + 1 = θ t − η m t V t \theta_{t+1} = \theta_t - \eta \frac{m_t}{\sqrt{V_t}} θt+1=θtηVt mt

其中 g t g_t gt t t t 时刻参数梯度,下面来讲解为什么 a d a g r a d adagrad adagrad 可以实现不同频率特征对其参数学习率改变。首先,我们看到二阶动量 V t V_t Vt,它是梯度平方累加和,对于训练数据少的特征,自然对应的参数更新就缓慢,也就是说他们的梯度变化平方累加和就会比较小,所以对应于上面参数更新方程中的学习速率就会变大,因而对于某个特征数据集少,相应参数更新速度就快。为了防止上述分母为 0 0 0,所以往往添加一个平滑项参数 ϵ \epsilon ϵ,参数更新方程也就变成:

θ t + 1 = θ t − η m t V t + ϵ \theta_{t+1} = \theta_t - \eta \frac{m_t}{\sqrt{V_t+\epsilon}} θt+1=θtηVt+ϵ mt

但是 a d a g r a d adagrad adagrad 同样也有问题,就是其分母随着训练数增加,也会跟着增加,这样会导致学习速率越来越小,最终无限接近于 0 0 0,从而无法有效更新参数。

2、 A d a d e l t a Adadelta Adadelta

针对于 A d a g r a d Adagrad Adagrad 的缺点, A d a d e l t a Adadelta Adadelta 对二阶动量 V t V_t Vt 进行了改进,和 A d a g r a d Adagrad Adagrad 相比,就是分母换成了过去的梯度平方的衰减平均值,这个分母相当于梯度的均方根值 R M S RMS RMS( r o o t root root m e a n mean mean s q u a r e d squared squared)。其表达式如下:

m t = g t m_t = g_t mt=gt

V g , t = γ V g , t − 1 + ( 1 − γ ) g t 2 V_{g,t} = \gamma V_{g,t-1} + (1-\gamma){g_t}^2 Vg,t=γVg,t1+(1γ)gt2

V Δ θ , t = γ V Δ θ , t − 1 + ( 1 − γ ) Δ θ t 2 V_{\Delta \theta,t} = \gamma V_{\Delta \theta,t-1} + (1-\gamma){\Delta \theta_t}^2 VΔθ,t=γVΔθ,t1+(1γ)Δθt2

R M S [ g ] t = V g , t + ϵ RMS[g]t = \sqrt{V{g,t}+\epsilon} RMS[g]t=Vg,t+ϵ

R M S [ Δ θ ] t = V Δ θ , t + ϵ RMS[\Delta \theta]t = \sqrt{V{\Delta \theta,t}+\epsilon} RMS[Δθ]t=VΔθ,t+ϵ

θ t + 1 = θ t − R M S [ Δ θ ] t − 1 R M S [ g ] t m t \theta_{t+1} = \theta_{t} - \frac{RMS[\Delta \theta]_{t-1}}{RMS[g]_t}m_t θt+1=θtRMS[g]tRMS[Δθ]t1mt

其中对梯度的二阶动量变化为 R M S [ g ] t RMS[g]_t RMS[g]t;对变量的变化量的二阶动量为 R M S [ Δ θ ] t RMS[\Delta \theta]_t RMS[Δθ]t,并使用其将其替换学习率。通过 a d a d e l t a adadelta adadelta 优化算法,我们甚至可以不需要设置一个默认的学习率,因为在新的规则中已经移除了这项。

3、 R M S p r o p RMSprop RMSprop

R M S p r o p RMSprop RMSprop A d a d e l t a Adadelta Adadelta 都是为了解决 A d a g r a d Adagrad Adagrad 学习率急剧下降问题而被提出来的。 R M S p r o p RMSprop RMSprop A d a d e l t a Adadelta Adadelta 的计算公式非常相似,只不过在相同的时间内被独立的提出,其表达式为:

m t = g t m_t = g_t mt=gt

V t = γ V t − 1 + ( 1 − γ ) g t 2 V_t = \gamma V_{t-1} + (1-\gamma){g_t}^2 Vt=γVt1+(1γ)gt2

θ t + 1 = θ t − η m t V t + ϵ \theta_{t+1} = \theta_{t} - \eta \frac{m_t}{\sqrt{V_t + \epsilon}} θt+1=θtηVt+ϵ mt

由此可以看出, R M S p r o p RMSprop RMSprop 还需要自己手动设置一个初始的学习率 η \eta η。作者建议将 ϵ \epsilon ϵ 设置为 0.9,学习率 η \eta η 设置为 0.001。

4、 A d a m Adam Adam( A d a p t i v e Adaptive Adaptive M o m e n t Moment Moment E s t i m a t i o n Estimation Estimation)

A d a m Adam Adam 算法是另一种计算每个参数的自适应学习率的方法。它是一种将动量 M o m e n t u m Momentum Momentum R M S p r o p RMSprop RMSprop 结合起来的办法方法,同时引入了两个参数 β 1 \beta_1 β1 β 2 \beta_2 β2,其表达式为:

m t = β 1 m t − 1 + ( 1 − β 1 ) g t ( 一阶动量 ) m_t = \beta_1m_{t-1} + (1-\beta_1)g_t(一阶动量) mt=β1mt1+(1β1)gt(一阶动量)

V t = β 2 V t − 1 + ( 1 − β 2 ) g t 2 ( 二阶动量 ) V_t = \beta_2V_{t-1} + (1-\beta_2){g_t}^2(二阶动量) Vt=β2Vt1+(1β2)gt2(二阶动量)

m ~ t = m t 1 − β 1 t \tilde{m}_t = \frac{m_t}{1-\beta_1^t} m~t=1β1tmt

V ~ t = V t 1 − β 2 t \tilde{V}_t = \frac{V_t}{1-\beta_2^t} V~t=1β2tVt

θ t + 1 = θ − η m ~ t V ~ t + ϵ \theta_{t+1} = \theta - \eta \frac{\tilde{m}_t}{\sqrt{\tilde{V}_t + \epsilon}} θt+1=θηV~t+ϵ m~t

其中 β 1 \beta_1 β1 默认值为 0.9 0.9 0.9 β 2 \beta_2 β2 默认值为 0.999 0.999 0.999, ϵ \epsilon ϵ 1 0 − 8 10^{-8} 108 A d a m Adam Adam 集合了动量和 R M S p r o p RMSprop RMSprop 两者的优点,从经验中表明 A d a m Adam Adam 在实际中表现很好,同时与其他自适应学习算法相比,更有优势。

总结

我们来看一下上面几种优化算法在鞍点和等高线上的表现:
在这里插入图片描述
在这里插入图片描述
从图 6 和图 7 都可以看出, A d a g r a d Adagrad Adagrad A d a d e l t a Adadelta Adadelta R M S p r o p RMSprop RMSprop 几乎很快就找到了正确的方向并前进,收敛速度也相当快,而其它方法要么很慢,要么走了很多弯路才找到。

1、首先,各大算法孰优孰劣并无定论。如果是刚入门,优先考虑 S G D SGD SGD+ N e s t e r o v Nesterov Nesterov M o m e n t u m Momentum Momentum 或者 A d a m Adam Adam

2、 A d a m Adam Adam 等自适应学习率算法对于稀疏数据具有优势,且收敛速度很快;但精调参数的 S G D M SGDM SGDM 往往能够取得更好的最终结果。

3、根据你的需求来选择——在模型设计实验过程中,要快速验证新模型的效果,可以先用 A d a m Adam Adam 进行快速实验优化;在模型上线或者结果发布前,可以用精调的 S G D SGD SGD 系列优化算法进行模型的极致优化。

4、考虑不同算法的组合。先用 A d a m Adam Adam 进行快速下降,而后再换到 S G D SGD SGD 系列优化算法进行充分的调优。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/735717.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Java代码风格统一

Java代码风格统一 IDEA快捷键失效IDEA配置代码风格 IDEA快捷键失效 Ctr Shift F 这里是搜狗输入法影响的。 Ctr Shift L 这个是因为网易云的问题。 IDEA配置代码风格 统一代码风格是必须的,因为我们需要时不时的格式化代码, 如果每个人的开发风格…

程序员到公务员:从入门到上岸

有句话叫做,“打不过就加入”。尽管当下我们国家的体制还存在种种的问题,不过,大家还都是挤破脑袋想进体制。毕竟,某种程度上来说,体制内还真是香~ 我记得读大学那会,教我们C语言的老师,就和我…

Linus I/O之io_ring

由于调用系统调用时,会从用户态切换到内核态,从而进行上下文切换,而上下文切换会消耗一定的 CPU 时间。 io_uring 为了减少或者摒弃系统调用,采用了用户态与内核态 共享内存 的方式来通信。 第一步:应用程序通过向 io…

FreeRTOS ~(七)互斥量 ~ (2/3)互斥量解决优先级反转问题

前情提要 FreeRTOS ~(四)同步互斥与通信 ~ (2/3)互斥的缺陷 FreeRTOS ~(五)队列的常规使用 ~ (2/5)队列解决互斥缺陷 FreeRTOS ~(六)信号量 ~ (2/…

openpnp - 用空调压缩机改真空泵

文章目录 openpnp - 用空调压缩机改真空泵概述笔记备注END openpnp - 用空调压缩机改真空泵 概述 原来设备用的真空泵是AP200C/V 这个商品标称是48DB的噪音, 实际用的时候, 噪音很大, 应该快70DB了, 放在屋子里很吵. 如果仅仅是太吵, 可能也忍了. 关键是这个真空泵有强干扰…

JS逆向之——天翼云登录

JS逆向之——天翼云登录 前言 此文章仅用于技术交流,欢迎指出相关问题,感兴趣的可以关注我,有相关python逆向问题可以私信交流讨论。 目标与目的 目标网站:天翼云登录 目的:通过构建登录参数,完成天翼…

Qt样式表Qss

文章目录 简介基本语法使用setStyleSheet设置样式表可以设置的属性使用QtCreator设置 简介 Qss是Qt程序界面中用来设置控件的背景图片、大小、字体颜色、字体类型、按钮状态变化等属性它是用来美化UI界面。实现界面和程序的分离,快速切换皮肤。 学习视频 基本语法…

网络编程4——TCP协议的三大安全机制:三次握手四次挥手+确认应答机制+超时重传机制

文章目录 前言一、TCP协议段与机制TCP协议的特点TCP报头结构TCP协议的机制与特性 二、TCP协议的 连接管理机制 TCP建立连接:三次握手 TCP断开连接:四次挥手 三、TCP协议的 确认应答机制 四、TCP协议的 超时重传机制 总结 前言 本人是一个刚刚上路的I…

unordered_map 浅析

【unordered_map 浅析】 ◆● unordered_maphttps://cplusplus.com/reference/unordered_map/ (1)unordered_map 适用于需要快速查找,且不要求元素存储顺序的场景,尤其适合使用自定义类型作为键的情况。但是需要注意的是&#xff…

RabbitMQ的集群

新建一个虚拟机,重新安装一个RabbitMQ,不会安装的可以看下面的连接: 在Linux中安装RabbitMQ_流殇꧂的博客-CSDN博客 1.修改/etc/hosts映射文件,两台虚拟机都需要修改 vim /etc/hosts 2.修改完成后重启linux服务器: reboot 3.查看.erlang.cookie文件的位置: find / -name .erlan…

环形链表 II

题目链接 环形链表 II 题目描述 注意点 如果 pos 是 -1,则在该链表中没有环 解答思路 首先判断链表中是否有环,思路为双指针当快慢指针相遇时,说明链表中有环,假设链表中非环的节点数量为a,链表中环的节点数量为b…

分享一个由rust实现的openai api服务端+Android客户端

开发缘由 官方网页存在经常中途断开的问题.经常使用不同ip登录openai帐号可能会导致封号.使用开源项目chatgpt-web搭建过一个网页端,目前已被DNS污染,体验GitHub Copilot.已经使用了rust语言一段时间,打算用它写个服务端练手. 服务端 技术栈 rust Rust是一种系统级编程语言…

Elasticsearch【域的属性、分词器、Elasticsearch搜索文档】(三)-全面详解(学习总结---从入门到深化)

目录 Elasticsearch常用操作_域的属性 分词器_默认分词器 分词器_IK分词器 分词器_拼音分词器 分词器_自定义分词器 Elasticsearch搜索文档_准备工作 Elasticsearch搜索文档_搜索方式 Elasticsearch常用操作_域的属性 index 该域是否创建索引。只有值设置为true&#…

【双指针】844. 比较含退格的字符串

844. 比较含退格的字符串 解题思路 思路:函数deLETE的作用是处理带有退格符号的字符串。它使用双指针法来模拟字符串处理。初始时,慢指针slow和快指针fast都指向字符串的开头。然后,通过遍历字符串,如果当前字符不是退格符号&…

postman报错提示 Could not get any response怎么解决

目录 postman报错 解决方法: 在通过postman请求做接口测试的过程中,有时候会遇到一些报错,当遇到这些报错我们不要着急,看着具体哪里报错,然后进行解决 postman报错 经常使用postman的小伙伴们都应该遇到过一些报错…

工作:三菱PLC之CC-LINK通讯知识及应用

工作:三菱PLC之CC-LINK通讯及应用 一. cc-link接线图(RS485两线式接线) CC-Link Ver.1.00兼容电缆(特性阻抗:100Ω,终端电阻100Ω) CC-Link Ver.1.10兼容电缆(特性阻抗:…

Gradio库:使用Markdown模块创建交互式应用

❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️ 👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博…

如何使用多线程

一个进程正在运行时,至少会有一个线程在运行。 package ChapterOne;public class Test {public static void main(String[] args) {System.out.println(Thread.currentThread().getName());//currentThread方法返回正在被执行的线程的信息//getName返回正在被执行线…

【Docker】Docker实战

文章目录 搭建nginx服务搭建私有库Busybox阿里云上创建私有库 搭建nginx服务 首先拉取nginx的镜像。 docker pull nginx:1.24.0以后台的方式运行nginx,并且创建一个shell进行交互。 docker run --name nginx1 --rm -it -p 8080:80 nginx:1.24.0 bash#在交互的bas…

Kubernetes_核心组件_KubeProxy_Service找到Pod与DNS解析Service/Pod

文章目录 前言一、Service找到Pod(Iptables)二、Service找到Pod(IPVS)2.1 IPVS模式原理2.2 IPVS模式实践修改为 IPVS 模式 之前修改为 IPVS 模式之中修改为 IPVS 模式之后 三、Service和Pod的DNS域名3.1 Service DNS域名3.2 Service与Deployment/StatefulSet配合Deployment普通…