【强化学习的数学原理】课程笔记--1(基本概念,贝尔曼公式)

news2024/12/26 11:52:33

目录

  • 基本概念
    • State, Action, State transition
    • Policy, Reward, Trajectory, Discount Return
    • Episode
    • Markov decision process
  • 贝尔曼公式
    • 推导确定形式的贝尔曼公式
    • 推导一般形式的贝尔曼公式
      • State Value
      • Action Value
    • 一些例子
    • 贝尔曼公式的 Matric-vector form
    • 贝尔曼公式的解析解和迭代解
      • Gershgorin 圆盘定理

基本概念

State, Action, State transition

  • State: 用于描述agent目前所处的状态,以grid-world为例,即location: s 1 , s 2 , . . . s_1, s_2, ... s1,s2,...

  • Action: 在某个State时,可以做的动作的集合,以grid-world为例,即:

  • State transition:State转移矩阵(确定情形)or State转移分布(概率情形),以grid-world为例,eg:

Policy, Reward, Trajectory, Discount Return

  • Policy:即策略,告诉agent在每个State时,应该做什么Action,也有(确定形式)和(概率形式):

Policy在实际使用时,一般是存为表格(数组)形式,eg:

  • Reward:一个实值(标量),eg:正数用于reward,负数用于punishment,数学表达,eg :
    { P ( r = 1 ∣ 当前 s t a t e ,当前选择的 a i ) = 0.8 P ( r = 0 ∣ 当前 s t a t e ,当前选择的 a i ) = 0.2 \begin{cases} P(r=1|当前state,当前选择的a_i) = 0.8\\ \\ P(r=0|当前state,当前选择的a_i) = 0.2 \end{cases} P(r=1∣当前state,当前选择的ai)=0.8P(r=0∣当前state,当前选择的ai)=0.2

  • Trajectory:即 state-action-reward 链,eg:

  • Return:即一个Trajectory上所有reward之和,eg:上图中第一个return是2,第二个return是1,所以第一个policy更好(没有进到forbidden block)

    由于在到达target s 9 s_9 s9之后, s 9 s_9 s9的action会维持在 s 9 s_9 s9,即action一直是 a 5 a_5 a5(维持不动),因此reward会一直+1(那为什么不设置到达target之后停止/退出?),引入 discount rate γ ∈ ( 0 , 1 ) \gamma \in (0,1) γ(0,1)
    discount return = 0 + 0 γ + 0 γ 2 + 1 γ 3 + 1 γ 4 + 1 γ 5 + . . . = γ 3 ( 1 + γ + γ 2 + . . . ) = γ 3 1 1 − γ \begin{aligned} \text{discount return} &= 0 + 0\gamma + 0\gamma^2 + 1\gamma^3 + 1\gamma^4 + 1\gamma^5 + ... \\ &= \gamma^3 (1 + \gamma + \gamma^2 + ...) = \gamma^3 \frac{1}{1-\gamma} \end{aligned} discount return=0+0γ+0γ2+1γ3+1γ4+1γ5+...=γ3(1+γ+γ2+...)=γ31γ1
    作用是:当 γ \gamma γ更趋于0时,return更受早期的action影响,而当 γ \gamma γ更趋于1时,return更受后期的action的影响

Episode

  • Episode:当有terminal state时,即到这个state就停止,称为 episodic task(有限步);反之称为 continuing task(无限步,现实不存在,但当步数非常多时,近似认为是continuing task)。可以通过以下两种方法将 episodic task 看作特殊的 continuing task,这样后面就只需要对continuing task做理解:
    1. 将terminal state看作特殊的absorbing state(即进到这个stage再也不会离开),且需要将这个state的action的reward都设为0
    2. 将terminal state看作普通的state,可以离开,且每次进入该state时 r = + 1 r = +1 r=+1 (后面采用该种,因为更一般化)

Markov decision process

需要以上几个分布:

  1. π ( a ∣ s ) \pi(a|s) π(as),在当前状态s,所做的action的分布 (即Policy
  2. P ( s ′ ∣ s , a ) P(s' | s,a) P(ss,a),在当前状态s,选定了动作a之后,下一个可能到的状态的分布(eg:往下时,即可能往下一格,也可能往下两格)
  3. P ( r ∣ s , a ) P(r | s,a) P(rs,a),在当前状态s,选定了动作a之后,可能的reward ( P ( s ′ ∣ s , a ) P(s' | s,a) P(ss,a)属同一分布,即 s ′ s' s 定了reward 就定了;还是说即使 s ′ s' s 定了,reward也仍然不是确定值?
  4. 以及Markov假设:
    P ( s t + 1 ∣ a t + 1 , s t , . . . , a 1 , s 0 ) = P ( s t + 1 ∣ a t + 1 , s t ) P ( r t + 1 ∣ a t + 1 , s t , . . . , a 1 , s 0 ) = P ( r t + 1 ∣ a t + 1 , s t ) \begin{aligned} P(s_{t+1}|a_{t+1},s_t, ..., a_1,s_0) &= P(s_{t+1}|a_{t+1},s_t) \\ P(r_{t+1}|a_{t+1},s_t, ..., a_1,s_0) &= P(r_{t+1}|a_{t+1},s_t) \end{aligned} P(st+1at+1,st,...,a1,s0)P(rt+1at+1,st,...,a1,s0)=P(st+1at+1,st)=P(rt+1at+1,st)

贝尔曼公式

推导确定形式的贝尔曼公式

定义 v i v_i vi 为从 s i s_i si 出发的Trajectory的return, eg:

则有 Bootstrapping 推导式:

⇒ v = r + γ P v \Rightarrow v = r + \gamma P v v=r+γPv

⇒ \Rightarrow 解析解 : v = ( I − γ P ) − 1 r v=(I-\gamma P)^{-1} r v=(IγP)1r

推导一般形式的贝尔曼公式

State Value

首先给出 State Value 的定义,对于一个multi-step trajectory,其步骤可以表示为:
S t → A t S t + 1 , R t + 1 → A t + 1 S t + 2 , R t + 2 → A t + 2 S t + 3 , R t + 3 , . . . S_t \overset{A_t} \rightarrow S_{t+1}, R_{t+1} \overset{A_{t+1}} \rightarrow S_{t+2}, R_{t+2} \overset{A_{t+2}} \rightarrow S_{t+3}, R_{t+3},... StAtSt+1,Rt+1At+1St+2,Rt+2At+2St+3,Rt+3,...

该条从 S t S_t St 出发的 trajectory 的 discounted return 则为:
G t = R t + 1 + γ R t + 2 + γ 2 R t + 3 + . . . G_t = R_{t+1} + \gamma R_{t+2} + \gamma^2R_{t+3} + ... Gt=Rt+1+γRt+2+γ2Rt+3+...

由于 R t + 1 , R t + 2 , . . . R_{t+1}, R_{t+2}, ... Rt+1,Rt+2,... 均为随机变量,因此 G t G_t Gt 也是随机变量。

  • State Value:即当前状态为 s 时,discounted return G t G_t Gt 的期望值
    v π ( s ) = E [ G t ∣ S t = s ] v_{\pi}(s) = E[G_t|S_t=s] vπ(s)=E[GtSt=s]

更具象的理解是 :

  1. 给定Policy π \pi π ,当从状态 s 出发时,discounted return的期望值(从一个state出发,可能有多条路径到达terminal/或称多条trajectory,对所有可能的trajectory的discounted return求期望)
  2. 某个状态的 v π ( s ) v_{\pi}(s) vπ(s) 越高,说明它越有价值/越值得去(见以下例子)

Action Value

State Value 是指从一个 state 出发的 average return,而 Action Value 是指从一个 state 出发,并且 take 某个 action 的 average return。
q π ( s , a ) = E [ G t ∣ S t = s , A t = a ] q_{\pi}(s,a) = E[G_t|S_t=s, A_t =a ] qπ(s,a)=E[GtSt=s,At=a]

state value 用于选择哪个 Policy 更好,而 action value 用于选择哪个 action 更好

Action Value 和 State value 的关系:
E [ G t ∣ S t = s ] = ∑ a E [ G t ∣ S t = s , A t = a ] π ( a ∣ s ) E[G_t|S_t=s] = \sum_a E[G_t|S_t=s, A_t =a ] \pi(a|s) E[GtSt=s]=aE[GtSt=s,At=a]π(as)
即: v π ( s ) = ∑ a π ( a ∣ s ) q π ( s , a ) v_{\pi}(s) = \sum_a \pi(a|s) q_{\pi}(s,a) vπ(s)=aπ(as)qπ(s,a)
⇒ \Rightarrow State Value 实际是所有 Action Value 的 “平均”

下面开始推导贝尔曼公式

由于
G t = R t + 1 + γ R t + 2 + γ 2 R t + 3 + . . . = R t + 1 + γ ( R t + 2 + γ R t + 3 + . . . ) = R t + 1 + γ G t + 1 \begin{aligned} G_t &= R_{t+1} + \gamma R_{t+2} + \gamma^2 R_{t+3} + ...\\ &= R_{t+1} + \gamma (R_{t+2} + \gamma R_{t+3} + ...) \\ & = R_{t+1} + \gamma G_{t+1} \end{aligned} Gt=Rt+1+γRt+2+γ2Rt+3+...=Rt+1+γ(Rt+2+γRt+3+...)=Rt+1+γGt+1

⇒ v π ( s ) = E [ G t ∣ S t = s ] = E [ R t + 1 + γ G t + 1 ∣ S t = s ] = E [ R t + 1 ∣ S t = s ] + γ E [ G t + 1 ∣ S t = s ] \begin{aligned} \Rightarrow v_{\pi}(s) &= E[G_t|S_t=s]\\ &= E[R_{t+1} + \gamma G_{t+1}|S_t=s] \\ &= E[R_{t+1}|S_t=s] + \gamma E[G_{t+1}|S_t=s] \end{aligned} vπ(s)=E[GtSt=s]=E[Rt+1+γGt+1St=s]=E[Rt+1St=s]+γE[Gt+1St=s]

其中第一项为 下一步的reward的期望,可以分解为:
E [ R t + 1 ∣ S t = s ] = ∑ a E [ R t + 1 ∣ S t = s , A t = a ] π ( a ∣ s ) = ∑ a π ( a ∣ s ) ∑ r P ( r ∣ s , a ) r \begin{aligned} E[R_{t+1}|S_t=s] &= \sum_{a} E[R_{t+1}|S_t=s, A_t=a] \pi(a|s)\\ &= \sum_{a} \pi(a|s) \sum_{r} P(r|s,a)r \end{aligned} E[Rt+1St=s]=aE[Rt+1St=s,At=a]π(as)=aπ(as)rP(rs,a)r

第二项为 从下一时刻的状态为起点的 trajectory 的 discounted return,可以分解为:
E [ G t + 1 ∣ S t = s ] = ∑ s ′ E [ G t + 1 ∣ S t = s , S t + 1 = s ′ ] P ( s ′ ∣ s ) = ∑ s ′ E [ G t + 1 ∣ S t + 1 = s ′ ] P ( s ′ ∣ s ) = ∑ s ′ v π ( s ′ ) P ( s ′ ∣ s ) = ∑ s ′ v π ( s ′ ) ∑ a P ( s ′ ∣ s , a ) π ( a ∣ s ) \begin{aligned} E[G_{t+1}|S_t=s] &= \sum_{s'} E[G_{t+1}|S_t=s, S_{t+1}=s'] P(s'|s)\\ &= \sum_{s'} E[G_{t+1}|S_{t+1}=s'] P(s'|s)\\ &= \sum_{s'} v_{\pi}(s') P(s'|s)\\ &= \sum_{s'} v_{\pi}(s') \sum_{a} P(s'|s,a) \pi(a|s) \end{aligned} E[Gt+1St=s]=sE[Gt+1St=s,St+1=s]P(ss)=sE[Gt+1St+1=s]P(ss)=svπ(s)P(ss)=svπ(s)aP(ss,a)π(as)

由上得贝尔曼公式一般形式:
v π ( s ) = ∑ a π ( a ∣ s ) [ ∑ r P ( r ∣ s , a ) r + γ ∑ s ′ P ( s ′ ∣ s , a ) v π ( s ′ ) ] , ∀ s \begin{aligned} v_{\pi}(s) = \sum_{a} \pi(a|s) [\sum_{r} P(r|s,a)r + \gamma \sum_{s'} P(s'|s,a) v_{\pi}(s')], \quad \forall s \end{aligned} vπ(s)=aπ(as)[rP(rs,a)r+γsP(ss,a)vπ(s)],s
贝尔曼公式描述了 两个 state value v π ( s ) v_{\pi}(s) vπ(s) v π ( s ′ ) v_{\pi}(s') vπ(s) 的关系

同时由 state value 和 action value 的关系: v π ( s ) = ∑ a π ( a ∣ s ) q π ( s , a ) v_{\pi}(s) = \sum_a \pi(a|s) q_{\pi}(s,a) vπ(s)=aπ(as)qπ(s,a)
可得 q π ( s , a ) = ∑ r P ( r ∣ s , a ) r + γ ∑ s ′ P ( s ′ ∣ s , a ) v π ( s ′ ) q_{\pi}(s,a) = \sum_{r} P(r|s,a)r + \gamma \sum_{s'} P(s'|s,a) v_{\pi}(s') qπ(s,a)=rP(rs,a)r+γsP(ss,a)vπ(s)
即如果知道所有的State Value,反过来也可以求 Action Value

一些例子

  1. 对于policy:
    在这里插入图片描述
    由于
    π ( a = a 3 ∣ s 1 ) = 1 , π ( a ≠ a 3 ∣ s 1 ) = 0 P ( s ′ = s 3 ∣ s 1 , a 3 ) = 1 , P ( s ′ ≠ s 3 ∣ s 1 , a 3 ) = 0 P ( r = 0 ∣ s 1 , a 3 ) = 1 , P ( r ≠ 0 ∣ s 1 , a 3 ) = 0 \begin{aligned} &\pi(a = a_3|s_1) = 1, \pi(a \neq a_3|s_1) = 0 \\ &P(s'=s_3|s_1, a_3) =1, P(s'\neq s_3|s_1, a_3) =0 \\ &P(r=0|s_1, a_3) = 1, P(r \neq 0|s_1, a_3) = 0 \end{aligned} π(a=a3s1)=1,π(a=a3s1)=0P(s=s3s1,a3)=1,P(s=s3s1,a3)=0P(r=0∣s1,a3)=1,P(r=0∣s1,a3)=0

⇒ v π ( s 1 ) = ∑ a π ( a ∣ s 1 ) [ ∑ r P ( r ∣ s 1 , a ) r + γ ∑ s ′ P ( s ′ ∣ s 1 , a ) v π ( s ′ ) ] = 1 ∗ [ ∑ r P ( r ∣ s 1 , a 3 ) r + γ ∑ s ′ P ( s ′ ∣ s 1 , a 3 ) v π ( s ′ ) ] = 1 ∗ [ 1 ∗ 0 + 0 + γ ∗ 1 ∗ v π ( s 3 ) ] = 0 + γ v π ( s 3 ) \begin{aligned} \Rightarrow v_{\pi}(s_1) &= \sum_{a} \pi(a|s_1) [\sum_{r} P(r|s_1,a)r + \gamma \sum_{s'} P(s'|s_1,a) v_{\pi}(s')]\\ &= 1* [\sum_{r} P(r|s_1,a_3)r + \gamma \sum_{s'} P(s'|s_1,a_3) v_{\pi}(s')] \\ &= 1* [1*0 + 0 + \gamma * 1*v_{\pi}(s_3)]\\ &= 0 + \gamma v_{\pi}(s_3) \end{aligned} vπ(s1)=aπ(as1)[rP(rs1,a)r+γsP(ss1,a)vπ(s)]=1[rP(rs1,a3)r+γsP(ss1,a3)vπ(s)]=1[10+0+γ1vπ(s3)]=0+γvπ(s3)

同理有:
v π ( s 2 ) = 1 + γ v π ( s 4 ) v π ( s 3 ) = 1 + γ v π ( s 4 ) v π ( s 4 ) = 1 + γ v π ( s 4 ) \begin{aligned} v_{\pi}(s_2) &= 1 + \gamma v_{\pi}(s_4) \\ v_{\pi}(s_3) &= 1 + \gamma v_{\pi}(s_4) \\ v_{\pi}(s_4) &= 1 + \gamma v_{\pi}(s_4) \end{aligned} vπ(s2)vπ(s3)vπ(s4)=1+γvπ(s4)=1+γvπ(s4)=1+γvπ(s4)

解得:
v π ( s 1 ) = γ 1 − γ v π ( s 2 ) = 1 1 − γ v π ( s 3 ) = 1 1 − γ v π ( s 4 ) = 1 1 − γ \begin{aligned} v_{\pi}(s_1) &= \frac{\gamma}{1-\gamma}\\ v_{\pi}(s_2) &= \frac{1}{1-\gamma}\\ v_{\pi}(s_3) &= \frac{1}{1-\gamma}\\ v_{\pi}(s_4) &= \frac{1}{1-\gamma} \end{aligned} vπ(s1)vπ(s2)vπ(s3)vπ(s4)=1γγ=1γ1=1γ1=1γ1

⇒ v π ( s 1 ) < v π ( s 2 ) = v π ( s 3 ) = v π ( s 4 ) \Rightarrow v_{\pi}(s_1) < v_{\pi}(s_2) = v_{\pi}(s_3) =v_{\pi}(s_4) vπ(s1)<vπ(s2)=vπ(s3)=vπ(s4)
解释: s 1 s_1 s1 距离 target state 比其他 state 都要远,因此其 价值 低于其他的 state,(直观上也可以看到 s 1 s_1 s1 距离 target state,比其他的 state 都要远)


  1. 更复杂的例子
    两种好的 Policy,及其各个 state 的 state value:

两种不好的 Policy:一个全向右的 Policy 和 一个随机生成的 Policy:

可以看到

  1. 好的 Policy 的 state value,基本都为正;而不好的 Policy 的 state value 中,会有很多负数
  2. 两个不完全相同的 Policy,也可能有完全一样的 state value (因为在其出现 diff 的部分路径上,reward总和相同)

贝尔曼公式的 Matric-vector form


r π ( s i ) = ∑ a π ( a ∣ s i ) ∑ r P ( r ∣ s i , a ) r = E [ R t + 1 ∣ S t = s i ] \begin{aligned} r_{\pi}(s_i) &= \sum_{a} \pi(a|s_i) \sum_{r} P(r|s_i,a)r = E[R_{t+1}|S_t=s_i] \end{aligned} rπ(si)=aπ(asi)rP(rsi,a)r=E[Rt+1St=si]

又有: P π ( s j ∣ s i ) = ∑ a P ( s j ∣ s i , a ) π ( a ∣ s i ) P_{\pi}(s_j|s_i) = \sum_{a} P(s_j|s_i,a) \pi(a|s_i) Pπ(sjsi)=aP(sjsi,a)π(asi)

因此 v π ( s i ) = r π ( s i ) + γ ∑ s j P π ( s j ∣ s i ) v π ( s j ) v_{\pi}(s_i) = r_{\pi}(s_i) + \gamma \sum_{s_j} P_{\pi}(s_j|s_i) v_{\pi}(s_j) vπ(si)=rπ(si)+γsjPπ(sjsi)vπ(sj)
Matric-vector form: v π = r π + γ P π v π v_{\pi} = r_{\pi} + \gamma P_{\pi} v_{\pi} vπ=rπ+γPπvπ

例如:

上式可展开为:

贝尔曼公式的解析解和迭代解

贝尔曼公式: v π = r π + γ P π v π v_{\pi} = r_{\pi} + \gamma P_{\pi} v_{\pi} vπ=rπ+γPπvπ
⇒ 解析解: v π = ( I − γ P π ) − 1 r π \Rightarrow 解析解:v_{\pi} = (I - \gamma P_{\pi})^{-1} r_{\pi} 解析解:vπ=(IγPπ)1rπ
一些理论可得的结论:

  1. ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 是可逆的

Gershgorin 圆盘定理

A A A 是一个 n × n n \times n n×n 复矩阵,矩阵的元素为 a i j a_{ij} aij。对于每个 i i i,定义 Gershgorin 圆盘 D i D_i Di 为以 a i i a_{ii} aii 为中心,半径为矩阵第 i i i 行上非对角元素绝对值之和的圆盘。即:

D i = { z ∈ C : ∣ z − a i i ∣ ≤ R i } D_i = \{ z \in \mathbb{C} : |z - a_{ii}| \leq R_i \} Di={zC:zaiiRi}

其中 R i = ∑ j ≠ i ∣ a i j ∣ R_i = \sum_{j \neq i} |a_{ij}| Ri=j=iaij

Gershgorin 圆盘定理的结论是:矩阵 A A A 的所有特征值都位于至少一个 Gershgorin 圆盘内。

换句话说,如果我们把矩阵 A A A 看成是由复数元素构成的,矩阵 A A A 的特征值在复平面上一定位于这些 Gershgorin 圆盘的并集内。


那么根据Gershgorin 圆盘定理, ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 的每个特征值都至少在一个
圆心为 : [ ( I − γ P π ) ] i i = 1 − γ P π ( s i ∣ s i ) 半径为 : ∑ j ≠ i ∣ [ I − γ P π ] i j ∣ = ∑ j ≠ i γ P π ( s j ∣ s i ) (因为 j ≠ i 时, I i j = 0 ) \begin{aligned} 圆心为&: [(I - \gamma P_{\pi})]_{ii} = 1-\gamma P_{\pi}(s_i | s_i)\\ 半径为&:\sum_{j \neq i} |[I-\gamma P_{\pi}]_{ij}| = \sum_{j \neq i} \gamma P_{\pi}(s_j|s_i) (因为 j \neq i 时,I_{ij} =0) \end{aligned} 圆心为半径为[(IγPπ)]ii=1γPπ(sisi)j=i[IγPπ]ij=j=iγPπ(sjsi)(因为j=i时,Iij=0
的圆当中,又有:

∑ j ≠ i γ P π ( s j ∣ s i ) + γ P π ( s i ∣ s i ) = γ < 1 \sum_{j \neq i} \gamma P_{\pi}(s_j|s_i) + \gamma P_{\pi}(s_i | s_i) = \gamma < 1 j=iγPπ(sjsi)+γPπ(sisi)=γ<1
因此:
∑ j ≠ i γ P π ( s j ∣ s i ) < 1 − γ P π ( s i ∣ s i ) \sum_{j \neq i} \gamma P_{\pi}(s_j|s_i) < 1 - \gamma P_{\pi}(s_i | s_i) j=iγPπ(sjsi)<1γPπ(sisi)
半径 < |圆心|,说明 ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 的 Gershgorin 圆盘都不包含原点,因此其特征值都不为零。


  1. ( I − γ P π ) − 1 > I (I - \gamma P_{\pi})^{-1} > I (IγPπ)1>I

由泰勒级数展开: 1 1 − x = 1 + x + x 2 + x 3 + . . . \frac{1}{1-x} = 1 + x + x^2 + x^3 + ... 1x1=1+x+x2+x3+...
⇒ ( I − γ P π ) − 1 = I + γ P π + γ 2 P π 2 + . . . ≥ I , ( γ > 0 ,而 P π 的值是概率,也总大于 0 ) \Rightarrow (I - \gamma P_{\pi})^{-1} = I + \gamma P_{\pi} + \gamma^2 P_{\pi}^2 + ... \geq I , (\gamma > 0, 而 P_{\pi} 的值是概率,也总大于0) (IγPπ)1=I+γPπ+γ2Pπ2+...I,(γ>0,而Pπ的值是概率,也总大于0)


不过实际中, ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 是一个很大的矩阵,求逆计算量太大,因此实际一般使用迭代式:
v k + 1 = r π + γ P π v k v_{k+1} = r_{\pi} + \gamma P_{\pi} v_{k} vk+1=rπ+γPπvk

以上迭代式成立的原因是:
v k → v π = ( I − γ P π ) − 1 r π ,  as  k → ∞ . v_k \to v_\pi = (I - \gamma P_\pi)^{-1} r_\pi, \text{ as } k \to \infty. vkvπ=(IγPπ)1rπ, as k∞.
证明如下:

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1857843.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

图片多级缓存加载流程

图片多级缓存加载流程通常包括三个主要级别&#xff1a;内存缓存、本地缓存和网络缓存。以下是详细的加载流程&#xff1a; 1. 内存缓存&#xff08;一级缓存&#xff09; 流程&#xff1a; 当应用需要加载一张图片时&#xff0c;首先会检查内存缓存中是否存在该图片。 如果…

【Linux进阶】UNIX体系结构分解——操作系统,内核,shell

1.什么是操作系统&#xff1f; 从严格意义上说&#xff0c;可将操作系统定义为一种软件&#xff0c;它控制计算机硬件资源&#xff0c;提供程序运行环境。我们通常将这种软件称为内核&#xff08;kerel)&#xff0c;因为它相对较小&#xff0c;而且位于环境的核心。 从广义上…

智能屏幕人体雷达感应开关模块,飞睿智能低功耗毫米波雷达技术,让冰箱更节能

在智能家居日益普及的今天&#xff0c;各种创新技术层出不穷&#xff0c;极大地提升了人们的生活品质。其中&#xff0c;人体雷达感应开关模块作为一种创新的传感器技术&#xff0c;正在逐步改变我们对家电设备的传统认知。本文将深入探讨飞睿智能人体雷达感应开关中的毫米波雷…

【Golang】Steam 创意工坊 Mod 文件夹批量重命名

本文将介绍一个使用Go语言编写的脚本&#xff0c;其主要功能是解析XML文件并基于解析结果重命名文件夹。这个脚本适用于需要对文件夹进行批量重命名&#xff0c;并且重命名规则依赖于XML文件内容的情况。 脚本功能概述 Steam创意工坊下载的Mod文件夹批量重命名为id名称 运行前…

MySQL-java连接MySQL数据库+JDBC的使用

目录 1.准备所需要资源 2.导入驱动包 3.连接数据库步骤 首先在MySQL中创建好数据库和表 代码实现连接数据库 1.准备所需要资源 1.mysql和驱动包 我用的是5.7的mysql和5.1.49的驱动包&#xff0c;链接放在网盘里&#xff0c;需要的自取 链接&#xff1a;https://pan.bai…

K8S安装metrics-server

K8S安装metrics-server 使用kubeadm安装完成的集群&#xff0c;运行kubectl top node等命令式&#xff0c;报错&#xff1a;error: Metrics API not available。这是因为缺少metrics-server。 [rootk8s-master1 ~]# kubectl top node error: Metrics API not available简介 …

k8s集群搭建及对一些组件的简单理解

背景 k8s的学习环境&#xff08;用kubeadm方式搭建&#xff09;&#xff0c;我也搭过几次了&#xff0c;但都有点问题。 要么在云服务器上弄&#xff0c;这个的问题是就只有一台轻量服务器&#xff0c;只能搭个单节点的&#xff1b;后来买了一台便宜的&#xff0c;所以就有了两…

SpringBoot使用滑动窗口限流防止用户重复提交(自定义注解实现)

在你的项目中&#xff0c;有没有遇到用户重复提交的场景&#xff0c;即当用户因为网络延迟等情况把已经提交过一次的东西再次进行了提价&#xff0c;本篇文章将向各位介绍使用滑动窗口限流的方式来防止用户重复提交&#xff0c;并通过我们的自定义注解来进行封装功能。 首先&a…

网络基础-协议

一、ARP 通过IP得到Mac 首先会查看缓存的arp表中是否有相应的IP和Mac对应关系&#xff0c;如果有直接进行包封装。如果没有则进行广播当对应的地址就收到广播包后会根据arp中的源地址进行单播返回相应的IP和Mac对应关系。 arp -a 查看现有的arp缓存 二、RARP反向地址解析 通过…

git上传本地项目及更新项目

1、注册GitHub账号和下载git 2、在GitHub上新建一个仓库&#xff0c;点击号——>New repository&#xff0c;给仓库起一个名字&#xff0c;点击Create repository 3、进入要上传的项目中&#xff0c;右键点击git back here&#xff0c;命令行输入git init初始化&#xff0c…

《Nest系列 - 3. 掌握常见Nest 装饰器,奠定坚实基础!!!!!!》

nest 一个核心就是依赖注入&#xff0c;而中的大部分功能都是通过装饰器来实现的&#xff0c;那什么是装饰器呢&#xff1f; 就是一个 xxx &#xff0c;诸如 Module&#xff0c;controller, Get, Post 那这样有什么好处呢&#xff1f; 可以把他理解成一个方法&#xff0c;在不改…

精密机械中的滚珠螺杆与螺杆支撑座的完美配合!

螺杆支撑座和滚珠螺杆是机械设备中的重要部件。滚珠螺杆通常运用在自动化设备中&#xff0c;需高速运动、高精度定位均依靠它的优良性能&#xff0c;如机床&#xff0c;数控、工业机器人等机械设备。螺杆支撑座装在螺杆的两端&#xff0c;支撑座有两端&#xff0c;固定端和支撑…

SpringBoot的迭代史,SpringBoot和Spring和Java和Maven和Gradle版本兼容介绍

文章目录 系统环境要求&#xff1a;Spring Boot 3.1.xSpring Boot 3.0.xSpring Boot 2.7.xSpring Boot 2.6.xSpring Boot 2.5.xSpring Boot 2.4.xSpring Boot 2.3.xSpring Boot 2.2.xSpring Boot 2.1.xSpring Boot 2.0.xSpring Boot 1.5.xSpring Boot 1.4.xSpring Boot 1.3.xSp…

代码随想录训练营Day 69|并查集理论基础、卡码网107.寻找存在的路径

1.并查集理论基础 并查集理论基础 | 代码随想录 并查集可以解决什么问题呢&#xff1f; 主要就是集合问题&#xff0c;两个节点在不在一个集合&#xff0c;也可以将两个节点添加到一个集合中。 注意&#xff1a;求根是求箭头出发的数 路径压缩&#xff1a;求根的根。把根的根的…

【投稿优惠|权威主办】2024年图像、地质测绘与遥感技术国际学术会议(ICIGSRST 2024)

【投稿优惠|权威主办】2024年图像、地质测绘与遥感技术国际学术会议&#xff08;ICIGSRST 2024&#xff09; 2024 International Conference on Image, Geological Surveying and Remote Sensing Technology&#xff08;ICIGSRST 2024&#xff09; ▶会议简介 2024年图像、地质…

大学生综合能力测评系统(安装+讲解+源码)

【毕设者】大学生综合能力测评系统(安装讲解源码) 分为管理员老师学生端 技术栈 后端: SpringBoot Mysql MybatisPlus 前端: Vue Element 功能截图: 给你安装运行

图片在线加水印工具,快速将图片铺满水印

有些同学为了防止图片未经授权的使用和传播&#xff0c;想要将图片添加铺满水印&#xff0c;但是不知道如何操作。下面小编就来和大家分享如何使用图片在线加水印工具&#xff0c;快速的将图片铺满水印。 有许多在线工具可以帮助我们快速、高效地给图片添加水印。在线添加水印&…

ONLYOFFICE8.1版本桌面编辑器的测评

首先我们先出示一下我们所测评官网的链接&#xff1a; ONLYOFFICE官网链接&#xff1a;ONLYOFFICE - 企业在线办公应用软件 | ONLYOFFICE 一进来就是这么简单整洁的页面&#xff0c;让人看了之后清新开朗&#xff0c;目标明确。 我们这款onlyoffice有着众多优点&#xff0c;如…

HTML5休闲小游戏《猫猫超市》源码,引流、刷广告利器

HTML5休闲小游戏《猫猫超市》源码&#xff0c;直接把源码上传到服务器就能使用了&#xff01; 下载链接&#xff1a;https://www.huzhan.com/code/goods467910.html

VMware虚拟机卡顿(虚拟机卡死)(调整所有虚拟机内存使其适应预留的主机 RAM (F)、默认进程优先级、不允许使用内存页面修整功能(M))

文章目录 设置编辑——首选项——内存——额外内存——调整所有虚拟机内存使其适应预留的主机 RAM (F)&#xff08;我把这个勾上了&#xff09;编辑——首选项——优先级——默认进程优先级虚拟机——设置——选项——高级——不允许使用内存页面修整功能(M) 参考文章&#xff…