优化 | 带有未知评估成本和预算约束的多步贝叶斯优化

news2024/10/5 12:44:14

在这里插入图片描述

论文解读者:胡明杰

编者按:

贝叶斯优化是一种处理黑盒函数优化的常用方法. 大多数的贝叶斯优化方法假设评估成本是同质的. 然而, 在实际问题中,评估成本往往是异质且未知的. 此外,现有的考虑异质评估成本的方法并不能很好地处理有约束的贝叶斯优化问题. 未知的评估成本和预算约束引入了新的探索和利用权衡(exploration-exploitation trade-off), 算法需要同时学习成本函数. 本文[1]证明了现有的方法期望提升(EI)和单位成本期望提升(EI-PUC)相比于最优的非短视最优策略可以表现得任意差. 为了克服现有方法的缺点,本文提出了带有预算约束的多步期望提升(B-MS-EI)方法,其是一种非短视的采样函数并将传统的EI推广到了异方差和未知评估成本的设定下. 最后,本文证明了提出的采样函数在一系列的合成和真实问题中的表现优于现有的方法.

1. 带有未知评估成本和预算约束的贝叶斯优化问题

给定一个紧的可行域 X ⊂ R d \mathbb{X}\subset \mathbb{R}^d XRd, 我们的目的是找到一个可行解 x ∈ X x \in \mathbb{X} xX使得目标函数值最大. 目标函数 f : X → R f:\mathbb{X}\rightarrow \mathbb{R} f:XR是一个黑盒函数,每查询一个点 x x x时只能得到函数值 f ( x ) f(x) f(x)的一个带有噪声的观测值. 设查询的点列为 { x i } i = 1 n \{x_i\}_{i=1}^{n} {xi}i=1n,其需要满足预算约束 ∑ i = 1 n c ( x i ) ≤ B \sum_{i=1}^{n}c(x_i)\leq B i=1nc(xi)B. 其中 c ( x ) c(x) c(x)表示评估 x x x点处函数值的成本, B B B是总的评估预算. 每次查询,可以得到函数值 f ( x ) f(x) f(x)和成本函数 c ( x ) c(x) c(x)带噪声的观测值. 假设 f f f c c c的联合先验分布为 p p p. 一个观测值表示为 ( x i , y i , z i ) ∈ X × R × R > 0 (x_i,y_i,z_i)\in \mathbb{X}\times\mathbb{R}\times \mathbb{R}_{>0} (xi,yi,zi)X×R×R>0, 其中 y i y_i yi z i z_i zi分别是目标函数和成本函数在 x i x_i xi处的观测值.

1.1 MDP 建模

我们将上述问题建模为一个多阶段的随机动态规划问题(MDP). 状态 D n \mathcal{D}_n Dn定义为当前的观测值集合,对于 n ≥ 1 n\geq1 n1, D n = D n − 1 ∪ ( x n , y n , z n ) \mathcal{D}_n=\mathcal{D}_{n-1}\cup(x_n,y_n,z_n) Dn=Dn1(xn,yn,zn). D 0 \mathcal{D}_0 D0表示初始的观测值集合. 给定 D n \mathcal{D}_n Dn, f f f c c c的联合后验分布表示为 p ( ⋅ ∣ D n ) p(\cdot|\mathcal{D}_n) p(Dn). 状态 D n \mathcal{D}_n Dn产生的效用定义为最大观测的函数值 μ ( D n ) = m a x { x , y , x } ∈ D n y \mu(\mathcal{D}_n)=max_{\{x,y,x\}\in{\mathcal{D}_n}}y μ(Dn)=max{x,y,x}Dny. 令 s ( D n ) = ∑ ( x , y , z ) ∈ D n z s(\mathcal{D}_n)=\sum_{(x,y,z)\in \mathcal{D}_n}z s(Dn)=(x,y,z)Dnz表示 D n \mathcal{D}_n Dn中观测值的总成本.

由于包含尚未观测到的目标函数值和成本函数值, D 1 , D 2 , . . . \mathcal{D}_1,\mathcal{D}_2,... D1,D2,...是随机变量. 策略 π = { π k } k = 1 ∞ \pi=\{\pi_k\}_{k=1}^{\infty} π={πk}k=1是一个函数序列,每个函数将观测值的集合映射到 X \mathbb{X} X中的点,即 x k = π k ( D k − 1 ) x_k=\pi_k(\mathcal{D_{k-1}}) xk=πk(Dk1). 给定观测值的集合 D \mathcal{D} D满足 s ( D ) ≤ B s(D)\leq B s(D)B, 策略 $\pi $的价值函数定义为 V π ( D ) = E π [ μ ( D N B ) − μ ( D 0 ) ∣ D 0 = D ] V^{\pi}(\mathcal{D})=\mathbb{E}^{\pi}[\mu(\mathcal{D}_{N_B})-\mu(\mathcal{D}_0)|\mathcal{D}_0=\mathcal{D}] Vπ(D)=Eπ[μ(DNB)μ(D0)D0=D], 其中随机停时 N B = sup ⁡ { k : s ( D k ) ≤ B } N_B=\sup\{k:s(\mathcal{D}_k)\leq B\} NB=sup{k:s(Dk)B}是满足预算约束的前提下最大的时间步长 k k k. 对于满足 s ( D ) ≥ B s(\mathcal{D})\geq B s(D)B的观测值集合 D \mathcal{D} D,定义 V π ( D ) = 0 V^{\pi}(\mathcal{D})=0 Vπ(D)=0. 我们的目标是找到一个策略 π \pi π最大化期望效用:
V ∗ ( D ) = sup ⁡ π ∈ ∏ V π ( D ) \begin{equation} V^{*}(\mathcal{D})=\sup_{\pi \in \prod}V^{\pi}(\mathcal{D}) \end{equation} V(D)=πsupVπ(D)

其中, ∏ \prod 是所有可能的策略集合. 由于 N B N_B NB是一个随机变量,问题(1)可以看作一个随机的最短路径规划问题. 这样建模的好处在于:第一,通过多步规划,可以权衡高成本和低成本之间的评估,从而更好地利用给定的预算. 第二,它可以处理最优成本学习(cost learning)时的不确定性. 比如说:一个探索性的评估适合在中等的预测成本和很高的模型不确定区域进行.

1.2 和成本价值比方法的不同

定理1:
EI和EI-PUC策略得到的近似比是无界的,也就是说对于任意大的 ρ > 0 \rho>0 ρ>0和策略 p i ∈ { EI,EI-PUC } pi \in \{\text{EI,EI-PUC}\} pi{EI,EI-PUC},存在一个贝叶斯优化的问题实例使得 V ∗ ( D 0 ) > ρ V π ( D 0 ) ( 2 ) \qquad \qquad \qquad V^{*}(\mathcal{D}_0)>\rho V^{\pi}(\mathcal{D}_0) \qquad \qquad \qquad \qquad (2) V(D0)>ρVπ(D0)(2)

定理1的证明可以通过构建一个贝叶斯优化的问题实例, 该实例中包含两类点: 高成本的点且带有很大的先验方差以及低成本的点带有较小的方差. 低成本点的方差足够小以至于在期望意义下, 将整个预算用于评估它们所获得的价值仅是评估单个高成本点所获得价值的一小部分. 然而, EI-PUC会将所有的预算花费在低成本, 低方差的点上导致获得的价值很少. 相反, 最优策略将其全部预算用于对高成本点的一次评估,从而获得更大的期望价值.

下图通过一个具有高斯过程先验的一维连续函数的例子说明了这种现象. 在第一个时间切片的后验下, 左侧有一个低成本区域(x < 0.5), 方差低, 平均值明显低于观察到的最佳点. 右边有一个成本较高的区域(x > 0.5),其中均值和方差都较大. 这些均值和方差使得函数的全局最大值很可能在右侧区域. 在前两次评估中, EI-PUC策略在两个低成本点进行评估, 这导致该区域的方差减少, 但(如预期的那样)没有值与右侧的全局最大值的可能值相抗衡. 相比之下, 在前两次评估中, 本文的多步B-MS-EI策略在右侧进行评估, 找到接近全局最优的值.

1.3 分解和截断

r ( D n − 1 , D n ) = μ ( D n ) − μ ( D n − 1 ) r(\mathcal{D}_{n-1},\mathcal{D}_n)=\mu(\mathcal{D}_n)-\mu(\mathcal{D}_{n-1}) r(Dn1,Dn)=μ(Dn)μ(Dn1)表示连续的状态之间效用的提升, 我们有:
V ∗ ( D ) = sup ⁡ π ∈ Π E π [ ∑ n = 1 ∞ r ( D n − 1 , D n ) 1 { n ≤ N B } ∣ D 0 = D ] ( 3 ) \qquad \qquad \qquad V^*(\mathcal{D})=\sup _{\pi \in \Pi} \mathbb{E}^\pi\left[\sum_{n=1}^{\infty} r\left(\mathcal{D}_{n-1}, \mathcal{D}_n\right) \mathbf{1}_{\left\{n \leq N_B\right\}} \mid \mathcal{D}_0=\mathcal{D}\right] \qquad \qquad \qquad \qquad (3) V(D)=πΠsupEπ[n=1r(Dn1,Dn)1{nNB}D0=D](3)
对问题(2)截断处理后可以得到:
V N ( D ) = sup ⁡ π ∈ Π E π [ ∑ n = 1 N r ( D n − 1 , D n ) 1 { n ≤ N B } ∣ D 0 = D ] ( 4 ) \qquad \qquad \qquad V_N(\mathcal{D})=\sup _{\pi \in \Pi} \mathbb{E}^\pi\left[\sum_{n=1}^N r\left(\mathcal{D}_{n-1}, \mathcal{D}_n\right) \mathbf{1}_{\left\{n \leq N_B\right\}} \mid \mathcal{D}_0=\mathcal{D}\right] \qquad \qquad \qquad \qquad (4) VN(D)=πΠsupEπ[n=1Nr(Dn1,Dn)1{nNB}D0=D](4)

其中, N N N是固定的“向前看”的步数且 lim ⁡ N → ∞ V N ( D ) = V ∗ ( D ) \lim_{N\rightarrow \infty}V_{N}(\mathcal{D})=V^{*}(\mathcal{D}) limNVN(D)=V(D).

2.有预算的多步EI方法

我们现在来推导有预算的多步期望提升(B-MS-EI)方法, 主要的想法是求解截断后的问题(4). 因此,采样函数是带有参数 N N N的, 即最大的向前看的步数.

2.1 动态规划求解截断的动态规划问题

定义在给定观测值集合 D \mathcal{D} D的条件下评估点 x x x的一步边际报酬为:
Q 1 ( x ∣ D ) = E y , z [ r ( D , D ∪ { ( x , y , z ) } ) 1 { s ( D ) + z ≤ B } ] = E y , z [ ( y − u ( D ) ) + 1 { s ( D ) + z ≤ B } ] ( 5 ) Q_1(x \mid \mathcal{D})=\mathbb{E}_{y, z}\left[r(\mathcal{D}, \mathcal{D} \cup\{(x, y, z)\}) \mathbf{1}_{\{s(\mathcal{D})+z \leq B\}}\right]=\mathbb{E}_{y, z}\left[(y-u(\mathcal{D}))^{+} \mathbf{1}_{\{s(\mathcal{D})+z \leq B\}}\right] \qquad \qquad (5) Q1(xD)=Ey,z[r(D,D{(x,y,z)})1{s(D)+zB}]=Ey,z[(yu(D))+1{s(D)+zB}](5)

定义在给定观测值集合 D \mathcal{D} D的条件下评估点 x x x的一步边际报酬为:
Q 1 ( x ∣ D ) = E y , z [ r ( D , D ∪ { ( x , y , z ) } ) 1 { s ( D ) + z ≤ B } ] = E y , z [ ( y − u ( D ) ) + 1 { s ( D ) + z ≤ B } ] ( 5 ) Q_1(x \mid \mathcal{D})=\mathbb{E}_{y, z}\left[r(\mathcal{D}, \mathcal{D} \cup\{(x, y, z)\}) \mathbf{1}_{\{s(\mathcal{D})+z \leq B\}}\right]=\mathbb{E}_{y, z}\left[(y-u(\mathcal{D}))^{+} \mathbf{1}_{\{s(\mathcal{D})+z \leq B\}}\right] \qquad \qquad (5) Q1(xD)=Ey,z[r(D,D{(x,y,z)})1{s(D)+zB}]=Ey,z[(yu(D))+1{s(D)+zB}](5)

引理1:假设 f f f ln ⁡ c \ln c lnc服从高斯过程先验分布且 D \mathcal{D} D是任意的观测值集合。定义 μ D f ( x ) = E [ f ( x ) ∣ D ] \mu_{D}^{f}(x)=\mathbb{E}[f(x)|\mathcal{D}] μDf(x)=E[f(x)D] μ D ln ⁡ c ( x ) = E [ ln ⁡ c ( x ) ∣ D ] \mu_{D}^{\ln c}(x)=\mathbb{E}[\ln c(x)|\mathcal{D}] μDlnc(x)=E[lnc(x)D], σ D f ( x ) = V a r [ f ( x ) ∣ D ] 1 2 \sigma_{D}^{f}(x)=Var[f(x)|\mathcal{D}]^{\frac{1}{2}} σDf(x)=Var[f(x)D]21 σ D ln ⁡   c = V a r [ ln ⁡ c ( x ) ∣ D ] 1 2 \sigma_{\mathcal{D}}^{\ln c}=Var[\ln c(x)|\mathcal{D}]^{\frac{1}{2}} σDln c=Var[lnc(x)D]21. 那么我们有:
    Q 1 ( x ∣ D ) = E I f ( x ∣ D ) ϕ ( ζ ) 1 s ( D ) ≤ B       ( 6 ) \qquad \qquad \qquad Q_1(x|\mathcal{D})=EI^{f}(x|\mathcal{D})\phi(\zeta)\mathbf{1}_{s(\mathcal{D})\leq B} \qquad \qquad \qquad (6)   Q1(xD)=EIf(xD)ϕ(ζ)1s(D)B   (6)

其中, E I f EI^{f} EIf是经典的对 f f f的期望提升, ζ = ( ln ⁡ ( B − s ( D ) ) − μ D ln ⁡   c ( x ) ) / σ D ln ⁡   c ( x ) \zeta=(\ln(B-s(\mathcal{D}))-\mu_{\mathcal{D}}^{\ln c}(x))/\sigma_{\mathcal{D}}^{\ln c}(x) ζ=(ln(Bs(D))μDln c(x))/σDln c(x), 且 ϕ \phi ϕ是标准正态分布的cdf.

类似的,我们可以定义在 x x x处进行评估的 n n n步价值函数:
Q n ( x ∣ D ) = Q 1 ( x ∣ D ) + E y , z [ max ⁡ x ∈ X Q n − 1 ( x ∣ D ∪ { ( x , y , z ) } ) ] ( 7 ) \qquad \qquad \qquad Q_n(x \mid \mathcal{D})=Q_1(x \mid \mathcal{D})+\mathbb{E}_{y, z}\left[\max _{x \in \mathbb{X}} Q_{n-1}(x \mid \mathcal{D} \cup\{(x, y, z)\})\right] \qquad \qquad \qquad(7) Qn(xD)=Q1(xD)+Ey,z[xXmaxQn1(xD{(x,y,z)})](7)
我们的多步期望提升采样函数定义为 Q N Q_N QN, 意味着在每一步我们的评估策略在 x n + 1 ∈ arg ⁡ max ⁡ x ∈ X Q N ( x ∣ D n ) x_{n+1}\in \arg \max_{x \in \mathbb{X}}Q_N(x|\mathcal{D}_n) xn+1argmaxxXQN(xDn)处采样.

类似的,我们可以定义在 x x x处进行评估的 n n n步价值函数:
Q n ( x ∣ D ) = Q 1 ( x ∣ D ) + E y , z [ max ⁡ x ∈ X Q n − 1 ( x ∣ D ∪ { ( x , y , z ) } ) ] ( 7 ) \qquad \qquad \qquad Q_n(x \mid \mathcal{D})=Q_1(x \mid \mathcal{D})+\mathbb{E}_{y, z}\left[\max _{x \in \mathbb{X}} Q_{n-1}(x \mid \mathcal{D} \cup\{(x, y, z)\})\right] \qquad \qquad \qquad(7) Qn(xD)=Q1(xD)+Ey,z[xXmaxQn1(xD{(x,y,z)})](7)
我们的多步期望提升采样函数定义为 Q N Q_N QN, 意味着在每一步我们的评估策略在 x n + 1 ∈ arg ⁡ max ⁡ x ∈ X Q N ( x ∣ D n ) x_{n+1}\in \arg \max_{x \in \mathbb{X}}Q_N(x|\mathcal{D}_n) xn+1argmaxxXQN(xDn)处采样.

2.2 利用一次多步树(One-shot Multi-Step Trees)优化采样函数

优化B-MS-EI采样函数需要求解一个连续的嵌套随机优化问题,这是相当具有挑战性的. 本文在多步情景树方法[2]的基础上基于求解 max ⁡ x ∈ X Q N ( x ∣ D n ) \max_{x\in \mathbb{X}}Q_N(x|\mathcal{D}_n) maxxXQN(xDn)的样本平均近似(Sample Average Approximation) 得到了一个优化方法. 每一个情景对应自己的一个决策变量, 从而将问题转化为一个定义域维度更高的确定性优化问题. 本文利用自动微分和批量线性代数运算的工具来解决该高维的优化问题. 通过重复利用贝尔曼迭代, Q N Q_N QN可以写为:
Q N ( x ∣ D ) = Q 1 ( x ∣ D ) + E y , z [ max ⁡ x 2 { Q 1 ( x 2 ∣ D 1 ) + E y , z [ max ⁡ x 3 { Q 1 ( x 3 ∣ D 2 ) + ⋯   } ] } ] ( 8 ) Q_N(x \mid \mathcal{D})=Q_1(x \mid \mathcal{D})+\mathbb{E}_{y, z}\left[\max _{x_2}\left\{Q_1\left(x_2 \mid \mathcal{D}_1\right)+\mathbb{E}_{y, z}\left[\max _{x_3}\left\{Q_1\left(x_3 \mid \mathcal{D}_2\right)+\cdots\right\}\right]\right\}\right] \qquad \qquad (8) QN(xD)=Q1(xD)+Ey,z[x2max{Q1(x2D1)+Ey,z[x3max{Q1(x3D2)+}]}](8)

现在,我们考虑 Q N ( x ∣ D ) Q_N(x|\mathcal{D}) QN(xD)的蒙特卡洛近似:
Q ^ N ( x ∣ D ) = Q 1 ( x ∣ D ) + 1 m 1 ∑ j 1 m 1 [ max ⁡ x 2 j 1 { Q 1 ( x 2 j 1 ∣ D 1 j 1 ) + 1 m 2 ∑ j 2 m 2 [ max ⁡ x 3 j 1 j 2 { Q 1 ( x 3 j 1 j 2 ∣ D 2 j 1 j 2 ) + ⋯   } ] } ] ( 9 ) \begin{aligned} &\widehat{Q}_N(x \mid \mathcal{D}) \\ \quad=&Q_1(x \mid \mathcal{D})+\frac{1}{m_1} \sum_{j_1}^{m_1}\left[\max _{x_2^{j_1}}\left\{Q_1\left(x_2^{j_1} \mid \mathcal{D}_1^{j_1}\right)+\frac{1}{m_2} \sum_{j_2}^{m_2}\left[\max _{x_3^{j_1 j_2}}\left\{Q_1\left(x_3^{j_1 j_2} \mid \mathcal{D}_2^{j_1 j_2}\right)+\cdots\right\}\right]\right\}\right] \end{aligned} \qquad (9) =Q N(xD)Q1(xD)+m11j1m1[x2j1max{Q1(x2j1D1j1)+m21j2m2[x3j1j2max{Q1(x3j1j2D2j1j2)+}]}](9)

其中, m i , i = 1 , . . . , N − 1 m_i,i=1,...,N-1 mi,i=1,...,N1是第 i i i步使用的样本数, 观测值的集合通过方程 D i j 1 = D ∪ { ( x , y i j 1 , z i j 1 ) } \mathcal{D}_i^{j_1}=\mathcal{D}\cup\{(x,y_{i}^{j_1},z_{i}^{j_1})\} Dij1=D{(x,yij1,zij1)}递归地定义.

2.3通过基本抽样策略推出的预算调度

B n = B − ∑ i = 1 n z i B_n=B-\sum_{i=1}^{n} z_i Bn=Bi=1nzi表示 n n n时剩余的预算数, 由于计算量的限制, 在实际中可以执行的向前看步骤的数量(N)相对较少, B n B_n Bn可能太大了, 我们的采样函数无法很好地考虑成本的影响, 尤其是在最初的几次评估中. 因此,在本文的方法中, 令采样函数在步骤n中不使用实际的剩余预算, 而是使用由启发式规则设置的幻想预算(fantasy budget). 本文提出了一种启发式预算调度规则,该规则基于一个计算快速的基本抽样策略. 设想在这个基本抽样策略下进行 N N N次顺序评估. 更具体地说,对于 N N N个步骤中的每一步,使用(联合)后验分布在该策略建议的点上计算幻想目标和成本值,然后通过合并这些幻想评估来更新后验分布,并重复. 由此产生的 N N N个幻想成本的总和决定了基本抽样策略产生的累积成本. 然后,将采样函数的预算设置为累积成本与真实剩余预算之间的最小值.该方法将此预算当作实际预算来使用,直到耗尽为止,然后再次使用启发式规则来计算新的幻想预算.

3.数值实验

本文在四个合成实验和四个实际实验中证明了B-MS-EI的有效性并报告了采样函数B-MS-EI的两个变体: N-B-MS-EI \text{N-B-MS-EI} N-B-MS-EI, N-B-MS-EI p \text{N-B-MS-EI}_p N-B-MS-EIp的性能. 此外,我们报告了三个基线采集函数的性能: EI , EI-PUC , EI-PUC-CC \text{EI},\text{EI-PUC},\text{EI-PUC-CC} EI,EI-PUC,EI-PUC-CC.

下图绘制了平均对数后悔率与当前使用的预算的95%置信区间. 与现有方法相比,B-MS-EI(红色和紫色线)表现良好,具体实验细节参见原文.

参考文献

[1] Astudillo R, Jiang D, Balandat M, et al. Multi-step budgeted bayesian optimization with unknown evaluation costs[J]. Advances in Neural Information Processing Systems, 2021, 34: 20197-20209.
[2] Jiang S, Jiang D, Balandat M, et al. Efficient nonmyopic bayesian optimization via one-shot multi-step trees[J]. Advances in Neural Information Processing Systems, 2020, 33: 18039-18049.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/971044.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Ansible之变量

一&#xff09;Ansible变量介绍 我们在PlayBook⼀节中&#xff0c;将PlayBook类⽐成了Linux中的shell。 那么它作为⼀⻔Ansible特殊的语⾔&#xff0c;肯定要涉及到变量定义、控 制结构的使⽤等特性。 在这⼀节中主要讨论变量的定义和使⽤ 二&#xff09;变量命名规则 变量的…

软件设计师(二)程序设计语言基础知识

程序设计语言是为了书写计算机程序而人为设计的符号语言&#xff0c;用于对计算过程进行描述、组织和推导。 一、程序设计语言概述 1、基本概念 &#xff08;1&#xff09;低级语言和高级语言 计算机硬件只能识别由 0、1 组成的机器指令序列&#xff0c;即机器指令程序&…

ssm+vue开放式教学评价管理系统源码和论文

ssmvue开放式教学评价管理系统源码和论文121 开发工具&#xff1a;idea 数据库mysql5.7 数据库链接工具&#xff1a;navcat,小海豚等 技术&#xff1a;ssm 摘 要 随着科学技术的飞速发展&#xff0c;各行各业都在努力与现代先进技术接轨&#xff0c;通过科技手段提高自身…

如何炒伦敦金

由于疫情的影响&#xff0c;目前世界上多个国家降低存款利率&#xff0c;以推动经济发展&#xff0c;由此也引发了比较严重的通胀问题&#xff0c;尤其是在俄乌冲突之后&#xff0c;国际油价不断上涨&#xff0c;加大了这种通货膨胀的影响。进行伦敦金投资是一种规避通胀的好方…

一文速学-让神经网络不再神秘,一天速学神经网络基础(六)-基于数值微分的反向传播

前言 思索了很久到底要不要出深度学习内容&#xff0c;毕竟在数学建模专栏里边的机器学习内容还有一大半算法没有更新&#xff0c;很多坑都没有填满&#xff0c;而且现在深度学习的文章和学习课程都十分的多&#xff0c;我考虑了很久决定还是得出神经网络系列文章&#xff0c;…

电脑耳机没声音怎么解决?教你5个方法!

“刚在电脑上插上耳机准备听歌&#xff0c;但是为什么一直都没有声音呢&#xff1f;这是怎么回事呢&#xff1f;自己捣鼓了很久还是没有找到解决方法&#xff0c;有没有大佬可以指点我一下呀&#xff1f;” 有时候我们可能会在电脑上听音乐、看视频等。如果是在公共场合&#x…

【狂神】Spring5笔记(四)之Mybatis和事物的整合

一、整合Mybatis方式一 目录结构&#xff1a; 大致内容结构&#xff1a; 主要难点就在于applicationContext.xml中相关配置的理解 代码图片如下 这个类就专门用于对象的创建就可以了 测试类&#xff1a; 实现类&#xff1a; SqlSessionTemplate 二、整合Mybatis方式二 相关代码…

作为一家游戏开发公司,有哪些经验可以分享?

在竞争激烈的游戏开发行业中&#xff0c;成功的游戏开发公司需要不断学习、创新和积累经验。作为一家经验丰富的游戏开发公司&#xff0c;我们愿意分享一些我们认为对于取得成功至关重要的经验和教训。这些经验涵盖了游戏开发的各个方面&#xff0c;从创意构思到发布和营销。希…

图片懒加载指令

场景和指令用法&#xff1a; 电商网站的首页通常会很长&#xff0c;用户不一定能访问到页面靠下面的图片&#xff0c;这类图片通过懒加载优化手段可以做到只有进入视口区域才发送图片请求 在vue官网中查看的 将一个自定义指令全局注册到应用层级&#xff08;常见的做法&#xf…

睿趣科技:抖音小店多久可以做起来

随着社交媒体的迅猛发展&#xff0c;抖音成为了全球最受欢迎的短视频平台之一&#xff0c;吸引了数以亿计的用户。在抖音上&#xff0c;人们不仅可以分享自己的生活、才艺和创意&#xff0c;还可以创业经营抖音小店。但是&#xff0c;很多人都想知道&#xff0c;一个抖音小店到…

深度学习技巧应用27-最全的深度学习学习计划的设定与应用,看完更加自信

大家好,我是微学AI,今天给大家介绍一下深度学习技巧应用27-最全的深度学习学习计划的设定与应用,看完更加自信。本文将带大家了解不同类型的深度学习模型,包括卷积神经网络(CNN)、循环神经网络(RNN)等,并学习调整模型超参数、优化算法等技巧。通过参与实际的深度学习项…

这五款wifi检测工具,不要太好用

前言 不断有朋友问到关于wifi测试软件有哪些&#xff1f;WiFi信号和声音一样&#xff0c;强弱都是可以测量的&#xff0c;检测WiFi的方法有很多&#xff0c;作为普通的家庭用户&#xff0c;我们有时需要测试WiFi的速度、信号强度、周围WiFi干扰等等&#xff0c;那么wifi信号如…

Git 回顾小结

Git是一个免费开源&#xff0c;分布式的代码版本控制系统&#xff0c;版主开发团队维护代码 作用&#xff1a;记录代码内容&#xff0c;切换代码版本&#xff0c;多人开发时高校合并代码内容 Git常用命令 命令作用注意git -v查看Git版本git init初始化本地Git仓库git add 文件…

【知识积累】准确率,精确率,召回率,F1值

二分类的混淆矩阵&#xff08;预测图片是否是汉堡&#xff09; 分类器到底分对了多少&#xff1f; 预测的图片中正确的有多少&#xff1f; 有多少张应该预测为是的图片没有找到&#xff1f; 精确率和召回率在某种情况下会呈现此消彼长的状况。举个极端的例子&#xf…

山西电力市场日前价格预测【2023-09-05】

日前价格预测 预测明日&#xff08;2023-09-05&#xff09;山西电力市场全天平均日前电价为262.11元/MWh。其中&#xff0c;最高日前电价为349.80元/MWh&#xff0c;预计出现在19:30。最低日前电价为0.00元/MWh&#xff0c;预计出现在11:45-14:15。 价差方向预测 1&#xff1a…

机械零件保养3d模拟演示打消客户购买顾虑

复杂机械的工作运转是复杂的&#xff0c;想要对机械有深度的理解和迭代&#xff0c;必须了解它的运转原理及参数&#xff0c;复杂机械运行原因教学存在着不可视、系统庞杂及知识点多等弊病&#xff0c;3D虚拟展示是基于web3d网页运行的三维页面&#xff0c;可以将复杂机械运行过…

实现 Entity实例生命周期和vue组件生命周期融合

场景解决方案实现方案index.vue方案解决效果 场景 ceisum中Entity实例的生成和销毁&#xff0c;大部分逻辑和vue代码分离&#xff0c;导致不好阅读和维护 解决方案 ceisum 中实例 Entity 的生命周期&#xff0c;和vue的生命周期’相似’&#xff0c;把两个生命周期结合(把en…

软件设计师学习笔记8-操作系统+进程

目录 1.操作系统 1.1操作系统层次图 1.2操作系统的作用 1.3操作系统的任务 2.特殊的操作系统 3.进程 3.1进程的概念 3.2进程与程序 3.3进程与线程 3.4进程的状态 3.4.1三态模型 3.4.2基于三态模型的五态模型 1.操作系统 1.1操作系统层次图 该图片来自希赛软考 1.…

港陆证券:9月券商金股名单大曝光,“宁王”霸气回归居榜首!

9月金股来袭&#xff0c;37家券商算计引荐273股&#xff0c;其中60股获2家及以上组织引荐。 9月主线行情怎么看 梳理券商9月“金股”策略发现&#xff0c;组织普遍以为当前商场处于底部区域&#xff0c;装备方向上&#xff0c;大都券商主张重视新能源、科技板块&#xff0c;还…

敦煌网、Jumia等跨境电商平台怎么测评(补单)留评?

评论的重要性是众所周知的&#xff0c;对于想要做卖家运营的人来说&#xff0c;它直接影响着产品的销量和排名 那么如何通过自养号测评来提升销量和排名呢&#xff1f; 我相信大家对这个问题已经有了一定的了解&#xff0c;拥有大量自养号可以通过这些号来通过关键词搜索、浏…