【AI】数学基础——最优化

news2024/10/5 18:32:37

从本质上讲,人工智能的目标就是最优化——在复杂环境中与多体交互中做出最优决策

几乎所有的人工智能问题都会归结为一个优化问题

  • 在线性搜索中,确定寻找最小值时的搜索方向需要使用目标函数的一阶导数和二阶导数
  • 置信域的思想是先确定搜索步长,再确定搜索方向

4.1 基本概念

目标函数(评价函数):要实现最大化/最小化的函数

  • 目标函数可以看做是连续的山脉,最优化的过程就是判断顶峰的位置,并找到到达顶峰路径的过程

最优化理论研究的问题是:

  • 判定 给定目标函数的最大值(最小值)是否存在
  • 找到 令目标函数取到最大值(最小值)的数值

大多数最优化问题都可以通过使目标函数最小化解决

  • 最大化问题可以通过使 − f ( x ) -f(x) f(x) 最小化实现

4.1.1 最优化目标

理想情况下,最优化算法的目标是 找到全局最小值

  • 全局最小值:全局最小值比定义域内所有其他点的函数值都小
  • 局部极小值:局部极小值只比所有邻近点的函数值都小

当目标函数的输入参数较多、解空间较大时,绝大多数的实用算法都不能满足全局搜索对计算复杂度的要求,因而只能求出局部极小值。

在AI领域,只要目标函数取指足够小,就可以把这个值当做全局最小值实用,作为对 性能和复杂度的折衷

4.1.2 凸优化

{ min ⁡ f ( x ) s . t . g i ( x ) ≤ 0 , i = 1 , 2 , ⋯   , k h j ( x ) = 0 , j = 1 , 2 , ⋯   , l \begin{cases} \min f(x)\\ s.t.\quad &g_i(x)\le 0,i=1,2,\cdots,k\\ &\quad h_j(x)=0,j=1,2,\cdots,l \end{cases} minf(x)s.t.gi(x)0,i=1,2,,khj(x)=0,j=1,2,,l

等式约束与不等式的解空间都是凸集

在欧氏空间中,凸集是对于集合内的每一对点,连接该对点的直线段上的每个点也在该集合内

在这里插入图片描述

凸集 ∩ 凸集 = 凸集 凸集\cap 凸集=凸集 凸集凸集=凸集

  • 故有
    { 目标函数是凸集 可行域是凸集 ⇒ 全局最优 = 局部最优 \begin{cases} 目标函数是凸集\\ 可行域是凸集 \end{cases}\Rightarrow 全局最优=局部最优 {目标函数是凸集可行域是凸集全局最优=局部最优

Hessian 阵半正定,为凸函数
[ ∂ 2 f ∂ x 1 2 ∂ 2 f ∂ x 1 ∂ x 2 ⋯ ∂ 2 f ∂ x 1 ∂ x n ∂ 2 f ∂ x 1 ∂ x 2 ∂ 2 f ∂ x 2 2 ⋯ ∂ 2 f ∂ x 2 ∂ x n ⋮ ⋮ ⋱ ⋮ ∂ 2 f ∂ x n ∂ x 1 ∂ 2 f ∂ x n ∂ x 2 ⋯ ∂ 2 f ∂ x n 2 ] \left[\begin{matrix} \frac{\partial^2f}{\partial x_1^2} &\frac{\partial^2f}{\partial x_1\partial x_2}&\cdots&\frac{\partial^2f}{\partial x_1\partial x_n}\\ \frac{\partial^2f}{\partial x_1\partial x_2} &\frac{\partial^2f}{\partial x_2^2}&\cdots&\frac{\partial^2f}{\partial x_2\partial x_n}\\ \vdots&\vdots&\ddots&\vdots\\ \frac{\partial^2f}{\partial x_n\partial x_1} &\frac{\partial^2f}{\partial x_n\partial x_2}&\cdots&\frac{\partial^2f}{\partial x_n^2}\\ \end{matrix} \right] x122fx1x22fxnx12fx1x22fx222fxnx22fx1xn2fx2xn2fxn22f

4.1.3 分类

根据约束条件的不同,最优化问题可以分为无约束优化(unconstrained optimization)和约束优化(constrained optimization) 两类。

  • 无条件优化:对自变量 x x x 的取值没有限制
  • 条件优化:对自变量 x x x 的取值限制在特定的集合内,即需要满足一定的约束条件

4.2 无约束优化问题

目标:
min ⁡ x ∈ R n f ( x ) \min\limits_{x\in R^n}f(x) xRnminf(x)

4.2.1 线性搜索方法

先确定方向,再确定步长

梯度下降法

沿目标函数值下降最快的方向寻找最小值,方向为梯度的反方向

单个样本梯度下降法

梯度

当输入为数值,目标函数的图像为二维空间上的曲线,梯度为导数的反方向

当输入为向量,目标函数的图像就变成了高维空间上的曲面,梯度为垂直于目标函数等值线并指向函数值增加方向的方向向量

  • 梯度:变大最快的方向
    { 一点沿某一方向上的方向导为 Γ 的切线—— Γ :过方向向量与 x o y 垂直的垂面与 f ( x , y , z ) 的交线 某一点沿不同方向有不同的方向导,方向导最大方向为梯度 ▽ f 梯度与等值面垂直 \begin{cases} 一点沿某一方向上的方向导为 \Gamma 的切线——\Gamma:过方向向量与xoy垂直的垂面与f(x,y,z)的交线\\ 某一点沿不同方向有不同的方向导,方向导最大方向为梯度 \bigtriangledown f\\ 梯度与等值面垂直 \end{cases} 一点沿某一方向上的方向导为Γ的切线——Γ:过方向向量与xoy垂直的垂面与f(x,y,z)的交线某一点沿不同方向有不同的方向导,方向导最大方向为梯度f梯度与等值面垂直

  • f ( x ) f(x) f(x) 沿梯度正方向增大,沿梯度负方向减小

梯度下降

要让目标函数以最快下降,就是要让自变量在梯度负方向上移动——多元函数沿其负梯度方向下降最快

步长 :每次更新 f ( x ) f(x) f(x) x x x 的变化值

  • 较小的步长会导致收敛过程较慢
  • f ( x ) f(x) f(x) 接近最小值点时,步长太大会导致迈过最小值点

在梯度下降法中,步长选择的整体规律是逐渐变小

ω ← ω − η ▽ x f ( x ) \omega\leftarrow \omega-\eta\bigtriangledown_x f(x) ωωηxf(x)

多样本梯度下降法

批处理模式

计算每个样本上目标函数的梯度,再将不同样本的梯度进行求和,求和的结果作为本次更新中目标函数的梯度。

在批处理模式中,每次更新都要遍历训练集中所有样本,因而运算量比较大

随机梯度下降法

每次更新中只使用一个样本,下一次更新再使用另一个样本,在不断迭代中实现对所有样本的遍历

梯度下降法分析

梯度下降法只用到了目标函数的一阶导数

  • 一阶导数描述的是目标函数如何随输入的变化而变化

  • 二阶导数提供了关于目标函数的曲率信息

    曲率影响的是目标函数的下降速度

    曲率为正,目标函数会比梯度下降法预期下降的更慢

    曲率为负,目标函数则会比梯度下降法预期下降的更快

只能利用目标函数的局部性质,因而难免盲目的搜索,导致收敛过慢

  • 通过一阶导数,可以获知目标函数可能在多个方向上都有增加的导数,意味着下降的梯度有很多种选择。但不同选择的效果有好有坏

  • 但无法获取导数的变化信息,即无法得知导数长期为负的方向

牛顿法

将二阶导数引入优化过程,得到的典型方法就是牛顿法

将目标函数泰勒展开成二阶近似形式,再对近似形式求导并令其为0,得到的向量为下降最快的方向

  • 相较梯度下降法,牛顿法下降速度快

4.2.2 非线性搜索——置信域方法

先确定步长,以步长为参数划定一个区域,再在这个区域内寻找最快大的下降方法

算法过程:

  1. 设置 置信域半径 s s s ,并在以当前点为中心、 s s s 为半径的封闭圆球形区域作为 置信域

  2. 在置信域内寻找目标函数的二次近似模型的最优点,最优点与当前点的距离就是 备选位移

  3. 在备选位移上,

    如果目标函数的二次近似产生了充分下降,就将当前点移动到计算出的最优点,并以此规则迭代,适当增加 s s s

    如果目标函数的近似下降不明显,则说明步长太大,需要缩小 s s s 并重新计算备选位移

    直到满足备选位移

4.2.3 非地毯式搜索——启发式算法

核心思想:优生劣汰的生存法则,并在算法中增加了选择和突变等经验因素

智能程度高的表现在于善用启发式策略,不用经过大量搜索也能解决问题

  • 生物进化——遗传算法

  • 统计物理中固体结晶过程——模拟退火算法

  • 低等动物产生集群智能——蚁群算法

  • 大脑中神经元竞争和协作的机制——人工神经网络

4.3 约束优化问题

4.3.1 约束优化与Langrange函数

对于凸优化问题
{ min ⁡ x f ( x ) s . t . h j ( x ) = 0 , j = 1 , 2 , ⋯   , l g i ( x ) ≤ 0 , i = 1 , 2 , ⋯   , m \begin{cases} \min\limits_{x}f(x)\\ s.t.& h_j(x)=0&,j=1,2,\cdots,l\\ &g_i(x)\le 0&,i=1,2,\cdots,m \end{cases} xminf(x)s.t.hj(x)=0gi(x)0,j=1,2,,l,i=1,2,,m
由 Lagrange 函数
L ( x , α , β ) = f ( x ) + ∑ i = 1 m α i g i ( x ) + ∑ j = 1 l β j h j ( x ) , α i ≥ 0 , β j ≥ 0 L(x,\alpha,\beta)=f(x)+\sum\limits_{i=1}^m\alpha_i g_i(x)+\sum\limits_{j=1}^l\beta_j h_j(x)\quad ,\alpha_i\ge 0,\beta_j\ge 0 L(x,α,β)=f(x)+i=1mαigi(x)+j=1lβjhj(x),αi0,βj0
求证:在满足 ▽ x L = 0 \bigtriangledown_x L=0 xL=0 的条件下, max ⁡ L = f ( x ) \max L=f(x) maxL=f(x)

  • L L L 求梯度过程为求 L L L 最大值的过程

在可行解域内
h j ( x ) ≡ 0 ⇒ β j h j ( x ) ≡ 0 g i ( x ) ≤ 0 且 α i ≥ 0 ,故 α i g i ≤ 0 h_j(x)\equiv 0\Rightarrow \beta_jh_j(x)\equiv 0\\ g_i(x)\le 0且 \alpha_i\ge 0,故 \alpha_ig_i\le 0 hj(x)0βjhj(x)0gi(x)0αi0,故αigi0

max ⁡ α , β L ( x , α , β ) = max ⁡ α , β [ f ( x ) + ∑ i = 1 m α i g i ( x ) + ∑ j = 1 l β j h j ( x ) ] = f ( x ) + max ⁡ α , β [ ∑ i = 1 m α i g i ( x ) + ∑ j = 1 l β j h j ( x ) ] = f ( x ) \begin{aligned} \max\limits_{\alpha,\beta}L(x,\alpha,\beta)&=\max\limits_{\alpha,\beta}\left[f(x)+\sum\limits_{i=1}^m\alpha_ig_i(x)+\sum\limits_{j=1}^l\beta_jh_j(x)\right]\\ &=f(x)+\max\limits_{\alpha,\beta}\left[\sum\limits_{i=1}^m\alpha_ig_i(x)+\sum\limits_{j=1}^l\beta_jh_j(x)\right]\\ &=f(x) \end{aligned} α,βmaxL(x,α,β)=α,βmax[f(x)+i=1mαigi(x)+j=1lβjhj(x)]=f(x)+α,βmax[i=1mαigi(x)+j=1lβjhj(x)]=f(x)

在可行解域外
若 h j ( x ) ≠ 0 ⇒ max ⁡ β j h j ( x ) → ∞ 若 g i ( x ) > 0 ⇒ max ⁡ α i g i ( x ) → ∞ } ⇒ 可行解域外, L ( α , β , x ) → ∞ \left. \begin{aligned} 若h_j(x)\neq 0\Rightarrow \max \beta_jh_j(x)\rightarrow \infty\\ 若g_i(x)>0\Rightarrow \max \alpha_ig_i(x)\rightarrow \infty \end{aligned} \right\}\Rightarrow 可行解域外,L(\alpha,\beta,x)\rightarrow \infty hj(x)=0maxβjhj(x)gi(x)>0maxαigi(x)}可行解域外,L(α,β,x)

对偶问题

KaTeX parse error: Expected 'EOF', got '&' at position 26: …\limits_{x}f(x)&̲\iff \min\limit…

相当于求原问题的下界,故对于条件优化问题,拉格朗日函数与原目标函数有共同的最优点集和共同的最优目标函数值

4.3.2 等式约束优化

{ min ⁡ x f ( x ) s . t . h j ( x ) = 0 , j = 1 , 2 , ⋯   , l \begin{cases} \min\limits_{x} f(x)\\ s.t. h_j(x)=0&,j=1,2,\cdots,l \end{cases} {xminf(x)s.t.hj(x)=0,j=1,2,,l

设有 σ x \sigma_x σx ,对于任一 x F x_F xF ,使 f ( x F + σ x ) < f ( x F ) f(x_F+\sigma_x)<f(x_F) f(xF+σx)<f(xF) ——即 f ( x ) f(x) f(x) 为凸函数

1. f ( x ) f(x) f(x) 梯度
▽ x k f ( x k ) = ∂ f ( x ) ∂ x k ⇒ ▽ x f ( x ) = ∑ x k ∈ X ∂ f ( x ) ∂ x k \bigtriangledown_{x_k}f(x_k)=\frac{\partial f(x)}{\partial x_k}\Rightarrow\bigtriangledown_{x}f(x)=\sum\limits_{x_k\in\mathcal{X}}\frac{\partial f(x)}{\partial x_k} xkf(xk)=xkf(x)xf(x)=xkXxkf(x)

2. h ( x ) h(x) h(x) 梯度
▽ h ( x ) = ( ▽ h ( x 1 ) ⋮ ▽ h ( x k ) ) \bigtriangledown h(x)=\left( \begin{aligned} \bigtriangledown h(x_1)\\ \vdots\\ \bigtriangledown h(x_k) \end{aligned} \right) h(x)= h(x1)h(xk)
3. h ( x ) h(x) h(x) f ( x ) f(x) f(x) 的梯度关系

eg
{ min ⁡ x f ( x ) = min ⁡ x ( x 1 + x 2 ) s . t . h ( x ) = x 1 2 + x 2 2 − 2 = 0 \begin{cases} \min\limits_{x}f(x)=\min\limits_{x}(x_1+x_2)\\ s.t. \quad h(x)=x_1^2+x_2^2-2=0 \end{cases} {xminf(x)=xmin(x1+x2)s.t.h(x)=x12+x222=0
分别求 f ( x ) f(x) f(x) h ( x ) h(x) h(x) 的梯度
▽ f ( x ) = ( ∂ f ∂ x 1 ∂ f ∂ x 2 ) = ( 1 1 ) ▽ h ( x ) = ( 2 x 1 2 x 2 ) \bigtriangledown f(x)=\left(\begin{aligned} \frac{\partial f}{\partial x_1}\\ \frac{\partial f}{\partial x_2} \end{aligned}\right)=\left( \begin{aligned} 1\\1 \end{aligned} \right)\qquad \bigtriangledown h(x)=\left( \begin{aligned} 2x_1\\2x_2 \end{aligned} \right) f(x)= x1fx2f =(11)h(x)=(2x12x2)
在这里插入图片描述

在这里插入图片描述

从几何上可以看出,当 σ x ⊥ − ▽ x f ( x ) \sigma_x\bot -\bigtriangledown_x f(x) σxxf(x) 时,可找到最小值


从几何角度分析,当达到最优情况 x F x_F xF 时,满足
{ h ( x F + σ x ) = 0 σ x ⋅ ( − ▽ x f ( x F ) ) = 0 ⇒ ▽ x f ( x F ) 与 ▽ x h ( x F ) 平行,有 − ▽ x f ( x F ) = β ▽ x h ( x F ) , β ≥ 0 \begin{cases} h(x_F+\sigma_x)=0\\ \sigma_x\cdot (-\bigtriangledown_xf(x_F))=0 \end{cases}\Rightarrow \bigtriangledown_xf(x_F)与 \bigtriangledown_xh(x_F)平行,有\\ -\bigtriangledown_xf(x_F)=\beta\bigtriangledown_xh(x_F),\beta\ge 0 {h(xF+σx)=0σx(xf(xF))=0xf(xF)xh(xF)平行,有xf(xF)=βxh(xF),β0
即优化问题等价于
{ min ⁡ x f ( x ) s . t . h ( x ) = 0 ⇒ L ( x , β ) = f ( x ) + β h ( x ) , β ≥ 0 ,求 max ⁡ β L ( x , β ) 令 { ∂ L ∂ x = 0 ⇒ ▽ x f ( x ) + β ▽ x h ( x ) = 0 ⇒ − ▽ x f ( x ) = β ▽ x h ( x ) ∂ L ∂ β = 0 ⇒ h ( x ) = 0 \begin{aligned} &\begin{cases} \min\limits_{x}f(x)\\ s.t. \quad h(x)=0 \end{cases}\\ &\Rightarrow L(x,\beta)=f(x)+\beta h(x),\beta \ge 0,求 \max\limits_{\beta}L(x,\beta)\\ 令&\begin{cases} \frac{\partial L}{\partial x}=0&\Rightarrow \bigtriangledown_x f(x)+\beta\bigtriangledown_xh(x)=0\\ &\Rightarrow -\bigtriangledown_x f(x)=\beta\bigtriangledown_xh(x)\\ \frac{\partial L}{\partial \beta}=0&\Rightarrow h(x)=0 \end{cases} \end{aligned} {xminf(x)s.t.h(x)=0L(x,β)=f(x)+βh(x),β0,求βmaxL(x,β) xL=0βL=0xf(x)+βxh(x)=0xf(x)=βxh(x)h(x)=0
eg

对于
{ min ⁡ x f ( x ) = min ⁡ x ( x 1 + x 2 ) s . t . h ( x ) = x 1 2 + x 2 2 − 2 = 0 L ( x 1 , x 2 , β ) = x 1 + x 2 + β ( x 1 2 + x 2 2 − 2 ) \begin{aligned} &\begin{cases} \min\limits_{x}f(x)=\min\limits_{x}(x_1+x_2)\\ s.t. \quad h(x)=x_1^2+x_2^2-2=0 \end{cases}\\ &L(x_1,x_2,\beta)=x_1+x_2+\beta(x_1^2+x_2^2-2) \end{aligned} {xminf(x)=xmin(x1+x2)s.t.h(x)=x12+x222=0L(x1,x2,β)=x1+x2+β(x12+x222)

{ ∂ L ∂ x 1 = 0 ∂ L ∂ x 2 = 0 ∂ L ∂ β = 0 ⇒ { 1 + 2 β x 1 = 0 1 + 2 β x 2 = 0 x 1 2 + x 2 2 − 2 = 0 ⇒ 代入后,得 β ∗ { x 1 ∗ = x 1 β 1 ∗ x 2 ∗ = x x β 2 ∗ \begin{cases} \frac{\partial L}{\partial x_1}=0\\ \frac{\partial L}{\partial x_2}=0\\ \frac{\partial L}{\partial \beta}=0\\ \end{cases}\Rightarrow \begin{cases} 1+2\beta x_1=0\\ 1+2\beta x_2=0\\ x_1^2+x_2^2-2=0 \end{cases}\xRightarrow{代入后,得\beta^*}\begin{cases} x_1^*=x_1\beta_1^*\\ x_2^*=x_x\beta_2^*\\ \end{cases} x1L=0x2L=0βL=0 1+2βx1=01+2βx2=0x12+x222=0代入后,得β {x1=x1β1x2=xxβ2

4.3.3 不等式优化

{ min ⁡ x f ( x ) s . t . g i ( x ) ≤ 0 , i = 1 , 2 , ⋯   , m \begin{cases} \min\limits_{x} f(x)\\ s.t. g_i(x)\le 0&,i=1,2,\cdots,m \end{cases} {xminf(x)s.t.gi(x)0,i=1,2,,m

有Lagrange函数
L ( x , α ) = f ( x ) + ∑ i = 1 m α i g i ( x ) , α i ≥ 0 L(x,\alpha)=f(x)+\sum\limits_{i=1}^m\alpha_ig_i(x),\alpha_i\ge 0 L(x,α)=f(x)+i=1mαigi(x),αi0

最优值在约束范围内

等价于全局最优,即为无约束优化问题
{ min ⁡ x f ( x ) g i ( x ) < 0 , i = 1 , 2 , ⋯   , m \begin{cases} \min\limits_{x}f(x)\\ g_i(x)<0\quad,i=1,2,\cdots,m \end{cases} {xminf(x)gi(x)<0,i=1,2,,m
在这里插入图片描述

eg:
{ min ⁡ x f ( x ) = x 1 2 + x 2 2 s . t . g ( x ) = x 1 2 + x 2 2 − 1 ≤ 0 ⇒ { f ( x ) = x 1 2 + x 2 2 g ( x ) = x 1 2 + x 2 2 − 1 < 0 且 max ⁡ β L ( x , β ) = f ( x ) ⇒ g ( x ) < 0 α = 0 \begin{aligned} &\begin{cases} \min\limits_{x}f(x)=x_1^2+x_2^2\\ s.t.\quad g(x)=x_1^2+x_2^2-1\le 0 \end{cases}\Rightarrow\begin{cases} f(x)=x_1^2+x_2^2\\ g(x)=x_1^2+x_2^2-1<0 \end{cases}\\ &且 \max\limits_{\beta} L(x,\beta)=f(x)\xRightarrow{g(x)<0}\alpha=0 \end{aligned} {xminf(x)=x12+x22s.t.g(x)=x12+x2210{f(x)=x12+x22g(x)=x12+x221<0βmaxL(x,β)=f(x)g(x)<0 α=0

最优值不在约束范围内

梯度关系 { 平行 : − ▽ x f ( x ) = α g ( x ) 同向: α > 0 梯度关系\begin{cases} 平行:-\bigtriangledown_xf(x)=\alpha g(x)\\ 同向:\alpha>0 \end{cases} 梯度关系{平行:xf(x)=αg(x)同向:α>0

在这里插入图片描述

L ( x , α ) = f ( x ) + α g ( x ) L(x,\alpha)=f(x)+\alpha g(x) L(x,α)=f(x)+αg(x)
在可行解域内, g ( x ) ≤ 0 , α > 0 ⇒ α g ( x ) ≤ 0 且 max ⁡ α L ( x , α ) = f ( x ) + max ⁡ α α g ( x ) = f ( x ) ⇒ max ⁡ α α g ( x ) = 0 g ( x ) = 0 \begin{aligned} &在可行解域内,g(x)\le 0,\alpha>0\Rightarrow \alpha g(x)\le 0\\ &且 \max\limits_{\alpha}L(x,\alpha)=f(x)+\max\limits_{\alpha} \alpha g(x)=f(x)\xRightarrow{\max\limits_{\alpha} \alpha g(x)=0}g(x)=0 \end{aligned} 在可行解域内,g(x)0,α>0αg(x)0αmaxL(x,α)=f(x)+αmaxαg(x)=f(x)αmaxαg(x)=0 g(x)=0
即最优值不在约束域内,则一般在边界上

4.3.3 约束优化总结——KKT条件

min ⁡ x max ⁡ α , β L ( x , α , β ) = min ⁡ x max ⁡ α , β [ f ( x ) + ∑ i = 1 m α i g i ( x ) + ∑ j = 1 l β j h j ( x ) ] , α i ≥ 0 , β j ≥ 0 K K T { ▽ x L = 0 ⇒ − ▽ x f ( x ) = ∑ i = 1 m α i ▽ x g i ( x ) + ∑ j = 1 l β j ▽ x h j ( x ) ∂ L ∂ α i = 0 , α i ≥ 0 , α i g i ( x ) ≤ 0 { α i = 0 , g i ( x ) < 0 , 最优解在约束范围内 g i ( x ) = 0 , α i > 0 , 最优解不在约束范围内,一般在边界 ∂ L ∂ β j = 0 , β j ≥ 0 \min\limits_{x}\max\limits_{\alpha,\beta}L(x,\alpha,\beta)=\min\limits_{x}\max\limits_{\alpha,\beta}\left[f(x)+\sum\limits_{i=1}^m\alpha_ig_i(x)+\sum\limits_{j=1}^l\beta_jh_j(x)\right],\alpha_i\ge 0,\beta_j\ge 0\\ KKT\begin{cases} \bigtriangledown_xL =0\Rightarrow -\bigtriangledown_xf(x)=\sum\limits_{i=1}^m\alpha_i\bigtriangledown_xg_i(x)+\sum\limits_{j=1}^l\beta_j\bigtriangledown_xh_j(x)\\ \frac{\partial L}{\partial \alpha_i}=0\quad ,\alpha_i\ge 0,\quad \alpha_ig_i(x)\le 0\begin{cases} \alpha_i=0,g_i(x)<0,\quad 最优解在约束范围内\\ g_i(x)=0,\alpha_i>0 ,\quad 最优解不在约束范围内,一般在边界 \end{cases} \\ \frac{\partial L}{\partial \beta_j}=0\quad ,\beta_j\ge 0 \end{cases} xminα,βmaxL(x,α,β)=xminα,βmax[f(x)+i=1mαigi(x)+j=1lβjhj(x)],αi0,βj0KKT xL=0xf(x)=i=1mαixgi(x)+j=1lβjxhj(x)αiL=0,αi0,αigi(x)0{αi=0,gi(x)<0,最优解在约束范围内gi(x)=0,αi>0,最优解不在约束范围内,一般在边界βjL=0,βj0

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1002359.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【源码】JavaWeb+Mysql招聘管理系统 课设

简介 用idea和eclipse都可以&#xff0c;数据库是mysql&#xff0c;这是一个Java和mysql做的web系统&#xff0c;用于期末课设作业 cout<<"如果需要的小伙伴可以http://www.codeying.top";可定做课设 线上招聘平台整合了各种就业指导资源&#xff0c;通过了…

Pytorch Advanced(三) Neural Style Transfer

神经风格迁移在之前的博客中已经用keras实现过了&#xff0c;比较复杂&#xff0c;keras版本。 这里用pytorch重新实现一次&#xff0c;原理图如下&#xff1a; from __future__ import division from torchvision import models from torchvision import transforms from PIL…

金蝶云星空和四化智造MES(WEB)单据接口对接

金蝶云星空和四化智造MES&#xff08;WEB&#xff09;单据接口对接 接入系统&#xff1a;四化智造MES&#xff08;WEB&#xff09; MES建立统一平台上通过物料防错防错、流程防错、生产统计、异常处理、信息采集和全流程追溯等精益生产和精细化管理&#xff0c;帮助企业合理安排…

Linux中安装MySQL_图解_2023新

1.卸载 为了避免不必要的错误发生,先将原有的文件包进行查询并卸载 // 查询 rpm -qa | grep mysql rpm -qa | grep mari// 卸载 rpm -e 文件名 --nodeps2.将安装包上传到指定文件夹中 这里采用的是Xftp 3.将安装包进行解压 tar -zxvf 文件名 -C 解压路径4.获取解压的全路…

春秋云镜 CVE-2015-9331

春秋云镜 CVE-2015-9331 wordpress插件 WordPress WP All Import plugin v3.2.3 任意文件上传 靶标介绍 wordpress插件 WordPress WP All Import plugin v3.2.3 存在任意文件上传&#xff0c;可以上传shell。 启动场景 漏洞利用 exp #/usr/local/bin/python3 # -*-coding:…

基础设施SIG月度动态:「龙蜥大讲堂」基础设施系列专题分享完美收官,容器镜像构建 2.0 版本上线

基础设施 SIG&#xff08;OpenAnolis Infra SIG&#xff09;目标&#xff1a;负责 OpenAnolis 社区基础设施工程平台的建设&#xff0c;包括官网、Bugzilla、Maillist、ABS、ANAS、CI 门禁以及社区 DevOps 相关的研发工程系统。 01 SIG 整体进展 1. 龙蜥大讲堂 - 基础设施系…

mac 本地运行 http-proxy-middleware ,请求超时

const http require(http)"/customer": {target: "http://10.10.111.192:8080/",// target: "http://user.jinfu.baohan.com/",changeOrigin: true, // 是否启用跨域// 解决mac 代理超时问题headers: {Connection: "keep-alive"},// …

机器学习(10)---特征选择

文章目录 一、概述二、Filter过滤法2.1 过滤法说明2.2 方差过滤2.3 方差过滤对模型影响 三、相关性过滤3.1 卡方过滤3.2 F检验3.3 互信息法3.4 过滤法总结 四、Embedded嵌入法4.1 嵌入法说明4.2 以随机森林为例的嵌入法 五、Wrapper包装法5.1 包装法说明5.2 以随机森林为例的包…

事件处理机制

前面介绍了如何放置各种组件&#xff0c;从而得到了丰富多彩的图形界面&#xff0c;但这些界面还不能响应用户的任何操作。比如单击前面所有窗口右上角的“X”按钮&#xff0c;但窗口依然不会关闭。因为在 AWT 编程中 &#xff0c;所有用户的操作&#xff0c;都必须都需要经过一…

025-从零搭建微服务-文件服务(一)

写在最前 如果这个项目让你有所收获&#xff0c;记得 Star 关注哦&#xff0c;这对我是非常不错的鼓励与支持。 源码地址&#xff08;后端&#xff09;&#xff1a;https://gitee.com/csps/mingyue 源码地址&#xff08;前端&#xff09;&#xff1a;https://gitee.com/csps…

thinkphp5.0 composer 安装oss提示php版本异常

场景复现&#xff1a; 本地 phpstudy 环境&#xff0c;安装的有7.0到7.3三个版本&#xff0c;首先确认composer已经安装 composer安装阿里云oss的命令为&#xff1a;composer require aliyuncs/oss-sdk-php 运行报错&#xff1a; Problem 1- Root composer.json requires php…

电机故障数据集

1.电机常见的故障类型有以下几种&#xff1a; 轴承故障&#xff1a;轴承是电机运转时最容易受损的部件之一。常见故障包括磨损、疲劳、过热和润滑不良&#xff0c;这些问题可能导致噪音增加和电机性能下降。 绝缘老化&#xff1a;电机绝缘材料随着使用时间的增加会老化&#x…

微服务·数据一致-seata

微服务数据一致-seata 概述 Seata&#xff08;Simple Extensible Autonomous Transaction Architecture&#xff09;是一个开源的分布式事务解决方案&#xff0c;旨在帮助应用程序分布式事务管理的挑战。Seata提供了一套全面的工具和框架&#xff0c;可用于实现跨多个数据库和…

Nginx+Tomcat(多实例)实现动静分离和负载均衡

一、Tomcat 多实例部署 1.在安装好jdk环境后&#xff0c;添加两例tomcat服务 #解压安装包 cd /opt tar zxvf apache-tomcat-9.0.16.tar.gz#移动并复制一例 mkdir /usr/local/tomcat mv apache-tomcat-9.0.16 /usr/local/tomcat/tomcat1 cp -a /usr/local/tomcat/tomcat1 /usr…

常用JVM配置参数

在IDE的后台打印GC日志&#xff1a; 既然学习JVM&#xff0c;阅读GC日志是处理Java虚拟机内存问题的基础技能&#xff0c;它只是一些人为确定的规则&#xff0c;没有太多技术含量。 既然如此&#xff0c;那么在IDE的控制台打印GC日志是必不可少的了。现在就告诉你怎么打印。 …

Django03_Django基本配置

Django03_Django基本配置 3.1 整体概述 django项目创建后&#xff0c;在主应用中&#xff0c;会有一个settings.py文件&#xff0c;这个就是该项目的配置文件 settings文件包含Django安装的所有配置settings文件是一个包含模块级变量的python模块&#xff0c;所以该模块本身必…

解决nbsp;不生效的问题

代码块 {{title}} title:附 \xa0\xa0\xa0件,//或者 <span v-html"title"></span> title:附 件&#xff1a;,效果图

青骨申报|CSC管理信息平台使用指南

2023年青年骨干教师出国研修项目于9月10-25日网上报名&#xff0c;为此知识人网小编特转载最新版本的国家留学基金委&#xff08;CSC&#xff09;国家公派留学管理信息平台使用指南&#xff08;国内申请访学类&#xff09;&#xff0c;以方便申报者查阅。 提示&#xff1a;国家…

静态代理和动态代理笔记

总体分为: 1.静态代理: 代理类和被代理类需要实现同一个接口.在代理类中初始化被代理类对象.在代理类的方法中调 用被代理类的方法.可以选择性的在该方法执行前后增加功能或者控制访问 2.动态代理: 在程序执行过程中,实用JDK的反射机制,创建代理对象,并动态的指定要…

数字档案管理系统单机版功能

nhdeep数字档案管理系统&#xff0c;简化了档案库配置过程&#xff0c;内置标准著录项&#xff0c;点击创建新档案库后选择档案库类型为案卷库或一文一件库后&#xff0c;可立即使用此档案库&#xff1b; 支持添加额外的自定义著录项&#xff0c;支持批量数据导入&#xff0c;…