最优化学习笔记(一)

news2025/1/3 1:39:40

1. 常见问题[0]

L0范数优化问题:1.2.2
m i n   ∣ ∣ x ∣ ∣ 0 , min \space ||x||_0, min ∣∣x0,
s . t .   A x = b s.t. \space Ax=b s.t. Ax=b
其中, A x = b Ax=b Ax=b为一个欠定方程组(方程个数远小于未知数个数)。
问题1.2.2是一个NP难问题,若 A , b A,b A,b满足一定条件,可将其转化为基追踪问题求解(L1范数优化问题),但不能将其转化为L2范数优化问题。
因为L0与L1范数优化问题的解具有稀疏性,而L2范数优化问题却不具有稀疏性。

基追踪问题:1.2.3
m i n   ∣ ∣ x ∣ ∣ 1 , min \space ||x||_1, min ∣∣x1,
s . t .   A x = b s.t. \space Ax=b s.t. Ax=b
其中, A x = b Ax=b Ax=b为一个欠定方程组(方程个数远小于未知数个数)

LASSO问题(LASSO,least absolute shrinkage and selection operator):1.2.5
m i n   1 2 ∣ ∣ A x − b ∣ ∣ 2 + μ ∣ ∣ x ∣ ∣ 1 min \space \frac{1}{2} ||Ax-b||^2 + \mu ||x||_1 min 21∣∣Axb2+μ∣∣x1

矩阵补全问题,低秩矩阵恢复问题:1.3.1
m i n   r a n k ( X ) , min \space rank(X), min rank(X),
s . t .   X i j = M i j , ( i , j ) ∈ Ω s.t. \space X_{ij} = M_{ij}, (i,j)\in \Omega s.t. Xij=Mij,(i,j)Ω
其中, Ω \Omega Ω为指标集
该问题是一个NP难问题。 r a n k ( X ) rank(X) rank(X)为矩阵 X X X非零奇异值的个数,将该问题替换为使得矩阵的核范数最小(奇异值和最小):
m i n   ∣ ∣ X ∣ ∣ ∗ , min \space ||X||_*, min ∣∣X, 1.3.2
s . t .   X i j = M i j , ( i , j ) ∈ Ω s.t. \space X_{ij} = M_{ij}, (i,j)\in \Omega s.t. Xij=Mij,(i,j)Ω
问题1.3.2的罚函数形式:
m i n   μ ∣ ∣ X ∣ ∣ ∗ + 1 2 Σ ( i , j ) ∈ Ω ( X i j − M i j ) 2 min \space \mu ||X||_* + \frac{1}{2} \Sigma_{(i,j)\in \Omega} (X_{ij} - M_{ij})^2 min μ∣∣X+21Σ(i,j)Ω(XijMij)2 1.3.3

神经网络优化模型:1.4.3
m i n   Σ i = 1 m ∣ ∣ h ( a i ; x ) − b i ∣ ∣ + λ r ( x ) min \space \Sigma_{i=1}^m ||h(a_i; x) - b_i|| + \lambda r(x) min Σi=1m∣∣h(ai;x)bi∣∣+λr(x)
r ( x ) r(x) r(x)为正则项, a i , b i a_i,b_i ai,bi为训练集的输入与输出

求解方程 ϕ i ( x ) = b i , i = 1 , . . . , m \phi_i (x) = b_i, i=1,...,m ϕi(x)=bi,i=1,...,m 3.1.1 (最常见的是 A x = b Ax=b Ax=b
最小二乘问题:3.1.2
m i n   Σ i = 1 m ( b i − ϕ i ( x ) ) 2 min \space \Sigma_{i=1}^m (b_i - \phi_i(x))^2 min Σi=1m(biϕi(x))2
最小一乘问题:3.1.3
m i n   Σ i = 1 m ∣ b i − ϕ i ( x ) ∣ min \space \Sigma_{i=1}^m |b_i - \phi_i(x)| min Σi=1mbiϕi(x)
最小最大模型:3.1.4 使最大偏差最小化
m i n   m a x i ∣ b i − ϕ i ( x ) ∣ min \space \underset {i}{max} |b_i - \phi_i(x)| min imaxbiϕi(x)
对于很多问题最优解不止一个,或者为了让解具有某些性质,需要加入正则项,即加入关于解的先验知识。
正则项: μ ∣ ∣ x ∣ ∣ 2 2 , μ ∣ ∣ x ∣ ∣ 1 \mu ||x||_2^2, \mu||x||_1 μ∣∣x22,μ∣∣x1
x x x本身不稀疏,但其变换域中是稀疏的,则正则项为: μ ∣ ∣ W ( x ) ∣ ∣ 2 2 , μ ∣ ∣ W ( x ) ∣ ∣ 1 \mu ||W(x)||_2^2, \mu||W(x)||_1 μ∣∣W(x)22,μ∣∣W(x)1,图像处理中 W ( ⋅ ) W(\cdot) W()为全变分或小波变换等。

最大似然估计:
m a x   Π i = 1 n p ( a i , x ) max \space \Pi_{i=1}^n p(a_i, x) max Πi=1np(ai,x)
a i a_i ai为样本, x x x为未知参数, p ( a i , x ) p(a_i, x) p(ai,x)为分布律或概率密度函数
一般对数变换后更容易求解

Tikhonov正则化或岭回归问题:3.2.6
m i n   1 2 ∣ ∣ A x − b ∣ ∣ 2 2 + μ ∣ ∣ x ∣ ∣ 2 2 min \space \frac{1}{2} ||Ax-b||_2^2 + \mu||x||_2^2 min 21∣∣Axb22+μ∣∣x22

矩阵 M M M分解为低秩矩阵 X X X与稀疏矩阵 S S S
m i n   r a n k ( X ) + μ ∣ ∣ S ∣ ∣ 0 , min \space rank(X) + \mu ||S||_0, min rank(X)+μ∣∣S0,
s . t .   X + S = M s.t. \space X+S=M s.t. X+S=M
其中, ∣ ∣ S ∣ ∣ 0 ||S||_0 ∣∣S0表示 S S S的非零元素个数。
为便于求解,替换为:
m i n   ∣ ∣ X ∣ ∣ ∗ + μ ∣ ∣ S ∣ ∣ 1 , min \space ||X||_* + \mu ||S||_1, min ∣∣X+μ∣∣S1,
s . t .   X + S = M s.t. \space X+S=M s.t. X+S=M

图像全变分:
∣ ∣ u ∣ ∣ T V = ∫ Ω ∣ ∣ ∇ u ∣ ∣ d x ||u||_{TV} = \int_{\Omega} ||\nabla u|| dx ∣∣uTV=Ω∣∣∇u∣∣dx
L1范数得到各向异性全变分:
∣ ∣ ∇ u ∣ ∣ 1 = ∣ ∂ x u ∣ + ∣ ∂ y u ∣ ||\nabla u||_1 = |\partial_x u| + |\partial_y u| ∣∣∇u1=xu+yu
L2范数得到各向同性全变分:
∣ ∣ ∇ u ∣ ∣ 2 = ( ∂ x u ) 2 + ( ∂ y u ) 2 ||\nabla u||_2 = \sqrt{(\partial_x u)^2 + (\partial_y u)^2} ∣∣∇u2=(xu)2+(yu)2
Rudin-Osher-FatemiR(ROF)模型:
m i n ∣ ∣ A u − b ∣ ∣ L 2 2 + λ ∣ ∣ u ∣ ∣ T V min ||\mathcal Au - b||_{L^2}^2 + \lambda ||u||_{TV} min∣∣AubL22+λ∣∣uTV
其中, A \mathcal A A为单位算子则模型用于图像去噪,若为模糊算子则模型用于去模糊。第二项保证重构出的图像的阶跃是稀疏的,即重构的图像是一个分片常函数。

2.基础知识[0]

上方图 epigraph

广义实值函数 f : R n → R ˉ f: R^n \rightarrow \bar{R} f:RnRˉ的上方图:
e p i   f = { ( x , t ) ∈ R n + 1 ∣ f ( x ) ≤ t } epi \space f = \{(x,t) \in R^{n+1} | f(x) \leq t \} epi f={(x,t)Rn+1f(x)t}
其中, R ˉ = R ∪ { ± ∞ } \bar{R} = R \cup \{ \pm \infty\} Rˉ=R{±}

凸函数

适当函数:若广义实值函数 f ( x ) , x ∈ χ f(x), x\in \chi f(x),xχ满足 至少有一处取值不为正无穷,以及处处取值不为负无穷,则称 f f f关于 χ \chi χ是适当的。

凸集 C C C满足:
θ x 1 + ( 1 − θ ) x 2 ∈ C , ∀ θ ∈ [ 0 , 1 ] \theta x_1 + (1-\theta) x_2 \in C, \forall \theta \in [0,1] θx1+(1θ)x2C,θ[0,1]
其中, x 1 , x 2 ∈ C x_1, x_2 \in C x1,x2C
仿射集要求更高:
θ x 1 + ( 1 − θ ) x 2 ∈ C , ∀ θ ∈ R \theta x_1 + (1-\theta) x_2 \in C, \forall \theta \in R θx1+(1θ)x2C,θR
其中, x 1 , x 2 ∈ C x_1, x_2 \in C x1,x2C
所以仿射集都是凸集。

f f f为适当函数, d o m   f dom \space f dom f是凸集,且
f ( θ x + ( 1 − θ ) y ) ≤ θ f ( x ) + ( 1 − θ ) f ( y ) , f(\theta x+ (1-\theta)y)\leq \theta f(x) + (1-\theta)f(y), f(θx+(1θ)y)θf(x)+(1θ)f(y),
x , y ∈ d o m   f , θ ∈ [ 0 , 1 ] x, y \in dom \space f, \theta \in [0,1] x,ydom f,θ[0,1]
f f f为凸函数。

次梯度

梯度 g g g定义:
l i m p → 0 f ( x + p ) − f ( x ) − g T p ∣ ∣ p ∣ ∣ = 0 \underset{p \rightarrow 0}{lim} \frac{f(x+p)-f(x) - g^Tp}{||p||} = 0 p0lim∣∣p∣∣f(x+p)f(x)gTp=0
梯度下降算法:
x k + 1 = x k − α k ∇ f ( x k ) x^{k+1} = x^k - \alpha_k \nabla f(x^k) xk+1=xkαkf(xk)

次梯度 g g g的定义:
f ( y ) ≥ f ( x ) + g T ( y − x ) , ∀ y ∈ d o m   f f(y) \geq f(x) + g^T (y-x), \forall y \in dom \space f f(y)f(x)+gT(yx),ydom f
f f f为适当凸函数。
次梯度算法:
x k + 1 = x k − α k g k x^{k+1} = x^k - \alpha_k g^k xk+1=xkαkgk

LASSO问题1.2.5的次梯度:
g = A T ( A x − b ) + μ ⋅ s i g n ( x ) g = A^T(Ax-b) + \mu \cdot sign(x) g=AT(Axb)+μsign(x)

共轭函数

适当函数 f f f的共轭函数:
f ∗ ( y ) = s u p x ∈ d o m   f y T x − f ( x ) f^* (y) = \underset{x \in dom \space f}{sup} y^Tx - f(x) f(y)=xdom fsupyTxf(x)
其中, s u p sup sup为上确界, d o m dom dom为定义域

二次函数:
f ( x ) = 1 2 x T A x + b T x + c f(x) = \frac{1}{2} x^TAx + b^T x + c f(x)=21xTAx+bTx+c
A A A为正定矩阵时, f ( x ) f(x) f(x)的共轭函数:
f ∗ ( y ) = 1 2 ( y − b ) T A − 1 ( y − b ) − c f^*(y) = \frac{1}{2} (y-b)^T A^{-1} (y-b) - c f(y)=21(yb)TA1(yb)c

任一函数 f f f的二次共轭函数:
f ∗ ∗ ( x ) = s u p y ∈ d o m   f ∗ x T y − f ∗ ( y ) f^{**} (x) = \underset{y \in dom \space f^*}{sup} x^Ty - f^*(y) f∗∗(x)=ydom fsupxTyf(y)
f f f为闭凸函数时, f ∗ ∗ ( x ) = f ( x ) , ∀ x f^{**}(x) = f(x), \forall x f∗∗(x)=f(x),x

对偶

既有等式约束又有不等式约束的一般约束最优化问题: 5.4.1
m i n   f ( x ) , min \space f(x), min f(x),
s . t .   c i ( x ) = 0 , i ∈ E , s.t. \space c_i(x)=0, i\in \mathcal E, s.t. ci(x)=0,iE,
c i ( x ) ≤ 0 , i ∈ I c_i(x) \leq 0, i \in \mathcal I ci(x)0,iI

拉格朗日函数:
L ( x , λ , ν ) = f ( x ) + Σ i λ i c i ( x ) + Σ j μ j c j ( x ) , j ∈ E , i ∈ I L(x,\lambda, \nu) = f(x) + \Sigma_i \lambda_i c_i(x) + \Sigma_j \mu_j c_j(x), j \in \mathcal E, i \in \mathcal I L(x,λ,ν)=f(x)+Σiλici(x)+Σjμjcj(x),jE,iI

拉格朗日对偶函数:
g ( λ , ν ) = i n f x ∈ R n   L ( x , λ , ν ) g(\lambda, \nu) = \underset{x\in R^n}{inf} \space L(x,\lambda, \nu) g(λ,ν)=xRninf L(x,λ,ν)
其中, i n f inf inf为下确界

拉格朗日对偶问题:
m a x λ ≥ 0 , ν   g ( λ , ν ) \underset{\lambda \geq 0, \nu}{max} \space g(\lambda, \nu) λ0,νmax g(λ,ν)
将原最小化问题,转化为求原函数下确界最大化问题。

3.ADMM算法[0,11]

对偶问题

原问题: m i n   f ( x ) , s . t .   A x = b min \space f(x), s.t. \space Ax=b min f(x),s.t. Ax=b
拉格朗日函数: L ( x , y ) = f ( x ) + y T ( A x − b ) L(x,y) = f(x) + y^T (Ax-b) L(x,y)=f(x)+yT(Axb)
对偶函数: g ( y ) = i n f x L ( x , y ) g(y) = \underset{x}{inf} L(x,y) g(y)=xinfL(x,y)
对偶问题: m a x   g ( y ) max \space g(y) max g(y)
求解对偶问题得到解 y ∗ y^* y,代入原问题得到解 x ∗ = a r g m i n x L ( x , y ∗ ) x^*= argmin_x L(x,y^*) x=argminxL(x,y)

对偶上升

求解对偶问题
梯度法: y k + 1 = y k + α k ∇ g ( y k ) y^{k+1} = y^k + \alpha^k \nabla g(y^k) yk+1=yk+αkg(yk)
其中, ∇ g ( y k ) = A x − b , x = a r g m i n x L ( x , y k ) \nabla g(y^k) = A x - b, x = argmin_x L(x,y^k) g(yk)=Axb,x=argminxL(x,yk)

对偶上升法:
x k + 1 = a r g m i n x L ( x , y k ) x^{k+1} = argmin_x L(x,y^k) xk+1=argminxL(x,yk)
y k + 1 = y k + α k ( A x k + 1 − b ) y^{k+1} = y^k + \alpha^k (Ax^{k+1} - b) yk+1=yk+αk(Axk+1b)

对偶分解

假定 f f f可分离: f ( x ) = f 1 ( x 1 ) + . . . + f N ( x N ) f(x)=f_1(x_1) + ... + f_N (x_N) f(x)=f1(x1)+...+fN(xN),则 L L L也可分离:
L ( x , y ) = L 1 ( x 1 , y ) + . . . + L N ( x N , y ) − y T b L(x,y) = L_1(x_1,y) + ...+ L_N(x_N,y)-y^T b L(x,y)=L1(x1,y)+...+LN(xN,y)yTb
其中, L i ( x , y ) = f i ( x ) + y T A i x i L_i(x,y) = f_i(x) + y^T A_i x_i Li(x,y)=fi(x)+yTAixi
x x x最小化问题分离为N个最小化问题:
x i k + 1 = a r g m i n x i L i ( x i , y k ) x_i^{k+1} = argmin_{x_i} L_i (x_i, y^k) xik+1=argminxiLi(xi,yk)

对偶分解:
x i k + 1 = a r g m i n x i L i ( x i , y k ) x_i^{k+1} = argmin_{x_i} L_i(x_i,y^k) xik+1=argminxiLi(xi,yk)
y k + 1 = y k + α k ( Σ i A i x i k + 1 − b ) y^{k+1} = y^k + \alpha^k (\Sigma_i A_ix_i^{k+1} - b) yk+1=yk+αk(ΣiAixik+1b)

乘子法

增广拉格朗日函数: L ρ ( x , y ) = f ( x ) + y T ( A x − b ) + ( ρ / 2 ) ∣ ∣ A x − b ∣ ∣ 2 2 L_\rho (x,y) = f(x) + y^T (Ax-b) + (\rho /2) ||Ax-b||_2^2 Lρ(x,y)=f(x)+yT(Axb)+(ρ/2)∣∣Axb22
乘子法:
x k + 1 = a r g m i n x L ρ ( x , y k ) x^{k+1} = argmin_x L_\rho (x,y^k) xk+1=argminxLρ(x,yk)
y k + 1 = y k + ρ ( A x k + 1 − b ) y^{k+1} = y^k + \rho (Ax^{k+1} - b) yk+1=yk+ρ(Axk+1b)
步长 ρ \rho ρ固定

交替方向乘子法

ADMM问题:
m i n   f ( x ) + g ( z ) , min \space f(x) + g(z), min f(x)+g(z),
s . t .   A x + B z = c s.t. \space Ax+Bz=c s.t. Ax+Bz=c

增广拉格朗日函数:
L ρ ( x , y , z ) = f ( x ) + g ( z ) + y T ( A x + B z − c ) + ( ρ / 2 ) ∣ ∣ A x + B z − c ∣ ∣ 2 2 L_\rho (x,y,z) = f(x) + g(z) + y^T (Ax+Bz-c) + (\rho /2) ||Ax+Bz-c||_2^2 Lρ(x,y,z)=f(x)+g(z)+yT(Ax+Bzc)+(ρ/2)∣∣Ax+Bzc22

ADMM方法:
x k + 1 = a r g m i n x L ρ ( x , z k , y k ) x^{k+1} = argmin_x L_\rho (x,z^k,y^k) xk+1=argminxLρ(x,zk,yk)
z k + 1 = a r g m i n z L ρ ( x k + 1 , z , y k ) z^{k+1} = argmin_z L_\rho (x^{k+1},z,y^k) zk+1=argminzLρ(xk+1,z,yk)
y k + 1 = y k + ρ ( A x k + 1 + B z k + 1 − c ) y^{k+1} = y^k + \rho (Ax^{k+1} + Bz^{k+1} - c) yk+1=yk+ρ(Axk+1+Bzk+1c) 对偶更新

ADMM问题的对偶问题:
m i n   c T w + f ∗ ( − A T w ) + g ∗ ( − B T w ) min \space c^T w + f^* (-A^T w) + g^* (-B^Tw) min cTw+f(ATw)+g(BTw)
对ADMM问题使用ADMM求解等价于将DRS算法用于对偶问题上。

[0] 最优化:建模、算法与理论
[1] Markdown 数学符号、公式、花体字母. https://blog.csdn.net/qq_37672864/article/details/127497148
[2] Markdown中添加和使用希腊字母. https://blog.csdn.net/u012028275/article/details/115057245
[3] 范数球、范数锥、多面体,半正定锥. https://blog.csdn.net/Bryant_cqc/article/details/120640939
[4] LR正则化与数据先验分布的关系? - Charles Xiao的回答 - 知乎
https://www.zhihu.com/question/23536142/answer/90135994
[5] 多维高斯分布是如何由一维发展而来的? - 信陵君魏无忌的回答 - 知乎
https://www.zhihu.com/question/36339816/answer/385944057
[6] Tikhonov regularization 吉洪诺夫 正则化. https://www.cnblogs.com/shyang09/p/9120007.html
[7] 坐标下降法. https://bohrium.dp.tech/notebooks/1921409690z
[8] 近似点算子 Proximal Mapping. https://blog.csdn.net/weixin_41024483/article/details/105566558
[9] ADMM算法的详细推导过程是什么? - 覃含章的回答 - 知乎
https://www.zhihu.com/question/309568920/answer/580226096
[10] 凸优化笔记24:ADMM. https://glooow1024.github.io/2020/05/20/optimization/ch24-ADMM/
[11] Alternating Direction Method of Multipliers. https://web.stanford.edu/class/ee364b/lectures/admm_slides.pdf
[12] Douglas–Rachford method and ADMM. https://www.seas.ucla.edu/~vandenbe/236C/lectures/dr.pdf

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2268316.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Mumu模拟器12开启ADB调试方法

在使用安卓模拟器进行开发或调试时,ADB(Android Debug Bridge)是一项不可或缺的工具。大多数模拟器默认开启了ADB调试功能,但在安装最新版的 Mumu模拟器12 时,可能会遇到 adb devices 无法识别设备的问题。 问题描述 …

金融租赁系统的创新发展与市场竞争力提升探讨

内容概要 随着经济的快速发展,金融租赁系统逐渐成为金融市场中不可或缺的一环。它不仅提供了灵活的资金解决方案,还促进了企业的资本结构优化与资源配置效率。因此,了解该系统的市场背景与发展现状至关重要。 在现今环境下,新兴…

SQL 实战:基于经纬度的距离计算与位置查询

在位置服务(LBS)系统中,基于地理位置查询和距离计算是核心功能之一。例如: 查找附近的商铺、加油站或医院。计算两点之间的实际直线距离。筛选出指定范围内的用户或设备位置。 MySQL 提供了多种方式实现地理位置查询&#xff0c…

DAY1牛客题库1-3算法题:C语言版本(思路仅供参考)

挑战一下7天刷完牛客题库的108个题,今天是第一天思密达~一直以来都特别懒的做题,还是得勤奋点我觉得~今天只做了3个~嘻嘻明天去玩回家多弄几个~ 1.输出字符串最后一个单词长度 【1】题目: #include"stdio.h" #include"string…

LeetCode 83 :删除排链表中的重复元素

题目: 地址:https://leetcode.cn/problems/remove-duplicates-from-sorted-list/ 方法一: 方法二: package com.zy.leetcode.LeetCode_04;/*** Author: zy* Date: 2024-12-25-15:19* Description: 删除排链表中的里复元素* …

微信流量主挑战:用户破16!新增文档转换(新纪元3)

朋友们,报告好消息!我的小程序用户数量已经涨到16个了!没错,真没拉朋友圈亲戚好友来撑场子,全靠实力(和一点点运气)吸引了16位陌生小伙伴光临!这波进步,连我自己都感动了…

Java-38 深入浅出 Spring - AOP切面增强 核心概念 相关术语 Proxy配置

点一下关注吧!!!非常感谢!!持续更新!!! 大数据篇正在更新!https://blog.csdn.net/w776341482/category_12713819.html 目前已经更新到了: MyBatis&#xff…

基于Docker+模拟器的Appium自动化测试(二)

模拟器的设置 打开“夜神模拟器”的系统设置,切换到“手机与网络”页,选中网络设置下的“开启网络连接”和“开启网络桥接模式”复选框,而后选择“静态IP”单选框,在IP地址中输入“192.168.0.105”,网关等内容不再赘述…

【从零开始入门unity游戏开发之——C#篇36】C#的out协变和in逆变如何解决泛型委托的类型转换问题

文章目录 一、知识回顾和问题分析1、回顾强制转换和as转换知识2、问题分析 二、为什么泛型委托不行?1、泛型类型的严格类型检查2、**as 和强制类型转换不能直接使用** 三、如何解决这个问题?1、**协变(out)**2、**逆变&#xff08…

深度学习使用Anaconda打开Jupyter Notebook编码

新手入门深度学习使用Anaconda打开Jupyter Notebook编码 1. 安装Anaconda 第一种是Anaconda官网下载安装包,但是很慢,不太建议 第二种使用国内清华大学镜像源下载 选择适合自己电脑的版本,支持windows,linux系统 下载完之后自行…

Linux套接字通信学习

Linux套接字通信 代码源码:https://github.com/say-Hai/TcpSocketLearn/tree/CThreadSocket 在网络通信的时候, 程序猿需要负责的应用层数据的处理(最上层),而底层的数据封装与解封装(如TCP/IP协议栈的功能)通常由操作系统、网络协…

git clone 和 conda 换源

文章目录 git clone 通过 sshconda 创建虚拟环境通过 env.yml 文件conda 换源 git clone 通过 ssh git clone ssh://用户名IP地址:/仓库名字.gitconda 创建虚拟环境通过 env.yml 文件 conda env create -f environment.ymlconda 换源 Step 1 生成 .bashrc 文件在家目录下。…

机床数据采集网关在某机械制造企业的应用

随着工业4.0时代的到来,智能制造已成为制造业转型升级的重要方向。数控机床作为现代制造业的核心设备,其运行状态和加工参数的数据实时采集与分析对于提升生产效率、优化生产流程具有关键意义。 背景概述 某机械制造企业拥有多台数控机床,这…

c# RSA加解密工具,.netRSA加解密工具

软件介绍 名称: c# RSA加解密工具,.netRSA加解密工具依赖.net版本: .net 8.0工具类型: WinForm源码下载 c# RSA加解密工具,.netRSA加解密工具 依赖项 WinFormsRSA.csproj <Project

穷举vs暴搜vs深搜vs回溯vs剪枝_全排列_子集

46. 全排列 递归解决&#xff1a;一开始选一个数&#xff0c;递归进入下一层再选一个新的数&#xff0c;直到到最后一个数。反会上一层遍历其它数。 每次递归到叶子节点就找到了一种组合&#xff0c;思路有了具体怎么实现&#xff1f; 1.怎么记录每条路径&#xff1f; 定义一个…

【Trick】获取kaggle账号的token和api(用于数据集下载)

0&#xff1a;操作背景 由于未来的科研需要用到Unet&#xff0c;但是运行学长的史山代码无法跑通&#xff0c;自己写了一个Unet并load学长的数据集效果也很差&#xff0c;于是打算从最最基础的开始&#xff0c;上github调用一个Unet并成功在公有数据集上跑一遍实例。 Unet的g…

VS Code AI开发之Copilot配置和使用详解

随着AI开发工具的迅速发展&#xff0c;GitHub Copilot在Cursor、Winsuf、V0等一众工具的冲击下&#xff0c;推出了免费版本。接下来&#xff0c;我将为大家介绍GitHub Copilot的配置和使用方法。GitHub Copilot基于OpenAI Codex模型&#xff0c;旨在为软件开发者提供智能化的代…

论文解读 | NeurIPS'24 Lambda:学习匹配先验以处理无标记垂悬问题场景下的实体对齐任务...

点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入&#xff01; 点击 阅读原文 观看作者讲解回放&#xff01; 作者简介 尹航&#xff0c;上海交通大学博士生 内容简介 我们研究了带有无标记悬挂问题的实体对齐&#xff08;EA&#xff09;任务&#xff0c;即部分实体在另一个…

评分模型在路网通勤习惯分析中的应用——提出问题(1)

1、问题的由来、目标和意义 最近一段时间和公司其它业务部门讨论时&#xff0c;发现一个有趣的交通路网问题&#xff0c;车辆从S点行驶到V点共用时40分钟&#xff0c;这段时间内路网中的卡口摄像头识别到了车辆通过的信息。如下图所示&#xff1a; 设计师需要通过这些有限的路…

Spring Security day 11.23

ok了今天学习一个关于登录角色权限的管理框架&#xff0c;我们一起取看看吧 一.权限控制 1.1 认证和授权概念 前面我们已经完成了后台管理系统的部分功能&#xff0c;例如检查项管 理、检查组管理、套餐管理、预约设置等。接下来我们需要思 考 2 个问题&#xff1a; 问题 1 …