凸优化学习之旅

news2024/11/15 9:15:13

目录标题

  • 专业名词
  • MM算法
  • CCP算法:
      • 代码说明
  • SCA算法:
  • 连续松弛
    • 梯度投影算法
  • 分支定界搜索法
  • 凸问题辨别
  • OA算法
  • λ-representation
  • ADMM算法
      • 代码说明
  • BCD算法
      • BCD(Block Coordinate Descent)
      • 代码示例
      • 与ADMM的区别
      • 总结

2024年5月6日15:15:26

专业名词

  • DC问题:Difference of Convex 。Difference理解为差,convex是凸,DC问题就是两个凸函数的差的问题。
  • SCA:连续凸逼近(Successive Convex Approximation)
  • MM算法:Minorize-Maximization、Majorize-Minimization
  • CCP:convex-concave procedure凹凸过程
  • BCD:Block Coordinate Descent,指的是块坐标下降法
  • AO:Alternating Optimization交替优化算法
  • gradient projection method 梯度投影法(解决连续松弛)
  • 非线性规划:目标函数、约束条件至少一个是决策变量的非线性函数。非线性规划问题包括无约束问题与有约束问题。非线性规划问题引入了不等式约束,标志现代规划理论的开始。
  • 无约束最优化:变量轮换法;最速下降法;牛顿法;共轭梯度法;变尺度法
  • Quadratic programming:二次规划。
  • inf,sup为下确界与上确界,在约束条件下取不到极值max与min

MM算法

下图为Majorize-Minimization,即求上界的最小值:(构造的g(x)函数为f(x)的上界函数,求g(x)函数的最小值)
在这里插入图片描述

CCP算法:

CSDN链接(讲MM和CCP)
知乎链接(讲MM)

在这里插入图片描述

  • 每一次要求新构造的可被优化的问题在初始点的值等于原问题在初始点的值,这里一阶泰勒展开是满足的,当 x = x 0 x={x_0} x=x0
    时二者相等。
  • 原问题可以被分解为多个凸的子问题,通过求解这些凸的子问题的最小值,来逼近或得到原问题的驻点。
    示例:
    凹凸程序 (Convex-Concave Procedure, CCP) 是用于求解 DC 问题的一种启发式算法。DC 问题(Difference of Convex functions problems)指的是目标函数可被分解为两个凸函数的差值的优化问题。它的形式如下:

min ⁡ x f ( x ) − g ( x ) \min_{x} f(x) - g(x) xminf(x)g(x)
其中 (f(x)) 和 (g(x)) 都是凸函数。

算法思路:
CCP 通过在每次迭代中线性近似凹的部分,并将问题转化为凸问题进行优化。基本步骤如下:

  1. 给定初始解 (x^0)。
  2. 在第 (k) 次迭代中,线性化凹的部分 (g(x)):
    g ( x ) ≈ g ( x k ) + ∇ g ( x k ) T ( x − x k ) g(x) \approx g(x^k) + \nabla g(x^k)^T (x - x^k) g(x)g(xk)+g(xk)T(xxk)
  3. 解以下凸优化问题:
    x k + 1 = arg ⁡ min ⁡ x f ( x ) − ( g ( x k ) + ∇ g ( x k ) T ( x − x k ) ) x^{k+1} = \arg\min_{x} f(x) - \left( g(x^k) + \nabla g(x^k)^T (x - x^k) \right) xk+1=argxminf(x)(g(xk)+g(xk)T(xxk))
  4. 检查收敛条件,如果满足则停止,否则返回步骤 2。

示例代码1(调用函数):

以下 Python 代码展示了如何使用 CCP 求解一个 DC 问题的示例:

import numpy as np
from scipy.optimize import minimize

# 定义目标函数
def f(x):
    return np.sum(x**2)

def g(x):
    return np.sum(np.abs(x))

# 定义凹凸部分的差值目标函数
def objective(x, g_grad, x_k):
    return f(x) - (g(x_k) + g_grad.T @ (x - x_k))

# 定义梯度计算
def grad_g(x):
    return np.sign(x)

# 函数来求解 DC 问题
def solve_dc(x0, max_iter=100, tol=1e-6):
    x = x0
    for k in range(max_iter):
        g_grad = grad_g(x)
        x_prev = x
        result = minimize(objective, x, args=(g_grad, x_prev), method='L-BFGS-B')
        x = result.x
        if np.linalg.norm(x - x_prev) < tol:
            print(f'Converged after {k + 1} iterations.')
            break
    return x

# 初始化和求解
x0 = np.array([5.0, -3.0, 2.0, -1.0])
x_opt = solve_dc(x0)
print("Optimal solution:", x_opt)

代码说明

  1. 目标函数:

    • (f(x)):凸部分的目标函数。
    • (g(x)):凹部分的目标函数。
  2. 线性化的凹部分目标函数:

    • 使用 objective 函数来计算线性化后的目标函数。
  3. 梯度计算:

    • 使用 grad_g 函数计算凹目标函数的梯度。
  4. CCP 算法:

    • solve_dc 函数实现了 CCP 算法,迭代优化目标函数。

示例代码2(手写函数):

# time: 2024/5/9 10:51
# author: YanJP
import numpy as np

# 定义目标函数
def objective(x):
    return x[0]**2 + x[1]**2

# 目标函数梯度
def grad_objective(x):
    return np.array([2 * x[0], 2 * x[1]])

# 线性化凹部分 d(x, y) 的梯度
def grad_d(x):
    if x[0]**2 > x[1]**2:
        return np.array([x[0], -x[1]])
    else:
        return np.array([-x[0], x[1]])

# 计算线性化后的凸约束部分梯度
def constraint_linearized(x, grad_d, prev_x):
    return 1 - 0.5 * (x[0]**2 + x[1]**2 - grad_d.T @ (x - prev_x))

# 凹凸过程 (CCP) 求解函数
def solve_ccp(x0, max_iter=100, tol=1e-6, step_size=0.1):
    x = x0
    for k in range(max_iter):
        d_grad = grad_d(x)
        grad = grad_objective(x)

        # 线性化凹部分约束
        g_lin = constraint_linearized(x, d_grad, x)

        # 判断线性化后的约束是否满足
        if g_lin > 0:
            x_new = x - step_size * (grad + d_grad)
        else:
            x_new = x - step_size * grad

        if np.linalg.norm(x_new - x) < tol:
            print(f'Converged after {k + 1} iterations.')
            break

        x = x_new

    return x

# 初始值
x0 = np.array([2.0, 2.0])
x_opt = solve_ccp(x0)
print("Optimal solution:", x_opt)
print("Objective value:", objective(x_opt))

SCA算法:

添加链接描述。注意和MM进行对比:SCA 要求近似函数是凸函数 而MM要求近似函数在近似点是原函数的upper bound

连续松弛

51blog

  • 对于松弛优化问题R和原优化问题P,如果满足
    • (i)每一个P的可行解在R中也都可行
    • (ii)P中每个可行解在R中的目标值与其在P中的目标相比都相等或更好,
      那么优化问题R是优化问题P的松弛。
      在这里插入图片描述
      上图的意思就是:松弛模型提供了原问题最优解的确界(最大值问题是上界,最小问题是下界)。

在这里插入图片描述

梯度投影算法

csdn(讲的可以)
比较专业

分支定界搜索法

凸问题辨别

原文链接:

  • 无论是该和速率是作为目标函数,还是作为约束,都不是凸函数的形式,原因是涉及到 log()+log() 的形式,是非凸的。
  • 常见解决方法,是采用迭代的方法,即采用 凸差 / 连续凸近似 / MM算法 (这三种算法的思想都是类似的),在每次迭代的过程中,用目标函数的下界(此时是凸的,如下图) 去替换原来的目标函数,那么,对每次迭代时,新的目标函数都是凸的,且每次的解出的结果都是原函数的下界。且迭代过程期间所得到解是递增的
    在这里插入图片描述

OA算法

知乎(有代码)

λ-representation

在凸优化中,λ-representation(也称为Lagrange 表示)是一种用于描述凸集的方法。它通过使用一组凸组合的方式来表示凸集,其中每个凸组合的权重由一组非负的 Lagrange 乘子 λ i \lambda_i λi 决定。λ-representation 是在凸优化理论中广泛应用的概念,特别是在描述凸包、凸锥和凸函数等方面。

λ-representation 的一般形式可以表示为:

C = { x ∈ R n   ∣   x = ∑ i = 1 m λ i x i ,   x i ∈ C ,   λ i ≥ 0 ,   ∑ i = 1 m λ i = 1 } C = \{ x \in \mathbb{R}^n \ |\ x = \sum_{i=1}^{m} \lambda_i x_i, \ x_i \in C, \ \lambda_i \geq 0, \ \sum_{i=1}^{m} \lambda_i = 1 \} C={xRn  x=i=1mλixi, xiC, λi0, i=1mλi=1}

其中, C C C 是凸集, x i x_i xi C C C 中的点, λ i \lambda_i λi 是非负的 Lagrange 乘子,且满足 ∑ i = 1 m λ i = 1 \sum_{i=1}^{m} \lambda_i = 1 i=1mλi=1。这表示 C C C中的任意点都可以通过一组凸组合来表示。

λ-representation 的优点之一是它提供了一种紧凑且直观的表示凸集的方式,特别是在某些情况下,当凸集的结构比较复杂或难以直接描述时,λ-representation 可以提供一种简单的方法来描述凸集。

ADMM算法

知乎
基本概念:

  • ADMM 将优化问题分解成两个或多个更容易求解的子问题,通过引入拉格朗日乘子进行迭代。
  • 其基本思想来源于拉格朗日乘子法和增广拉格朗日函数。

特征:

  1. 适用范围:用于带有线性约束和非光滑正则化的优化问题,例如 LASSO 和约束优化问题。
  2. 问题分解:将原始问题分解成多个子问题,逐个优化各个变量块。
  3. 拉格朗日乘子:通过引入拉格朗日乘子,实现子问题之间的信息共享。
  4. 非光滑正则化:能够处理带非光滑正则项的问题(如 L1 正则项)。

公式:
给定优化问题:
min ⁡ x , z f ( x ) + g ( z ) , s.t.  A x + B z = c \min_{x, z} f(x) + g(z), \quad \text{s.t.}\ Ax + Bz = c x,zminf(x)+g(z),s.t. Ax+Bz=c
ADMM 将其转化为以下形式:

  1. 更新 (x):
    x k + 1 = arg ⁡ min ⁡ x ( f ( x ) + ρ 2 ∥ A x + B z k − c + u k ∥ 2 2 ) x^{k+1} = \arg \min_x \left( f(x) + \frac{\rho}{2} \|Ax + Bz^k - c + u^k\|_2^2 \right) xk+1=argxmin(f(x)+2ρAx+Bzkc+uk22)
  2. 更新 (z):
    z k + 1 = arg ⁡ min ⁡ z ( g ( z ) + ρ 2 ∥ A x k + 1 + B z − c + u k ∥ 2 2 ) z^{k+1} = \arg \min_z \left( g(z) + \frac{\rho}{2} \|Ax^{k+1} + Bz - c + u^k\|_2^2 \right) zk+1=argzmin(g(z)+2ρAxk+1+Bzc+uk22)
  3. 更新乘子 (u):
    u k + 1 = u k + A x k + 1 + B z k + 1 − c u^{k+1} = u^k + Ax^{k+1} + Bz^{k+1} - c uk+1=uk+Axk+1+Bzk+1c
    在交替方向乘子法 (ADMM) 中,u 是拉格朗日乘子,z 是引入的辅助变量,用于分解问题。通过 zu,可以将问题分解为更容易处理的子问题。

在 LASSO 问题中,目标函数:
min ⁡ β 1 2 ∣ X β − y ∣ 2 2 + λ ∣ β ∣ 1 \min_{\beta} \frac{1}{2} |X\beta - y|_2^2 + \lambda |\beta|_1 βmin21y22+λβ1
目标函数被拆分成以下两个部分:

  1. 子问题 1(更新 (\beta)):
    β k + 1 = arg ⁡ min ⁡ β 1 2 ∥ X β − y ∥ 2 2 + ρ 2 ∥ β − z k + u k ∥ 2 2 \beta^{k+1} = \arg\min_{\beta} \frac{1}{2} \|X\beta - y\|_2^2 + \frac{\rho}{2} \|\beta - z^k + u^k\|_2^2 βk+1=argβmin21y22+2ρβzk+uk22

  2. 子问题 2(更新 (z)):
    z k + 1 = arg ⁡ min ⁡ z λ ∥ z ∥ 1 + ρ 2 ∥ β k + 1 − z + u k ∥ 2 2 z^{k+1} = \arg\min_{z} \lambda \|z\|_1 + \frac{\rho}{2} \|\beta^{k+1} - z + u^k\|_2^2 zk+1=argzminλz1+2ρβk+1z+uk22

  3. 更新 (u)(拉格朗日乘子):
    u k + 1 = u k + ( β k + 1 − z k + 1 ) u^{k+1} = u^k + (\beta^{k+1} - z^{k+1}) uk+1=uk+(βk+1zk+1)

完整的 Python 实现:

import numpy as np

# 生成随机数据
np.random.seed(0)
m, n = 100, 20
X = np.random.randn(m, n)
beta_true = np.random.randn(n)
y = X @ beta_true + 0.1 * np.random.randn(m)

# ADMM 参数
rho = 1.0
alpha = 1.0
lambda_lasso = 0.1
max_iter = 1000
abs_tol = 1e-4
rel_tol = 1e-3

# 初始值
beta = np.zeros(n)
z = np.zeros(n)
u = np.zeros(n)

# 定义软阈值算子
def soft_threshold(x, kappa):
    return np.sign(x) * np.maximum(np.abs(x) - kappa, 0)

# 预计算常数
X_T_X = X.T @ X
L = np.linalg.cholesky(X_T_X + rho * np.eye(n))

def solve_admm(X, y, lambda_lasso, rho, alpha, max_iter, abs_tol, rel_tol):
    n = X.shape[1]
    beta = np.zeros(n)
    z = np.zeros(n)
    u = np.zeros(n)
    
    X_T_X = X.T @ X
    L = np.linalg.cholesky(X_T_X + rho * np.eye(n))
    L_T = L.T
    
    for k in range(max_iter):
        # 更新 beta
        q = X.T @ y + rho * (z - u)
        beta = np.linalg.solve(L, np.linalg.solve(L_T, q))

        # 更新 z
        z_old = z.copy()
        beta_hat = alpha * beta + (1 - alpha) * z_old
        z = soft_threshold(beta_hat + u, lambda_lasso / rho)

        # 更新 u
        u += beta_hat - z

        # 计算误差
        r_norm = np.linalg.norm(beta - z)
        s_norm = np.linalg.norm(-rho * (z - z_old))
        eps_pri = np.sqrt(n) * abs_tol + rel_tol * max(np.linalg.norm(beta), np.linalg.norm(z))
        eps_dual = np.sqrt(n) * abs_tol + rel_tol * np.linalg.norm(rho * u)

        if r_norm < eps_pri and s_norm < eps_dual:
            break

        if k % 100 == 0:
            print(f'Iteration {k}, r_norm = {r_norm:.4f}, s_norm = {s_norm:.4f}')

    return beta

# 求解 LASSO 问题
beta_est = solve_admm(X, y, lambda_lasso, rho, alpha, max_iter, abs_tol, rel_tol)
print("Estimated coefficients:", beta_est)

代码说明

  1. solve_admm 函数

    • numpy.linalg.solve 求解 \beta 子问题。
    • 使用 soft_threshold 函数实现软阈值算子,解决 (z) 子问题。
    • 更新拉格朗日乘子 (u)。
  2. soft_threshold 函数

    • 用于执行 L1 正则化的阈值运算。
  3. Cholesky 分解

    • 用于加速 (\beta) 子问题的求解过程。

BCD算法

交替方向乘子法 (ADMM) 和块坐标下降法 (BCD) 都是用于求解优化问题的分解方法,但它们在处理优化问题的方式和应用场景上存在显著区别。以下是两者的主要区别和应用场景:

BCD(Block Coordinate Descent)

基本概念:

  • BCD 通过逐次优化目标函数的一个子集变量来迭代接近最优解。
  • 每次只更新一个或一组变量(块),保持其他变量固定。

特征:

  1. 适用范围:用于目标函数分解成不同块(子集)独立优化的情况。
  2. 块分解:问题被分解为多个块,在每个块内优化子问题。
  3. 逐块优化:保持其他变量固定,优化目标函数的一部分(通常使用梯度或闭式解)。

公式:
对于优化问题:
min ⁡ x f ( x 1 , x 2 , … , x k ) \min_{x} f(x_1, x_2, \ldots, x_k) xminf(x1,x2,,xk)
其中 x = ( x 1 , x 2 , … , x k ) x = (x_1, x_2, \ldots, x_k) x=(x1,x2,,xk)被划分成 (k) 个块,BCD 的过程如下:

  1. 更新第一个块 (x_1):
    x 1 k + 1 = arg ⁡ min ⁡ x 1 f ( x 1 , x 2 k , x 3 k , … , x k k ) x_1^{k+1} = \arg \min_{x_1} f(x_1, x_2^k, x_3^k, \ldots, x_k^k) x1k+1=argx1minf(x1,x2k,x3k,,xkk)
  2. 更新第二个块 (x_2):
    x 2 k + 1 = arg ⁡ min ⁡ x 2 f ( x 1 k + 1 , x 2 , x 3 k , … , x k k ) x_2^{k+1} = \arg \min_{x_2} f(x_1^{k+1}, x_2, x_3^k, \ldots, x_k^k) x2k+1=argx2minf(x1k+1,x2,x3k,,xkk)
  3. 重复对每个块进行更新,直到所有块都更新完成。

代码示例

该Python函数block_coordinate_descent实现了一个基于块坐标下降法(Block Coordinate Descent, BCD)的算法,用于求解具有正定矩阵Hessian的无约束优化问题。具体来说,它最小化的目标函数形式为:
f ( x ) = 1 2 x T Q x + c T x f(\mathbf{x}) = \frac{1}{2}\mathbf{x}^T\mathbf{Q}\mathbf{x} + \mathbf{c}^T\mathbf{x} f(x)=21xTQx+cTx
其中, ( Q ) (\mathbf{Q}) (Q)是一个正定矩阵, c \mathbf{c} c是一个常数向量,而 x \mathbf{x} x是我们要找的向量解。以下是函数详细步骤的分解:
输入参数说明:

  1. Q (np.ndarray): 正定矩阵,定义了目标函数的二次项。
  2. c (np.ndarray): 向量,定义了一次项系数。
  3. max_iter (int, 默认为1000): 最大迭代次数。
  4. tol (float, 默认为1e-5): 收敛容差,当连续两次迭代解之间的L2范数差小于这个值时,认为算法已收敛。
    函数执行流程:
  5. 初始化: 初始化解向量 (\mathbf{x}) 为全零向量,长度与 (\mathbf{c}) 相同。
  6. 迭代过程:
    对于每个迭
  7. 代次数 iteration(从0到max_iter-1): 保存旧解: 复制当前解 x \mathbf{x} x
    x o l d \mathbf{x}_{old} xold,用于后续的收敛性检查。 循环更新坐标: 遍历每个坐标 (i)(从0到n-1,其中 n = len(c)): 计算梯度分量: 计算目标函数在第 (i) 个坐标上的导数分量,这涉及到矩阵 Q \mathbf{Q} Q 的对角元素 Q i i Q_{ii} Qii,以及与其余坐标相关的线性组合。
  8. 更新坐标值: 根据计算出的梯度分量,使用封闭形式的解来直接更新 x [ i ] \mathbf{x}[i] x[i]
  9. 检查收敛: 计算新解 x \mathbf{x} x与旧解 x o l d \mathbf{x}_{old} xold之间的L2范数差,若差值小于预设的 tol,则认为算法已收敛,并打印收敛信息,包括迭代次数,然后跳出循环。 返回结果: 如果达到最大迭代次数仍未收敛,也会返回最后的解 x \mathbf{x} x

特点与适用场景:
优点: BCD方法特别适合处理大规模优化问题,因为它每次只更新一个坐标,减少了每轮迭代的计算复杂度,尤其是在 Q \mathbf{Q} Q 是稀疏或具有特殊结构时。
适用性: 适用于具有大量变量但可以有效独立处理各个变量的优化问题,如稀疏信号恢复、机器学习中的正则化问题等。
综上所述,此函数提供了一个高效求解特定形式优化问题的实现,利用了块坐标下降法的迭代更新策略,旨在找到使目标函数取最小值的向量 x \mathbf{x} x
更新公式: 根据牛顿法或梯度下降法,我们可以写出 (x_i) 的更新规则,即减去梯度方向上的一步大小。这里的目标函数关于 (x_i) 的梯度是 ( − Q i i x i − c i − ∑ j ≠ i Q i j x j ) (-Q_{ii}x_i - c_i - \sum_{j\neq i} Q_{ij}x_j) (Qiixicij=iQijxj)。将 ( x i ) (x_i) (xi) 从梯度中分离出来,得到上述更新规则,即 (x_i) 的新值等于旧值乘以 (-1),再除以 ( Q i i ) (Q_{ii}) (Qii),并加上 Q i r e s t ∗ x i r e s t + c i Q_i^{rest} * x_i^{rest} + c_i Qirestxirest+ci 的相反数

更新第 i 个坐标
x[i] = - (Q_i_rest @ x_i_rest + c_i) / Q_ii

与ADMM的区别

  1. 问题性质

    • ADMM:用于含线性约束和非光滑目标的问题(L1 正则化、线性约束)。
    • BCD:通常用于目标函数可分解为多个块的优化问题。
  2. 解的精度

    • ADMM:引入乘子进行拉格朗日松弛,更适用于收敛到全局最优解。
    • BCD:块坐标更新容易陷入局部最优解。
  3. 迭代方式

    • ADMM:同时引入乘子变量,通过增广拉格朗日函数更新。
    • BCD:逐个块逐次优化变量子集。
  4. 应用场景

    • ADMM:适用于 LASSO、约束优化、矩阵分解等问题。
    • BCD:用于线性回归、聚类、SVM 优化等问题。

总结

ADMM 和 BCD 在处理复杂的优化问题时具有不同的优缺点和适用场景。选择合适的算法可以更好地解决优化问题。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1970903.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

2024 年 5 款顶级的免费和付费 PDF 编辑器个人评测

PDF 为企业、学校或一般用途提供了一种共享各种信息的便捷方式。您可以在笔记本电脑和智能手机上轻松查看 PDF 文档。但大多数图片查看器和 PDF 阅读器不允许您编辑 PDF。因此&#xff0c;当您想要修改 PDF 文件中的图像或文本时&#xff0c;您需要一个PDF 编辑器。 似乎没有太…

springboot高校勤工俭学平台-计算机毕业设计源码66824

摘 要 本研究基于Spring Boot企业框架&#xff0c;设计并实现了一款高校勤工俭学平台&#xff0c;包括首页、通知公告、新闻通知和岗位信息等功能模块。该平台旨在为高校学生提供便捷的勤工俭学信息发布与查询服务&#xff0c;促进校园内部劳动力资源的充分利用和高效管理。在研…

MSTR:智慧无处不在,可信任 AI 的崛起

|| 前言 商业智能&#xff08;BI&#xff09;的力量在于利用数据得出可行的洞察&#xff0c;从而做出更明智的数据驱动决策。从提升内部产品质量、运营和资源利用&#xff0c;到简化公共服务&#xff0c;BI应用非常多样化又具有影响力。 引入人工智能&#xff08;AI&#xff…

Vue+SpringBoot+SpringSecurity项目对于跨域的深度理解

随记&#xff08;可跳过&#xff09;&#xff1a;CodeMan在熬夜肝一周SpringSecurity学习的时候&#xff0c;总是报错&#xff0c;于是冥思苦想&#xff0c;选择了询问Ai&#xff0c;但是不论怎么设置权限&#xff0c;接口仍然无法按所设想的权限被调用&#xff0c;于是在今天的…

这“听说啊”的想法很美感

《澎湃新闻》今天在发表的长文《“第二个香港”即将诞生&#xff01;面积比香港大30倍&#xff0c;或成最大自由港》中称&#xff1a;“听说啊&#xff0c;2024年海南会在合适的时候启动全岛封关运作&#xff0c;这意味着海南要建成更自由、更开放的自由贸易港&#xff0c;咱们…

如何在 Debian 上安装运行极狐GitLab Runner?【二】

极狐GitLab 是 GitLab 在中国的发行版&#xff0c;专门面向中国程序员和企业提供企业级一体化 DevOps 平台&#xff0c;用来帮助用户实现需求管理、源代码托管、CI/CD、安全合规&#xff0c;而且所有的操作都是在一个平台上进行&#xff0c;省事省心省钱。可以一键安装极狐GitL…

亲子游戏 - 华为OD统一考试(D卷)

OD统一考试(D卷) 分值: 200分 题解: Java / Python / C++ 题目描述 宝宝和妈妈参加亲子游戏,在一个二维矩阵(N*N)的格子地图上,宝宝和妈妈抽签决定各自的位置,地图上每个格子有不同的糖果数量,部分格子有障碍物。 游戏规则是妈妈必须在最短的时间(每个单位时间只能走…

PythonPDF操作库之pdfminer使用详解

概要 在现代信息处理领域,PDF 文件是常见的文档格式之一。无论是在企业应用还是个人使用中,能够有效地提取和处理 PDF 文档内容是一项重要技能。pdfminer 是一个强大的 Python 库,专注于从 PDF 文件中提取文本和信息。本文将详细介绍 pdfminer 库,包括其安装方法、主要特性…

【JAVA设计模式】适配器模式——类适配器模式详解与案例分析

前言 在软件设计中&#xff0c;适配器模式&#xff08;Adapter Pattern&#xff09;是一种结构型设计模式&#xff0c;旨在使不兼容的接口能够协同工作。它通过引入一个适配器类&#xff0c;帮助两个接口之间进行适配&#xff0c;使得它们能够互相操作。本文将详细介绍适配器模…

2006-2022年中国农村经营管理年报

2006-2022年中国农村经营管理年报 1、时间&#xff1a;2006-2022年 2、格式&#xff1a;2006-2014年为EXCEL&#xff0c;2015-2022年为PDF 3、说明&#xff1a;根据农村经营管理情况统计报表制度调查数据整理、编辑的。本资料系统收录了全国各省、自治区、直辖市农村集体经济…

Gartner发布2024年安全运营成熟度曲线:改变安全运营策略、能力和效果的23项技术发展趋势

安全运营技术和服务通过识别威胁、漏洞和暴露来保护 IT/OT 系统、云工作负载、应用程序和其他数字资产免受攻击。此技术成熟度曲线可帮助安全和风险管理领导者制定战略并提供安全运营能力和功能。 需要知道的 混合和远程工作实践不断发展&#xff0c;安全运营中心 (SOC) 团队支…

云计算 Logstash 配置管理

日志分析系统ELK 项目架构图 Logstash 是一个开源的、服务器端的数据收集引擎&#xff0c;与 Elasticsearch 和 Kibana 一起构成了 Elastic Stack&#xff08;之前称为 ELK Stack&#xff09;。Logstash 的主要功能是处理和转发数据&#xff0c;它可以从多种数据源收集数据&a…

Mamba+Transformer完美融合,效果炸裂!

因模型规模的扩展和需要处理的序列不断变长&#xff0c;transformer逐渐出现计算量激增、计算效率下降等问题,研究者们提出了Mamba—— 一种创新的线性时间序列建模方法&#xff0c;它结合了递归神经网络&#xff08;RNN&#xff09;和卷积神经网络&#xff08;CNN&#xff09;…

十七、Intellij IDEA2022.1.1下载、安装、激活

目录 &#x1f33b;&#x1f33b; 一、下载二、 安装三、激活 一、下载 官网下载地址 本地直接下载 目前Intellij IDEA的最新版本已经更新到了 2024.1.4&#xff0c;由于最新版本可能存在不稳定的问题&#xff0c;此处选择其他版本进行下载&#xff0c;此处以2022.1.1为例进行下…

Encoder-Decoder Model编码器-解码器模型

Encoder-Decoder编码器-解码器是一种深度学习模型&#xff0c;应用于图像处理、语音识别、自然语言处理等领域。主要由编码器和解码器两部分组成&#xff0c;这种结构能够处理序列到序列的任务。 编码器-解码器模型具备独特的双阶段处理&#xff0c;先对输入信息进行编码&#…

【C++】实验十五

题目&#xff1a; 1、求一元二次方程ax2bxc0的实根。如果方程没有实根&#xff0c;则利用异常处理处理机制输出有关警告信息 2、学校的人事部门保留了有关学生的部分数据&#xff08;学号、姓名、年龄、住址&#xff09;。教务部门也保留了学生的另一些数据&#xff08;学号、…

最新TomatoIDC开源虚拟主机销售系统源码/有插件系统模块+模版系统

源码简介&#xff1a; 最新TomatoIDC开源虚拟主机销售系统源码&#xff0c;它有一个方便扩展的插件和模版系统模块&#xff0c;使用实用。 TomatoIDC&#xff0c;一款遵循GPL3.0协议的开源虚拟主机销售系统&#xff0c;不仅有着可以轻松扩展的插件系统和模版系统&#xff0c;…

神奇的进度条!水缸进度动画效果怎么实现的?

最近看到一个非常有趣的动画效果&#xff1a;水波进度动画&#xff0c;想了一下实现思路&#xff0c;分享给大家~ 效果如下 图片 图片 基本组件代码 先把最基础的组件代码样式写出来&#xff0c;其实无非就是四个部分&#xff1a; 1、圆形水缸 2、水波 2、百分比数字 3、…

NRK3301识别语音芯片在智能按摩椅中的应用与体验提升

在健康与舒适日益受到关注的今天&#xff0c;按摩椅作为缓解疲劳、舒缓压力的设备受到了广大消费者的喜爱。然而&#xff0c;传统的按摩椅操作方式往往繁琐且不直观。在这一背景下&#xff0c;NRK3301语音识别芯片的应用为按摩椅带来了新的变革。‌ 一、高识别准确率和快速响应…

智能巡检机器人怎么选?

随着科技的快速发展&#xff0c;巡检机器人在工业、能源、交通和安防等领域的应用越来越广泛。选择合适的巡检机器人不仅能显著提高巡检效率和质量&#xff0c;还能有效减少人力成本和安全风险。那么&#xff0c;如何根据具体需求选择适合的巡检机器人呢&#xff1f; 一、明确应…