在线学习(online learning)——Chapter 1 What is online learning

news2025/1/19 23:08:16

在线学习(online learning)——Chapter 1 What is online learning

引用

[1]Hoi S C H, Sahoo D, Lu J, et al. Online learning: A comprehensive survey[J]. Neurocomputing, 2021, 459: 249-289.点击阅读

[2]Orabona F. A modern introduction to online learning[J]. arXiv preprint arXiv:1912.13213, 2019.点击阅读

1 Introduction

机器学习在现代数据分析和人工智能 (AI) 应用程序中发挥着至关重要的作用。传统的机器学习范式(paradigm)通常以批处理学习(batch learning)或离线学习(offline learning)的方式工作(尤其是对于监督学习),其中模型是通过某种学习算法从整个训练数据集中立即训练的,然后部署模型进行推理而不需要(或很少)之后执行任何更新。这种学习方法在处理新的训练数据时会产生昂贵的再训练成本,因此在实际应用中的可扩展性很差。

与传统的机器学习不同,在线学习是机器学习的一个子领域,它被设计成以连续的方式从数据中渐进地学习模型。在线学习克服了传统批量学习的缺点,当新的训练数据到来时,模型可以被在线学习者即时有效地更新。

1.1 What is Online Learning?

传统的机器学习范式通常以批学习方式运行,例如,监督学习任务,其中预先给出训练数据的集合,以通过遵循某种学习算法来训练模型。这种范例要求在学习任务之前提供整个训练数据集,并且由于昂贵的训练成本,训练过程通常在离线环境中进行。存在一些关键缺点:

  1. 时间和空间成本效率低
  2. 大规模应用程序的可扩展性较差,因为模型经常需要从头开始重新训练以获得新的训练数据

与批量学习算法不同,在线学习是一种机器学习方法,用于对按顺序到达的数据进行学习,学习者的目标是在每一步学习并更新未来数据的最佳预测值。在线学习能够克服批量学习的缺点,因为可以针对任何新的数据实例立即更新预测模型。因此,在线学习算法对于真实世界数据分析应用中的大规模机器学习任务更为有效和可扩展,在这些应用中,数据不仅规模大,而且速度快。

1.2 Tasks and Applications

在线学习技术可以应用于解决各种现实应用领域中的各种任务。应用场景示例如下:

Supervised learning tasks

可以为监督学习使用在线学习算法。最常见的任务之一是分类,旨在根据观察过去的训练数据实例(其类别标签已给出),预测新数据实例所属的类别。例如,在线学习中通常研究的任务是在线二分类(例如,垃圾邮件过滤),它只涉及两个类别(“垃圾邮件”和“良性”电子邮件);其他类型的监督分类任务包括多类分类、多标签分类和多实例分类等。

除了分类任务之外,另一个常见的监督学习任务是回归分析,这是指用于估计变量之间的关系(通常在因变量和一个或多个自变量之间)的学习过程。在线学习技术自然也可以应用于回归分析任务,例如金融市场中的时间序列分析,其中数据实例以顺序方式到达。此外,利用金融时间序列数据进行在线学习的另一个应用是在线投资组合分,在线学习者的目标是找到一个好的(例如,盈利和低风险)策略,以做出一系列投资组合选择决策。

Bandit learning tasks

Bandit在线学习算法,也称为Multi-armed bandits(MAB),已被广泛用于许多在线推荐系统,例如用于互联网货币化的在线广告、电子商务中的产品推荐、娱乐电影推荐和其他个性化推荐等。

Unsupervised learning tasks

在线学习算法可以应用于无监督的学习任务。这方面的例子包括聚类或聚类分析,使同一组(“聚类”)对象比其他聚类的对象更相似。在线聚类的目的是对一连串的实例进行增量聚类分析,这在挖掘数据流时很常见。

Other learning tasks

在线学习也可用于其他种类的机器学习任务,如推荐系统的学习、学习排名或强化学习。例如,在线学习的协同过滤可以应用于提高推荐系统的性能,通过学习从用户的连续评级/反馈信息流中依次改善协同过滤的任务。

协同过滤简单来说是利用某兴趣相投、拥有共同经验之群体的喜好来推荐用户感兴趣的信息,个人通过合作的机制给予信息相当程度的回应(如评分)并记录下来以达到过滤的目的进而帮助别人筛选信息,回应不一定局限于特别感兴趣的,特别不感兴趣信息的纪录也相当重要。

协同过滤又可分为评比(rating)或者群体过滤(social filtering)协同过滤以其出色的速度和健壮性,在全球互联网领域炙手可热。

在线学习技术通常用于两种主要场景。

  • 一个是提高用于批处理机器学习任务的现有机器学习方法的效率和可扩展性,其中必须在学习任务之前提供完整的训练数据集合。例如,支持向量机(SVM)是用于批量分类任务的一种众所周知的监督学习方法,其中经典的SVM算法对于非常大规模的应用具有较差的可扩展性。
  • 另一种情况是应用在线学习算法直接处理在线流数据分析任务,其中数据实例自然以顺序方式到达,而目标概念可能随时间漂移或演变。例子包括时间序列回归,如股票价格预测,其中数据定期到达,学习者必须在得到下一个实例之前立即做出决定。

1.3 Taxonomy

image-20221124145048313

如图1所总结的。一般来说,从理论的角度来看,在线学习方法是建立在学习理论、优化理论和博弈理论这三大理论之上的。具体来说,根据学习任务中的反馈信息类型和监督类型,可以将在线学习技术分为以下三大类。

Online supervised learning

这涉及到受监督的学习任务,在每一轮在线学习结束时,总是向学习者透露完整的反馈信息。它可以进一步分为两组:

  • “Online Supervised Learning”,形成了在线监督学习的基本方法和原则;
  • “Applied Online Learning”,构成了更多的非传统的在线监督学习,其中的基本方法不能直接应用,算法已经被适当调整以适应非传统的在线学习环境。

Online learning with limited feedback

这涉及到在线学习者在在线学习过程中从环境中获得部分反馈信息的任务。例如,考虑一个在线多类分类任务,在某一回合,学习者对进入的实例进行类别标签的预测,然后收到部分反馈信息,表明预测是否正确,而不是明确的特定真实类别标签。对于这样的任务,在线学习者往往需要对 e x p l o r a t i o n − e x p l o i t a t i o n exploration-exploitation explorationexploitation问题的权衡来做出在线更新或决定。

Online unsupervised learning

在线学习者在在线学习任务期间仅接收数据实例序列,而没有任何额外的反馈(例如,真实的班级标签)。无监督在线学习可以被认为是处理数据流的传统无监督学习的自然延伸。无监督的在线学习的示例包括在线聚类、在线降维和在线异常检测任务等。无监督的网络学习对数据的假设较少,不需要明确的反馈或标签信息,而这些信息可能很难或很难获取。

2 Case Description

用一个简单的例子来说明在线学习。

两个人重复以下游戏:

  • 你的对手选择了一个数字 y t ∈ [ 0 , 1 ] y_t \in [0,1] yt[0,1],你不知道这个数字是多少。
  • 你尝试去猜这个数字,选择了 x t ∈ [ 0 , 1 ] x_t \in [0,1] xt[0,1]
  • 对手公布这个数字,你需要付出平方差化的损失 ( x t − y t ) 2 (x_t-y_t)^2 (xtyt)2

我们想要尽可能精确地猜测一个数字序列。而要使比赛成立,必须决定什么是“获胜条件”。

首先,简化游戏。让我们假设对手抽到的数字独立同分布于[0,1]上的某个固定分布。如果我们知道分布,我们就可以预测每一轮分布的平均值,并在预期中付出 σ 2 T \sigma^2T σ2T的代价,其中 σ 2 σ^2 σ2是分布的方差。这就是最优情况!但是鉴于我们不知道分布情况,需要将我们的战略与最优战略进行比较。也就是要衡量如下标准:
E Y [ ∑ t = 1 T ( x t − Y ) 2 ] − σ 2 T \begin{equation} \mathbb E_Y\left[\sum_{t=1}^T (x_t - Y)^2\right] - \sigma^2 T\tag{1.1} \end{equation} EY[t=1T(xtY)2]σ2T(1.1)
或者考虑平均值:
1 T E Y [ ∑ t = 1 T ( x t − Y ) 2 ] − σ 2 \begin{equation} \frac{1}{T}\mathbb E_Y\left[\sum_{t=1}^T (x_t - Y)^2\right] - \sigma^2\tag{1.2} \end{equation} T1EY[t=1T(xtY)2]σ2(1.2)
如果(1.1)式中的差值随时间呈次线性增长,并且等价地,如果(1.2)式中的差值随轮数T趋于无穷大而趋于零,则认为策略"成功"是有意义的。也就是说,在平均轮数上,我们希望我们的算法能够接近最优性能。

2.1 最小化悔值(regret)

考虑到收敛成功。重写(1.1)如下:
E [ ∑ t = 1 T ( x t − Y ) 2 ] − min ⁡ x ∈ [ 0 , 1 ]   E [ ∑ t = 1 T ( x − Y ) 2 ]   . \mathbb E\left[\sum_{t=1}^T (x_t - Y)^2\right] - \min_{ x \in [0,1]} \ \mathbb E\left[\sum_{t=1}^T (x-Y)^2\right]~. E[t=1T(xtY)2]x[0,1]min E[t=1T(xY)2] .

Regret T : = ∑ t = 1 T ( x t − y t ) 2 − min ⁡ x ∈ [ 0 , 1 ]   ∑ t = 1 T ( x − y t ) 2 \text{Regret}_T:=\sum_{t=1}^T (x_t - y_t)^2 - \min_{x \in [0,1]} \ \sum_{t=1}^T (x - y_t)^2 RegretT:=t=1T(xtyt)2x[0,1]min t=1T(xyt)2
随着T的增加而次线性增长,我们将会赢得比赛。悔值(Regret)可以从理论上评估在线学习算法的性能。

次线性(sublinear)增长是指 lim ⁡ T → ∞ Regret T T \underset{T\to ∞}{\lim}{\frac{\text{Regret}_T}{T}} TlimTRegretT。次线性增长意味着算法的平均表现和最优决策的平均表现是相当的。

让我们进一步泛化该在线游戏:

  • 算法输出一个向量 x t ∈ V ⊆ R d x_t \in V\subseteq \R^d xtVRd
  • 付出损失 ℓ t : V → R \ell_t: V \rightarrow \R t:VR 来衡量算法在每一轮中的预测效果如何
  • 集合 V V V 称为可行集(feasible set)

另外,让我们考虑一个任意的预测器 u  in  V ⊆ R d \pmb u~ \text{in}~V\subseteq \R^d u in VRd,将它的悔值参数化为 Regret T ( u ) \text{Regret}_T(\pmb u) RegretT(u),因此在线学习无非是设计和分析算法,以最小化对任意竞争者的损失函数序列的悔值
Regret T ( u ) : = ∑ t = 1 T ℓ t ( x t ) − ∑ t = 1 T ℓ t ( u )   \text{Regret}_T(\pmb u):=\sum_{t=1}^T \ell_t(\pmb x_t) - \sum_{t=1}^T \ell_t(\pmb u)~ RegretT(u):=t=1Tt(xt)t=1Tt(u) 
在线学习可以分析如下问题:

  • 点击预测问题
  • 网络上的路由
  • 重复博弈的均衡收敛

让我们重新回到猜数字问题,通过它,我们将揭示在线学习算法及其分析中的大部分关键成分。

2.2 取得胜利的策略

我们能赢得猜数字游戏吗?值得注意的是,我们没有假设对手如何决定数字。事实上,数字可以以任何方式生成,甚至可以根据我们的策略以自适应方式生成。这些数字可以一敌对的方式生成,目的就是让我们输掉比赛。这就是为什么我们称生成数字的机制为对手(adversary)。

让我们尝试设计一种策略,使得不管对手如何选择数字,悔值在时间上总是次线性的。首先看一下事后的最佳策略,即悔值的第二项最小值:
x T ⋆ : = argmin x ∈ [ 0 , 1 ]   ∑ t = 1 T ( x − y t ) 2 = 1 T ∑ t = 1 T y t x^\star_T := \underset{x \in [0,1]}{\text{argmin}} \ \sum_{t=1}^T (x - y_t)^2 = \frac{1}{T} \sum_{t=1}^T y_t xT:=x[0,1]argmin t=1T(xyt)2=T1t=1Tyt

由于我们无法预知未来,可以肯定的是不能用 x T ⋆ x^\star_T xT 作为我们在每一轮的猜测值。但是我们知道过去,所以每一轮的合理策略可以是输出过去的最佳数字。为什么这样的策略会有效呢?并不是因为我们期望未来会像过去一样,而是我们想利用这样一个事实:最佳猜测在各轮之间不应变化太大。

因此,在轮次 t t t 我们的策略是去猜测 x t = x t − 1 ⋆ = 1 t − 1 ∑ i = 1 t − 1 y i x_t = x_{t-1}^\star=\frac{1}{t-1} \sum_{i=1}^{t-1} y_i xt=xt1=t11i=1t1yi. 这样的策略被称为 F o l l o w − t h e − L e a d e r Follow-the-Leader FollowtheLeader (FTL), 因为我们在遵循过去几轮的最佳做法 (the Leader)。

现在让我们试着证明这个策略确实会让我们赢得这场比赛。

引理1.1 V ⊆ R d V \subseteq \R^d VRd 以及 ℓ t : V → R \ell_t :V \rightarrow \R t:VR 是一个任意的损失函数序列。用 x t ⋆ x^\star_t xt 表示 V V V 中前 t t t 轮的累计损失的最小值,那么,我们有:
∑ t = 1 T ℓ t ( x t ⋆ ) ≤ ∑ t = 1 T ℓ t ( x T ⋆ ) \sum_{t=1}^T \ell_t(x^\star_{t}) \leq \sum_{t=1}^T \ell_t(x^\star_{T}) t=1Tt(xt)t=1Tt(xT)
证明 我们通过对 T T T 的归纳来证明它。首先有
ℓ 1 ( x 1 ⋆ ) ≤ ℓ 1 ( x 1 ⋆ ) \ell_1(x^\star_1) \leq \ell_1(x^\star_{1}) 1(x1)1(x1)
, 然后对于 T ≥ 2 T\geq2 T2,假设 ∑ t = 1 T − 1 ℓ t ( x t ⋆ ) ≤ ∑ t = 1 T − 1 ℓ t ( x T − 1 ⋆ ) \sum_{t=1}^{T-1} \ell_t(x^\star_{t}) \leq \sum_{t=1}^{T-1} \ell_t(x^\star_{T-1}) t=1T1t(xt)t=1T1t(xT1)为真,我们必须证明
∑ t = 1 T ℓ t ( x t ⋆ ) ≤ ∑ t = 1 T ℓ t ( x T ⋆ ) \sum_{t=1}^T \ell_t(x^\star_{t}) \leq \sum_{t=1}^T \ell_t(x^\star_{T}) t=1Tt(xt)t=1Tt(xT)
这个不等式等价于
∑ t = 1 T − 1 ℓ t ( x t ⋆ ) ≤ ∑ t = 1 T − 1 ℓ t ( x T ⋆ ) (1.3) \sum_{t=1}^{T-1} \ell_t(x^\star_{t}) \leq \sum_{t=1}^{T-1} \ell_t(x^\star_{T}) \tag{1.3} t=1T1t(xt)t=1T1t(xT)(1.3)
我们去掉了累加和的最后一个元素,因为它们是相同的。由于有:
∑ t = 1 T − 1 ℓ t ( x t ⋆ ) ≤ ∑ t = 1 T − 1 ℓ t ( x T − 1 ⋆ ) (1.3.1) \sum_{t=1}^{T-1} \ell_t(x^\star_{t}) \leq \sum_{t=1}^{T-1} \ell_t(x^\star_{T-1}) \tag{1.3.1} t=1T1t(xt)t=1T1t(xT1)(1.3.1)
由于 x T − 1 ⋆ ≤ x T ⋆ x^\star_{T-1} \le x^\star_{T} xT1xT,有
∑ t = 1 T − 1 ℓ t ( x T − 1 ⋆ ) ≤ ∑ t = 1 T − 1 ℓ t ( x T ⋆ ) (1.3.2) \sum_{t=1}^{T-1} \ell_t(x^\star_{T-1}) \leq \sum_{t=1}^{T-1} \ell_t(x^\star_{T}) \tag{1.3.2} t=1T1t(xT1)t=1T1t(xT)(1.3.2)
( 1.3.1 ) (1.3.1) (1.3.1) ( 1.3.2 ) (1.3.2) (1.3.2)可得 ( 1.3 ) (1.3) (1.3)为真。

上面的引理量化了这样一种观点,即知道未来并适应它通常比不适应它要好。有了这个引理,我们现在可以证明悔值将亚线性增长,而且它将在时间上是对数的(logarithmic)。

定理 1.2 y t ∈ [ 0 , 1 ] y_t \in [0,1] yt[0,1] 对于 t = 1 , … , T t=1,\dots,T t=1,,T 是一个数字序列。使算法的输出为 x t = x t − 1 ⋆ : = 1 t − 1 ∑ i = 1 t − 1 y i x_t=x_{t-1}^\star:=\frac{1}{t-1}\sum_{i=1}^{t-1} y_i xt=xt1:=t11i=1t1yi。 于是有:
Regret T = ∑ t = 1 T ( x t − y t ) 2 − min ⁡ x ∈ [ 0 , 1 ]   ∑ t = 1 T ( x − y t ) 2 ≤ 4 + 4 ln ⁡ T \text{Regret}_T = \sum_{t=1}^T (x_t - y_t)^2 - \min_{x \in [0,1]} \ \sum_{t=1}^T (x - y_t)^2 \leq 4 + 4\ln T RegretT=t=1T(xtyt)2x[0,1]min t=1T(xyt)24+4lnT

证明 我们使用引理1来确定悔值的上界:
∑ t = 1 T ( x t − y t ) 2 − min ⁡ x ∈ [ 0 , 1 ]   ∑ t = 1 T ( x − y t ) 2 = ∑ t = 1 T ( x t − 1 ⋆ − y t ) 2 − ∑ t = 1 T ( x T ⋆ − y t ) 2 ≤ ∑ t = 1 T ( x t − 1 ⋆ − y t ) 2 − ∑ t = 1 T ( x t ⋆ − y t ) 2 \sum_{t=1}^T (x_t - y_t)^2 - \min_{x \in [0,1]} \ \sum_{t=1}^T (x - y_t)^2 = \sum_{t=1}^T (x^\star_{t-1} - y_t)^2 - \sum_{t=1}^T (x^\star_T - y_t)^2 \leq \sum_{t=1}^T (x^\star_{t-1} - y_t)^2 - \sum_{t=1}^T (x^\star_t - y_t)^2 t=1T(xtyt)2x[0,1]min t=1T(xyt)2=t=1T(xt1yt)2t=1T(xTyt)2t=1T(xt1yt)2t=1T(xtyt)2
现在,让我们来看看最后一个等式中总和的每一个差值,有:
( x t − 1 ⋆ − y t ) 2 − ( x t ⋆ − y t ) 2 = ( x t − 1 ⋆ ) 2 − 2 y t x t − 1 ⋆ − ( x t ⋆ ) 2 + 2 y t x t ⋆ = ( x t − 1 ⋆ + x t ⋆ − 2 y t ) ( x t − 1 ⋆ − x t ⋆ ) ≤ ∣ x t − 1 ⋆ + x t ⋆ − 2 y t ∣   ∣ x t − 1 ⋆ − x t ⋆ ∣ ≤ 2 ∣ x t − 1 ⋆ − x t ⋆ ∣ = 2 ∣ 1 t − 1 ∑ i = 1 t − 1 y i − 1 t ∑ i = 1 t y i ∣ = 2 ∣ ( 1 t − 1 − 1 t ) ∑ i = 1 t − 1 y i − y t t ∣ ≤ 2 ∣ 1 t ( t − 1 ) ∑ i = 1 t − 1 y i ∣ + 2 ∣ y t ∣ t ≤ 2 t + 2 ∣ y t ∣ t ≤ 4 t   . \begin{aligned} (x^\star_{t-1} - y_t)^2 - (x^\star_t - y_t)^2 &= (x^\star_{t-1})^2 - 2 y_t x^\star_{t-1} - (x^\star_{t})^2 + 2 y_t x^\star_{t} \\ &= (x^\star_{t-1}+x^\star_{t} - 2y_t)(x^\star_{t-1}-x^\star_{t}) \\ &\leq |x^\star_{t-1}+x^\star_{t} - 2y_t|\,|x^\star_{t-1}-x^\star_{t}| \\ &\leq 2 |x^\star_{t-1}-x^\star_{t}| \\ &=2\left|\frac{1}{t-1} \sum_{i=1}^{t-1} y_i -\frac{1}{t} \sum_{i=1}^{t} y_i\right| \\ &=2\left|\left(\frac{1}{t-1}-\frac{1}{t}\right) \sum_{i=1}^{t-1} y_i - \frac{y_t}{t}\right| \\ &\leq 2\left|\frac{1}{t(t-1)}\sum_{i=1}^{t-1} y_i\right| + \frac{2|y_t|}{t} \\ &\leq \frac{2}{t} + \frac{2|y_t|}{t} \\ &\leq \frac{4}{t}~. \end{aligned} (xt1yt)2(xtyt)2=(xt1)22ytxt1(xt)2+2ytxt=(xt1+xt2yt)(xt1xt)xt1+xt2ytxt1xt2∣xt1xt=2 t11i=1t1yit1i=1tyi =2 (t11t1)i=1t1yityt 2 t(t1)1i=1t1yi +t2∣ytt2+t2∣ytt4 .
因此可得:
∑ t = 1 T ( x t − y t ) 2 − min ⁡ x ∈ [ 0 , 1 ]   ∑ t = 1 T ( x − y t ) 2 ≤ 4 ∑ t = 1 T 1 t \sum_{t=1}^T (x_t - y_t)^2 - \min_{x \in [0,1]} \ \sum_{t=1}^T (x - y_t)^2 \leq 4\sum_{t=1}^T\frac{1}{t} t=1T(xtyt)2x[0,1]min t=1T(xyt)24t=1Tt1
要获得最后一个和的上界,请注意,我们正在尝试找到图1.1中绿色区域的上界。从图中可以看到,它的上界可以是 1 t − 1 \frac{1}{t-1} t11 2 2 2 T + 1 T+1 T+1 的积分。所以,我们有
∑ t = 1 T 1 t ≤ 1 + ∫ 2 T + 1 1 t − 1 d t = 1 + ln ⁡ T \sum_{t=1}^T\frac{1}{t} \leq 1+\int_{2}^{T+1} \frac{1}{t-1} dt = 1+ \ln T t=1Tt11+2T+1t11dt=1+lnT
image-20230111103810761

由于 ∣ x t ⋆ − x t − 1 ⋆ ∣ |x^\star_t-x^\star_{t-1}| xtxt1非常快地趋于零,总悔值在时间上是次线性的。

关于这个策略,有几件事需要强调。该策略没有参数需要调整(如学习率、正则项)。请注意,参数的存在在在线学习中是没有意义的。我们只有一个数据流,不能在上面多次运行我们的算法来选择最好的参数。另外,它不需要保持过去的完整记录,而只需要通过运行平均数对其进行 “总结”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/155251.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【1分钟了解网络交换机的6种命令配置模式】

我们在配置交换机的时候首先要了解的就是交换机命令模式,小编用Cisco思科交换机为例带大家了解交换机的6种配置模式。 Cisco IOS提供了用户EXEC模式和特权EXEC模式两种基本的命令执行级别,同时还提供了全局配置、接口配置、Line配置和vlan数据库配置等多…

linux篇【13】:网络应用层—网络版计算器,序列化

目录 一.应用层 1.再谈 "协议" 2.序列化,反序列化 (1)序列化,反序列化的实例: (2)自描述长度的协议 3.网络版计算器 细节(1):报头方案 &am…

2.13Epd 中景园2.13寸电子墨水屏 显示原理(局部刷新指令)

显示有两种模式: 1、MCU RAM 操作之后一起写入显示屏的RAM 在MCU上分配一个成员大小为8位的数组 长度是像素点数的1/8(一位控制一个像素点) 如图:数组是Image_BW 之后是用 显示的操作算法将每个点由对应的数字或字母 汉字的字模写入数组中 最后将数组一起…

如何尽早发现潜在开发风险,降低项目风险?

1、提前规划风险预防和控制策略 针对开发流程中各环节可能存在的风险,项目经理需进行科学的项目风险分析,提前进行科学地规划和部署,制定符合项目特点的风险评估和监督机制,实行岗位负责制,提前制定控制策略&#xff0…

mac配置MySQL环境

对于开发人员来说,只需要安装MySQL Server 和 MySQL Workbench这两个软件,这样就可以满足开发需求 MySQL Server:专门用来提供数据存储和服务的软件 MySQL Workbench::可视化的MySQL管理工具,通过他,可以方…

ArcGIS中栅格计算器常用函数的使用

先看下目录 一、 ArcGlS中栅格计算器简介 栅格计算器位置及界面布局 二、 ArcGIS棚格计算器中Con()函数的使用 (一) Con()函数的用法 (二) ArcGIS 案例操作 三、 ArcGIS栅格计算…

Linux 上面安装 RocektMQ 安装

下载 RocketMQ 我下载的版本是:4.9.3 下载地址 Apache Downloads 环境说明 Linux64 位系统JDK1.8 (64位) 安装步骤 第一步:传入文件到 Linux 服务器 先将下载好的包传到 linux 服务器上面去 这里我传入的路径是在 /usr/local 第二步&#xff1a…

【Pan-sharpening:主要是调节参数】

Pan-sharpening based on multi-objective decision for multi-band remote sensing images (Pan-sharpening基于多目标决策的多波段遥感图像) Pan-sharpening细节注射适用于融合多光谱图像(MS)与其相应的全色(PAN)图像产生合成图像。理论上&#xff0c…

怎么图片压缩?这几个压缩小技巧值得一试

我们在朋友圈或者其它的社交平台上,发布一些照片或者图片的时候,经常会遇到由于图片过大而无法发送的情况,这时候,我们只需要将图片进行压缩就可以解决这个问题了,那么你们知道图片如何压缩大小吗?下面我整…

ANSYS apdl软件学习指令(建立三维模型)

目的:记录常用的三维建模指令 软件版本:ANSYS2022 以角点坐标建立长方体指令 BLC4, XCORNER, YCORNER, WIDTH, HEIGHT, DEPTHblc4指令是建立长方体最常用的指令之一,其中XCORNER, YCORNER是指当前坐标系中需要绘制长方体的起点,…

ThinkPHP6 配置使用Redis

安装Redis 如果未安装redis,请先安装redis,文档可参考: - windows安装redis - linux安装redis 安装predis 项目中需要使用predis来连接和操作redis,我们用composer来安装和加载它。 项目目录命令行执行: compose…

北大硕士LeetCode算法专题课--链表相关问题

算法面试相关专题: 北大硕士LeetCode算法专题课-字符串相关问题_ 北大硕士LeetCode算法专题课-数组相关问题_ 北大硕士LeetCode算法专题课-基础算法查找_ 北大硕士LeetCode算法专题课-基础算法之排序_ 北大硕士LeetCode算法专题课---算法复杂度介绍_ 北大硕士…

荧光定量PCR检测法的原理和应用领域

一、荧光定量PCR原理 在PCR扩增反应体系中加入荧光基团就是荧光定量PCR(Real-time PCR),通过对扩增反应中每一个循环产物荧光信号的实时检测,最后通过标准曲线对未知模板进行定量分析的方法。 以探针法荧光定量PCR为例:PCR扩增时…

STM32G0开发笔记-Platformio+libopencm3-EEPROM M24C02使用

使用Platformio平台的libopencm3开发框架来开发STM32G0,以下为EEPROM M24C02的使用方法。 1 新建项目 建立eeprom项目 在PIO的Home页面新建项目,项目名称eeprom,选择开发板为 MonkeyPi_STM32_G070RB,开发框架选择libopencm3&am…

loss盘点: GIoU loss (拆 PaddleDetection 轮子)

1. GIoU 计算 关于 GIoU 的实现,可直接参看原文给出的网站: https://giou.stanford.edu/ GIoU∣A∩B∣∣A∪B∣−∣C∖(A∪B)∣∣C∣IoU−∣C∖(A∪B)∣∣C∣GIoU \frac { |A \ \cap \ B | } { |A \ \cup \ B | } - \frac { | C \setminus (A \ \cup \…

Spring MVC 总结

Spring MVC Spring MVC 是 javaWeb 的开发模块,是一个架构模式,是整个 javaWeb 开发领域 最重要的一个技术。 Spring MVC 文档 Spring MVC 是 Spring 体系的 轻量级Web MVC框架。Spring MVC 的核心 Controller 控制器,用于处理请求&#xff…

C语言入门(五)——深入理解函数

return 语句 增量式开发 递归 return 语句 之前我们一直在main函数中使用return语句,现在是时候全面深入地学习一下。在有返回值地函数中,return语句的作用是提供整个函数的返回值,并结束当前函数返回到调用它的地方。在没有返回值的函数中…

vue修改el-input样式,样式穿透

vue–element的form表单中修改el-input样式 在使用 element ui 组件过程中,我最近碰到了新的问题。 初始的界面效果是这样的: 这个效果真的不怎么好看,我想把输入框的背景色变浅,变得透明。于是我在代码中添加 .el-input{backgro…

Polygon生态

1. 引言 当前区块链存在不可能三角问题: 1)去中心化2)可扩展性3)安全性 当前单一链仅能兼顾不可能三角中的2个维度,而无法做到三者兼顾。 区块链中的主要角色有: 1)共识层——负责对包含在…

python基础篇之数字类型(上)

大家好,我是csdn的博主:lqj_本人 这是我的个人博客主页:lqj_本人的博客_CSDN博客-微信小程序,前端,vue领域博主lqj_本人擅长微信小程序,前端,vue,等方面的知识https://blog.csdn.net/lbcyllqj?spm1000.2115.3001.5343 哔哩哔哩欢迎关注&…