超详细——集成学习——Adaboost——笔记

news2024/11/24 5:50:55

资料参考 

1.【集成学习】boosting与bagging_哔哩哔哩_bilibili

集成学习——boosting与bagging

强学习器:效果好,模型复杂

弱学习器:效果不是很好,模型简单

优点

        集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能。

集成学习算法需要关注的问题

        1、个体学习器如何训练得到?改变训练数据或概率分布如何改变?

        2、如何将个体学习器组合?

分类

        boosting

        个体学习器存在强依赖关系、必须串行生成序列化方法。

工作机制:

 一、提高那些在前一轮被弱分类器分错的样本权值,减小那些在前一轮被弱分类器分对的样本的权值,使误分的样本在后续受到更多的关注。体现了串行

 二、加法模型将弱分类器进行线性组合。

 举例:

        比如我们现在要去参加期末考,有三个科目。假设你有三个分身,分身A学习语文的成绩比较好,但是数学跟英语的学习比较差。这个时候我们就派分身B上场,我们可以减少他学习语文的时间,增加他学习英语数学的时间,但是我们又发现他数学学的不错,但是语文跟英语学的不好。所以这时候我们就用分身C,同样,我们加大其对英语的学习力度,减少其对语文数学的学习比重,所以学习出来就是英语学的比较好,等到我们期末考的时候我们再将其收回来也就是说组合起来再去参加期末考,这样一来语文数学英语都能得到比较高的分数。

所谓的加法模型其实就是给这些学习器附上一个相应的权重,通过相加让他们组合起来。

代表算法:

Adaboost

GBDT

XGBoost

LightGBM

bagging

个体学习器间不存在强依赖关系、可同时生成并行化方法。

        工作机制:
一、原始样本集中抽出k个训练集。
回答了我们上面所提到问题:改变训练数据或概率分布如何改变?

        意思就是假如我们这里有k个弱学习器,那我们就会抽取k个训练集

分配给这k个学习器去进行学习,他抽样过程中所采取的抽样方式是有放回抽样。

 1、有放回抽样:每轮从原始样本集中使用Bootstraping法(即自助法,是一种有放回的抽样方法可能抽到重复的样本)抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中.共进行k轮抽取,得到k个训练集.(k个训练集相互独立)

2、随机森林中,还会随即抽取一定数量的特征

 二、k个训练集分别训练,得到共k个模型体现了并行。

        

三、将上步得到的k个模型,通过一定方式组合起来。

        1、分类问题:将上步得到的k个模型采用投票的方式得到分类结果,因为我们每个人学到的东西都不一样,面对一个问题的时候,大家就需要通过投票去进行表决,有的人票权比较大 ,有的人票权就比较小,也是一种线性加权的方式组合起来。

        2、回归问题:

计算上述模型的均值作为最后的结果。

                举例:

我们上面提到我们需要给这个数据集有放回的进行采样,比如我们第一个数据集采的是第一个跟第三个样本,构建了我第一个数据集。

采样的时候他除了随机采样之外,他还会对特征进行采样,比如他随机采样了这两个特征。

最后我们的数据集拿到的是这四个格子组成的数据,也就是说他加上了对特征的随机采样。那这就是第一步,采集数据。

将我们这k个训练集分别训练,得到共k个模型,体现了并行,这几个学习器之间是互不影响的,我们可以去同时执行。这就解决了我们上面提到的第一个问题

代表:

随机森林

Adaboost

解决的是二分类问题

        数学表达:

首先其整体的模型采用的是加法模型

这里的G_{1}(X)G_{m}(X)都是弱分类器,也叫做基分类器 。

1、在每一轮中,分别记录好那些被当前弱分类器正确分类错误分类样本在下一轮训练时,提高错误分类样本的权值,同时降低正确分类样本的权值,用以训练新的弱分类器
这样一来,那些没有得到正确分类的数据,由于其权值加大,会受到后一轮的弱分类器的更大关注。

2、加权多数表决:加大分类误差率小的弱分类器的权值,使其在表决中起较大作用。减小分类误差率大的弱分类器的权值,在其表决中起较小的作用。



如何理解权值?

比如在这里我们这一开始三个样本的权值所占的比例都是一样的,都是1/3,假设经过第一轮的学习之后,其成功的将后面的(x_{2},y_{2}),(x_{3},y_{3})这两个样本进行了正确的分类,所以第二轮的时候我们就将第二轮的比例调为了1/6.学习错误的样本 ,我们就将其调整到2/3。也就调到了下面这样的样本。也就是说相当于我们改变了样本的数量,也就是我们将没有正确训练的样本的数量将其增多了。然后这两个正确分类的数量,占比就变少了。在学习的过程中,我们就会更关注被分类错误的样本。

再回到这里,我们的权值也会受到我们的分类误差率的影响,当我们的G_{m}\left ( X \right )分类误差率小的的时候就会给一个较大的权重\alpha _{m},这样做就会在最后做表决的时候起到的作用更大。

算法流程:

二分类训练数据集:

这个数据集就是T。这里面有N个训练样本。x就是我们的实例,也相当于我们的特征值。y指的是我们的标签值,因为我们这里做的是二分类,所以这里就只有两类,这里就分别为\left \{-1,+1 \right \}这两类。

定义基分类器(弱分类器)G_{\left (x \right )}

一般来讲我们这里的G_{1}\left ( x \right )G_{m}\left ( x \right )他们一般都属于同一种类型,我可以是逻辑回归,也可以是决策树。通常来讲,在你指定了基分类器具体是哪一个之后,G_{1}\left ( x \right )G_{m}\left ( x \right )用的就都是同一种。比如你这里G_{1}\left ( x \right )是逻辑回归了,那这里就都是逻辑回归了。

在我们的基分类器定下来之后,他的之后的随之的方法也就确定下来了,比如当我们的G_{}\left ( x \right )是逻辑回归的时候,我们就可以用交叉熵损失和梯度下降来进行训练,

,我们的书上也有这样一个最简单的二分类取值器,也就是说它只需要去给定一个阈值,当我们的X大于这个阈值的时候他就为1,小于这个值的时候就为-1.通过这个阈值来进行划分。这也是我们最简单的一种分类器了。

循环M次:

在上面两个都准备好了之后,我们就可以去训练我们的模型。

循环m次就是说,我们每一次去训练一个基分类器以及他的权重,然后我们有m个所以这里我们就循环m次。

1、初始化/更新当前训练数据的权值分布:

if初始化,初始化的时候我们就用D1这个权值来表示,

每一个样本我们都给其赋了权值,我们认为其是均匀的,1/N,

更新数据的权值分布:

之前我们是计算了G_{1}\left ( X \right ),之前的数据是进行了一个权值的初始化,之后我们的G_{2}\left ( X \right )需要用到的数据就不一样,我那么知道我们要提高前一轮“错误分类"的样本的权值,降低前一轮"正确分类"的样本的权值以此来构建我们的训练样本去训练我们G_{2}\left ( X \right ),如果我们不是第一次了我们就是执行我们样本更新。

这里我们D_{m}的这个m下标表示的就是第几个弱分类器训练样本的权值,然后我们这里有N个样本,每个样本都会有它的权值,这里的重点就是我们w_{m,i}这个权值的更新的这个公式,我们也可以清楚的看到这是一个递推公式,它的更新跟前一轮的权值是有关系的,看着比较复杂,但是目的就是为了满足我们下面绿色的那些字。

解释w_{m,i}

也就是说,当我们是正确分类的时候(假设为二分类问题,正确分类的标签值为1),我们的弱分类器G_{m-1}\left ( x_{i} \right )得出来的结果跟我们的标签值y_{i}是同号的,所以\frac{w_{m-1}}{Z_{m-1}}exp(-\alpha_{m-1} y_{i}G_{m-1}\left ( x_{i} \right ))=\frac{w_{m-1}}{Z_{m-1}}e^{-\alpha_{m-1} },如果是异号的那就是上图下面的结果。

我们也提到了我们的\alpha肯定也是大于0小于等于1/2的,

当我们分类正确时,当前面加了符号之后呢这个整体就是一个小于1大于0的数。

当我们分类错误时,这个整体就是大于1的

我们再来看我们的规范化因子

规范化因子

上图我们针对的是某一个样本,在下图我们针对的是所有的样本

在下图中我们将所有样本的分子部分加起来,本质上相当于是一个归一化的操作 

 其实 就是将我们下面红色部分映射到0到1之间的范围,也就相当于一个归一化的操作

2、训练当前基础分类器G_{m}\left (X \right )

紧接着我们就要拿训练的样本去训练,使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right ),那么我们应该如何训练呢,具体怎么训练就应该看我们当初选择的基分类器的类型是什么样的,如果我们用的是逻辑回归,那么我们用的就是交叉熵损失作为我们的损失函数,训练好了之后我们就要去计算我们的权值\alpha _{m}

3、计算当前基分类器的权值\alpha _{m}:

我们知道我们的\alpha _{m}由我们的分类误差率所决定,比如我我们的分类误差率比较大的话就得让我们的\alpha _{m}比较小,如果分类误差率比较小的话就说明比较准。

第一步:

所以我们先计算当前G_{m}\left ( X \right )在训练数据集上的分类误差率

这个就是我们的公式,当我们的G_{m}\left (x_{i} \right )的结果不等于我们真实值标签y_{i}的时候就说明我们分类错误了。这里面I的含义就是当括号里的条件满足的时候,这个I的值就是1,表达的意思就是在我们1到N那么多个样本里面,我们要找到他分类错误的这些点,然后让他们这些样本点的这些权值让他们加起来,这里的w_{mi}指的就是我们的权值,即样本数据的权值部分,如下图所示。所以进一步的可以写成我们最右边的那个式子。

代表的就是分类错误的那些点的权值给他进行一个相加求和。

但这里我们值得一提的是我们这里分类误差e_{m}的范围,其范围也是确定的。

这里我们的e_{m}>0我们不再解释,这里的≤0.5是如何来的呢,比如说当我们的G_{m}\left (X \right )训练出来的一个模型去做预测的时候,跟我们的的y呈现的是上图这样的关系,比如他预测的时候错了三个,只有一个是预测对了,又因为我们这里是二分类的问题,所以我们的G_{m}\left (X \right )不是-1就是1,所以我们只需要在G_{m}\left ( X\right )前面加一个负号就会从上面变换到下面的1,1,1。也就是说我们将从三个错误的结果当中变成了三个正确的一个错误的,也就是说我们 分类误差率从原本的3/4变到了1/4。也就是当我们的分类误差率大于0.5的时候就可以得到一个小于等于0.5的一个数,所以这个范围就是小于等于0.5。

将我们的分率误差率e_{m}计算出来就可以计算我们的\alpha _{m}

在这里我们对这个公式进行分析

我们画一下这个的函数图像,这里的e_{m}是未知数

然后我们又知道e_{m}是满足

故函数图像为,带入我们的e_{m}=1/2。得到他的值为1

,由上面e_{m}的定义域可以知道我们蓝色部分就是当前讨论函数的取值范围,然后我们继续探讨log的部分。

这个就是我们log的图像,然后我们的为大于等于1,所以我们的

log的部分就可以这样画。

所以他的值域就在上面的部分我们也知道\alpha _{m}就是大于等于0的。

故我们的图像也会往右边移动,所以我们的\alpha _{m}就会跟着变大

4、将\alpha _{m}G_{m}\left ( x \right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件:

分类器个数是否达到M:比如可以设置我们M的值,到达了循环三次,M为3,我们就退出。或者给定一个精度,当我们的准确率sign\left [ f\left ( x \right ) \right ]到达了多少的时候我们就去退出。

总分类器误差率是否低于设定的精度:因为我们这里的f\left ( x \right )他最终算出来的其实是一个数,他不是某一个类别,所以我们需要通过一个函数sign去转换到我们所需要的一个类别,比如说我们在这里sign\left [ f\left ( x \right ) \right ],它的f\left ( x \right )≥0的时候,那我们最终的结果就是1,当f\left ( x \right )<0的时候分配出来的结果就是-1。

假设我们这里循环退出的条件并没有达到,也就是说m=1的时候,那我们就接着进行第二次循环去计算G_{2}(X),我们回到上面的更新。

例题:

二分类训练数据集:

首先我们有一个二分类的训练数据集,我们需要去运用adaboost去训练出一个二分类的学习器,能够根据他给出的x能够去判断出他给出的y值是属于1还是-1

定义基分类器(弱分类器):

G\left ( X \right ),我们就采用这种最简单的二分类学习器,也就是给定义一个阈值,通过这个阈值去判断。

训练方法:

在x中划分出候选阈值,从中选出使得误差率e_{m}最小的,作为我们的最终阈值构建好G\left ( X \right )

循环M次:

m=1时:

1、初始化/更新当前[训练数据的权值分布]

if初始化:

D_{1}=\left ( w_{11}, w_{12},..., w_{110}\right )

看到我们的训练数据,可以肯定的是一个均值分布,所以是w_{1i}就是1/10

w_{1i}=0.1,i=1,2,...,10

if更新:

2、训练当前基分类器

使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right )

训练方法:在x中划分出各候选阈值,构建好各候选G_{m}\left ( X \right )。找到使误差率e_{m}最小的G_{m}\left (X \right ),作为本轮的基分类器

3、计算当前基分类器的权值

计算当前G_{m}\left ( X \right )在训练数据集上的[分类误差率]

根据这个表可以看出来,绿色部分就是我们分类错误的部分

根据分类误差率e_{m},计算基分类器G_{m}\left ( X \right )的权重系数

 

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们使用第二个

因为这一题的最终答案是可以做到最终完全是零错误的,所以就还没有达到我们的精度要求,所以我们就继续进行下一个循环

m=2时:

1、初始化/更新当前[训练数据的权值分布]

if初始化:

将我们上一轮得到的\alpha还有G_{m}\left ( X \right )还有y_{i},还有上一轮样本数据的权值带入就可以的出来就可以得到D_{2}

if更新:

上图就是我们算出来的一个结果,就是这些

2、训练当前基分类器

使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right )

训练方法:在x中划分出各候选阈值,构建好各候选G_{m}\left ( X \right )。找到使误差率e_{m}最小的G_{m}\left (X \right ),作为本轮的基分类器

3、计算当前基分类器的权值

计算当前G_{m}\left ( X \right )在训练数据集上的[分类误差率]

我们G_{2}\left ( X \right )这个分类器还是存在着三个错误分类的点,然后我们将三个错误分类的点 三个权值给他加起来得到了e_{m}

 根据分类误差率e_{m},计算基分类器G_{m}\left ( X \right )的权重系数

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们还是有三个错误分类的点,所以还是没有达到我们的要求,之前我们也说过这是可以达到我们的百分百分类的,所以我们继续进行循环。

m=3时:

跟上面的一样

1、初始化/更新当前[训练数据的权值分布]

2、训练当前基分类器

3、计算当前基分类器的权值

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们还是有三个错误分类的点,所以还是没有达到我们的要求,之前我们也说过这是可以达到我们的百分百分类的,所以我们继续进行循环。

这个时候我们就发现完完全全都对的上了,就是没有错误分类的那些点了。

最终分类器

加法模型

预测函数

首先加法模型就是将很多学习器进行一个线性加权的组合,所以是一个累加的符号。

这里的b\left (x;y_{m} \right )指的就是我们Adaboost里的弱分类器,y_{m}指的就是我们弱分类器里面的训练参数

类比一下我们Adaboost的预测函数:可知道Adaboost就是一个加法模型当然他只包含线性的部分,不包含做决策的部分,因为我们最后还要通过Sign函数,唯一长得不太一样的地方就是其中的参数部分,只是我们省略没有写而已。

损失函数

自定义,y就是我们的label值(标签值),f(x)就是我们这里的加法模型

当我们面临

回归问题:我们可以使用MSE均方误差

分类问题:指数函数,交叉熵损失

损失函数我们需要看具体的情况来定,也可以定义属于自己的损失函数。

优化方法

像逻辑回归,FM,FFM等等用的就是梯度下降来优化损失函数来找到参数。

在这里我们的加法模型不太适合用梯度下降,而是适合用前向分布算法的方式。

梯度下降的缺点:整体损失极小化:

首先要把我们的目标函数写出来,所以我们需要我们的整体损失极小化,因此我们的损失函数指的是我们总体的一个损失,也就是从我们的1到M都加起来去求损失,这样一来我们的复杂度就高。

举例

假设我们的M再大一点比如说3,那我们就还要优化\beta _{3}\gamma _{3},就要同时优化3*M个参数,这也只是一个理想情况,\gamma _{1}这里只代表了一个参数,很多情况下\gamma _{1}代表的不只是一个参数,也很有可能表示的是一个向量,比如在逻辑回归里,这里代表的是很多个w,很多个特征权重值,需要同时优化的参数就非常多。

前向分布算法:

对比梯度下降(蓝色方框部分) ,我们就没有了累加的符号。

这样做会有什么效果呢?

我们刚刚说了,在我们的传统梯度下降当中,我们需要同时对β还有γ同时进行优化跟迭代。但是在我们的前向分布算法当中,我们会将这些参数进行分布的计算。比如我们会先计算\beta _{1}\gamma _{1},然后再计算\beta _{2}\gamma _{2},然后再计算\beta _{3}\gamma _{3},也就是对应了这里的循环m。也就是我们计算的时候只会拿到一个\beta一个\gamma

并且我们观察到,在这个式子里面,这个部分属于上一步得到的加法模型,上一步计算出来的东西在这一步已经是一个定值了,也就是说里面以及没有所谓的参数了,所以我们只需把精力集中在当前需要去优化的基分类器还有它的权重参数就可以了,这样也体现了一个串行的思想。

比如这个部分我们就代表了语文,我们语文已经学习的很好了,那我们下一步就是重点去学习我们其他的科目,y_{i}是标签值。

然后学完了之后我们就去更新,然后一步一步的去循环整个过程,直到把这M个给学到最后就可以得到我们总体的一个加法模型。

Adaboost算法原理解析

在讲完我们的加法模型之后,我们再来讲讲adaboost是如何利用加法模型还有前向分布算法来结合巧妙的构思从而去实现我们这两个要求的。

优化问题:二分类

二分类训练数据集,下图是其定义

在这里我们的类别标签分别用-1跟+1表示。在逻辑回归的时候,我们习惯性的用0跟1表示类别,但在Adaboost里面我们习惯性用-1跟+1表示类别。

模型:加法模型

最终分类器:

这里Sign函数的意思就是当我们上面的加法模型得到的f\left ( x\right ),当它的值是大于等于0的时候,G\left ( x \right )就属于1;当他小于0的时候,G\left ( x \right )就为-1,从而去把两个类给分开,所以我们这里的0来作为他分割类别的阈值。

损失函数:指数损失函数

二分类问题,使用指数损失函数:

,exp是以e的底的指数函数

y是标签值

当G(x)分类正确时,与y同号,L(y,f(x))≤1.

当G(x)分类错误时,与y异号,L(y,f(x))>1.

为什么不用交叉熵损失?

交叉熵损失是用极大似然估计去计算出来的一个表达式,它的分类是0跟1,不是我们的-1跟1

所以当我们标签值y为1的时候,当我们G(x)分类正确的时候,那我们对应的f(x)肯定也是一个大于等于0的一个数,故L(y,f(x))≤1,并且我们这个f(x)越大的话我们L的这个损失就会越小,反之亦然。

将损失函数视为训练数据的权值:

 这样的一个损失函数就非常适合在作为我们训练数据的权值

这个公式的意义就是我们第m轮训练数据的里面每一个训练数据的样本的权值就可以通过这个公式来进行计算。f_{m-1}\left (x_{i} \right )就是前一轮的。由这个公式就去更新我们训练数据的权重。

单个样本损失函数 

总体损失函数(把所有样本放进去)

我们有N个样本

优化方法:前向分布算法

算法流程我们之前讲加法模型的时候就讲过了

第m轮

我们将我们要极小化的损失函数放下来

L换成了exp指数函数。

式子变换:

推导过程:

求解

1、优化G_{m}\left ( X \right )

用构建好的训练样本去训练G_{m}\left ( X \right )的时侯,会得出分类误差率最小的一个效果,那就是最优的。

G_{m}\left ( X \right )本身的意义上来讲,最优的G_{m}\left ( X \right )当然要使得误差最小

当括号里面条件成立的时候I就是1,\bar{w}_{mi}指的就是样本的权重

2、优化\alpha _{m}

推导过程:

式子变换:

凸优化:

红色的部分就是我们的定值了,只有蓝色箭头的\alpha _{m}是一个变量,我们只需对这个函数的\alpha _{m}求导,让其导数等于0,就可以知道其最小值了。

导数为0

公式转换

这里我们分类误差率e_{m}就是所有分类错误的点除以样本点

3、前向更新f_{m}\left ( x \right )

4、更新训练数据权值\bar{w}_{m+1,i}

如果我们这里是第m轮的话,这里就是m+1轮

将第二个式子与我们之前的式子做对比,这个式子相比于上面的显然没有递推的关系,我们可以看一下其是如何推导出来的

注意事项

在我们的例题这里的分类误差率e_{m}跟我们算法原理解析不一样的原因是上图的w_{mi}其实是已经规范过了的,也就是说他已经将他已经映射到我们0到1之间的概率空间了,已经是一个概率了。而我们下图的\bar{w}_{mi}不是概率,而是损失。

如果要讨论这两个不同的地方,我们需要去看训练数据更新的他们的区别在哪里。分别对应的如下。

上图是例题的w_{mi},下图是算法原理里面的

我们可以看到他们之间的区别只是在于第一个他除了Z_{m-1},他的作用也只是说把其概率限制在了0到1之间,区别就是一个做了归一化一个没有做归一化,其凸优化求解过程都是一样的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1646693.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

批量剪辑利器:视频随机分割,创意无限,高效剪辑视频

在视频制作和编辑的过程中&#xff0c;剪辑是一项至关重要的技术。对于需要处理大量视频素材的用户来说&#xff0c;批量剪辑不仅能提高工作效率&#xff0c;还能为视频内容带来创意和多样性。随着技术的发展&#xff0c;一些高效的剪辑工具逐渐崭露头角&#xff0c;其中视频随…

产品推荐 | 基于 Virtex UltraScale+ XCVU3P的FACE-VPXSSD-3PA 存储板

01 产品概述 FACE&#xff08;FPGA Algorithm aCceleration Engine&#xff09;FPGA算法加速开发引擎是基于FPGA可编程器件构建的一系列算法加速开发引擎平台。FACE-VPXSSD-3PA存储平台是FACE系列中的一员。该平台板载2组2GB 64bit DDR4、2路QSFP28光接口、4个NVME SSD M.2接口…

Linux:进程信号(一)信号的产生

目录 一、信号是什么&#xff1f; 二、Linux信号 三、信号处理方式 四、信号的产生 1、 通过终端按键产生信号 2、调用系统函数向进程发信号 3、 硬件异常产生信号 一、信号是什么&#xff1f; 在生活中&#xff0c;有许多信号&#xff0c;比如红绿灯&#xff0c;下课铃声…

达梦主从数据库实例恢复

测试环境&#xff1a;实时主备数据库 1、在节点1向测试表aaa插入数据 如图可见&#xff0c;会话139695153554808向aaa表插入了10000行数据。事务id460520。 2、提交前在另一个窗口kill掉dmserver进程。 3、查看节点2的数据库日志 上图可见&#xff0c;系统执行alter database…

Java基础教程 - 4 流程控制

更好的阅读体验&#xff1a;点这里 &#xff08; www.doubibiji.com &#xff09; 更好的阅读体验&#xff1a;点这里 &#xff08; www.doubibiji.com &#xff09; 更好的阅读体验&#xff1a;点这里 &#xff08; www.doubibiji.com &#xff09; 4 流程控制 4.1 分支结构…

在企业中软件产品测试报告可以运用的场景

在企业应用场景中&#xff0c;测试报告的应用场景十分广泛且重要。以下是几个主要的应用场景&#xff1a; 产品质量评估与保证&#xff1a;测试报告是企业评估软件或产品质量的重要依据。通过测试报告&#xff0c;企业可以了解产品在不同场景下的性能表现、安全性、稳定性以及…

esp32-cam 1. 出厂固件编译与测试

0. 环境 - ubuntu18 - esp32-cam - usb转ttl ch340 硬件连接 esp32-camch340板子U0RTXDU0TRXDGNDGND5V5V 1. 安装依赖 sudo apt-get install vim sudo apt install git sudo apt-get install git wget flex bison gperf python python-pip python-setuptools python-serial p…

Redis的数据类型及使用场景

redis命令大全官网: Commands | Docs (redis.io) 基本介绍 redis起初主要就是为了解决性能问题的&#xff0c;那么redis为什么快? 基于内存操作的&#xff0c;所以操作不需要跟磁盘进行交互&#xff0c;单次的执行会很快 命令执行是单线程 因为基于内存操作 单次执行时间反…

Vue开发者工具Vue.js devtools Vue开发者工具安装步骤前端开发工具免费附带教程

下载地址&#xff1a; 链接: https://pan.baidu.com/s/1JaGvhS4NoD8lL07n2ScE9A 密码: 9rfs 安装步骤&#xff1a; 以谷歌浏览器为例 第一步&#xff1a;打开Chrome的拓展程序 如图 第二步&#xff1a; 将下载好的拓展程序拖入即可&#xff0c;如下图 第三步&#xff1a;…

Python数据清洗与可视化实践:国际旅游收入数据分析

文章目录 概要整体流程名词解释NumPyPandasMatplotlibre 技术细节数据清洗可视化 小结 概要 在本篇博客中&#xff0c;我们将通过一个实际的案例&#xff0c;演示如何使用Python进行数据清洗和可视化&#xff0c;以分析国际旅游收入数据。我们将使用Python中的Pandas库来进行数…

OpenHarmony实战开发-应用侧调用前端页面函数

应用侧可以通过runJavaScript()方法调用前端页面的JavaScript相关函数。 在下面的示例中&#xff0c;点击应用侧的“runJavaScript”按钮时&#xff0c;来触发前端页面的htmlTest()方法。 前端页面代码。 <!-- index.html --> <!DOCTYPE html> <html> <…

接口自动化框架篇:Pytest + Allure报告企业定制化实现!

接口自动化框架是现代软件开发中的重要组成部分&#xff0c;能够帮助开发团队提高测试效率和质量。本文将介绍如何使用Pytest作为测试框架&#xff0c;并结合Allure报告进行企业定制化实现。 目标规划 在开始编写接口自动化测试框架之前&#xff0c;我们需要先进行目标规划。…

超分辨率重建——BSRN网络训练自己数据集并推理测试(详细图文教程)

目录 一、BSRN网络总结二、源码包准备三、环境准备3.1 报错KeyError: "No object named BSRN found in arch registry!"3.2 安装basicsr源码包3.3 参考环境 四、数据集准备五、训练5.1 配置文件参数修改5.2 启动训练5.2.1 命令方式训练5.2.2 配置Configuration方式训…

zTasker v1.88.1一键定时自动化任务

软件介绍 zTasker是一款完全免费支持定时、热键或条件触发的方式执行多种自动化任务的小工具&#xff0c;支持win7-11。其支持超过100种任务类型&#xff0c;50种定时/条件执行方法&#xff0c;而且任务列表可以随意编辑、排列、移动、更改类型&#xff0c;支持任务执行日志&a…

SEED-X:多模态智能助手

SEED-X&#xff1a;多模态智能助手 SEED-X 是一个多模态智能助手&#xff0c;已经将所有的模型和代码开源了&#xff01;它是一个统一且多用途的多模态基础模型&#xff0c;最新开放了图像编辑模型。 相较于传统的多模态交互框架&#xff0c;SEED-X 具有以下优点&#xff1a;…

【请投票】嘉立创EDA中LED发光二极管是否应有统一的引脚定义?

LED发光二极管的引脚定义应该是唯一的吗&#xff1f; 从下面原理图可以看到&#xff0c;器件型号仅尾缀不同,R代表RED红色发光二极管&#xff0c;W代表WHITE指白色发光二极管&#xff0c;是同一家制造商KENTO&#xff0c; 左侧红色发光二极管的1脚是阴极K&#xff0c;2脚是阳极…

Android关于SparseArray面试题

问题1: 什么是SparseArray&#xff0c;它与HashMap有什么不同&#xff1f; 回答&#xff1a; SparseArray是一个用于优化特定情况下内存使用的数据结构&#xff0c;主要用于替代HashMap<Integer, Object>。SparseArray使用两个数组分别存储键和值&#xff0c;而不是使用…

初识Linux -- Linux的背景和发展史介绍

点赞关注不迷路&#xff01;&#xff0c;本节涉及初识Linux&#xff0c;主要为背景介绍和xshell登录主机。 1.Linux背景 1.1 发展史 Linux从哪里来&#xff1f;它是怎么发展的&#xff1f;在这里简要介绍Linux的发展史。 要说Linux&#xff0c;还得从UNIX说起。 1.2 UNIX发…

【Linux】掌握Linux系统编程中的权限与访问控制

&#x1f49e;&#x1f49e; 前言 hello hello~ &#xff0c;这里是大耳朵土土垚~&#x1f496;&#x1f496; &#xff0c;欢迎大家点赞&#x1f973;&#x1f973;关注&#x1f4a5;&#x1f4a5;收藏&#x1f339;&#x1f339;&#x1f339; &#x1f4a5;个人主页&#x…

博客网站SpringBoot+Vue项目练习

博客网站SpringBootVue简单案例 前言 学了vue后一直没用找到应用的机会&#xff0c;在Github上找到了一个看起来比较友好的项目&#xff08;其实具体代码我还没看过&#xff09;。而且这个项目作者的readme文档写的也算是比较好的了。 项目链接&#xff1a;https://github.c…