深度学习实战4--GAN进阶与优化

news2024/12/26 23:35:00

        GAN  的问题主要有两点:Loss 等于0的梯度消失问题和梯度不稳定以及多样性受损。 前者是因为选择的分布函数使用JS 距离,这个距离不能衡量两个不相交的分布的距离;后者是因为Loss  函数要求KL 距离最小,JS 距离最大,所以梯度不稳定,而且 Loss 函数对正确率要求太大,多样性要求小,所以会造成模型选择大量生成“安全”的“数字1”来降低Loss函数。

        WGAN 使用了EM  距离,保证了多样 性,并且解决了梯度消失的问题,从实验结果来看,多样性是有保证的,但是生成图片的效果 并不好,较难收敛。

        WGAN-GP 的效果好,在第100代的时候,就可以生成多样化、图片清晰的手写数字。 该实验证明了以下两点:

(1)WGAN解决了多样性问题,这也说明,之前原理部分分析的多样性受损确实是由Loss 函数造成的;

(2)WGAN-GP WGAN 效果好,梯度惩罚的效果比 Weight Clipping强,收敛速度快。

WGAN(2017)关WGAN  Loss 函数的图

class discriminator(nn.Module):
    def __init __(self):
    super(discriminator,self).init__()
    self.dis=nn.Sequential(
        nn.Linear(784,256),
        nn.LeakyReLU(0.2),
        nn.Linear(256,256),
        nn.LeakyReLU(0.2),
        nn.Linear(256,1))
    def forward(self,x):
        x=self.dis(x)
        return x

         对于判别器 D 来说,若要使V(G,D)   最大,那么它的Loss  函数就要使-V(G,D) 最小

注释掉GAN判别器D的loss函数,在合适位置写下Loss的新函数

d_loss=torch.mean(fake_out)-torch.mean(real_out)

同理在合适的位置下写下G的新的Loss函数

g_loss=torch.mean(-output)

最后,增加上Weight  Clipping (权重剪裁).Weight  Clipping将所有的参数都变到[一c,c]  内,这里 截断值c=0.05。 截断值c 要根据具体任务具体设置,如果c 过小,会造成梯度消失;如果 c 过大,会造成梯度爆炸。

        梯度消失(Vanishing Gradients)是深度学习中常见的一个问题,特别是在训练深层神经网络时。当网络层数较多时,反向传播过程中梯度会通过多层权重进行连乘,这可能导致梯度变得非常小,以至于网络中的权重更新非常缓慢,从而使得训练过程非常缓慢甚至停滞.

梯度爆炸则是指在训练过程中,梯度随着层数的增加而指数级增长,导致权重更新过大,从而使模型训练变得不稳定。这通常与权重的初始化值过大、学习率过高或网络结构设计不合理有关。

for layer in D.dis:
    if(layer. __class __.__name__=='Linear'):
        layer.weight.requires_grad=False#关闭梯度
        layer.weight.clamp_(-c,c)
        layer.weight.requires_grad=True#打开梯度

        D是判别器,layer 就一个PyTorch  的网络层。layer.__class     .    name__      Linear    示全连接层,为Conv2d 表示卷积层。在该 MNIST  案例中,都是线性层。

 由于截断操作是一个突变的过程,无法计算梯度,如果不关闭梯度,将会报错。因此要 先关闭这一层的参数的梯度下降,否则无法进行截断。截断之后再打开梯度下降。

WGAN-GP(2017)

        WGAN-GP  WGAN 的改进版本。WGAN的问题是截断值的取值问题和大量参数被截断成截断值而导致的泛化能力的丢失。WGAN-GP   Weight    Clipping,使用 Gradient   Penalty(梯度惩罚)优化损失函数。梯度惩罚(Gradient Penalty)是在使用Wasserstein GAN(WGAN)进行训练时引入的一种技术,旨在强制判别器(critic)满足Lipschitz连续的约束。

        神经网络的最大的优点在于泛化能力,理论上足够大的神经网络可以拟合各种函数,而这泛化能力正是神经网络中成千上万的大小不一、自动调整的参数凝聚而成的。假设这些参数一大半都是同一个常数(截断值),那泛化能力不久就下降了。

如何从WGAN  改成WGAN-GP

1.注释掉weight clipping

#for layer in D.dis:
   # if(layer. __class __.__name__=='Linear'):
      # layer.weight.requires_grad=False
       # layer.weight.clamp_(-c,c)
        #layer.weight.requires_grad=True

2.计算Gradient     Penalty

'''创建一个形状为 (num_img, 1, 1, 1) 的张量 alpha,其中 num_img 是图像的数量。
张量中的每个元素都是从均匀分布 [0, 1) 中随机采样的。
然后将 alpha 移动到指定的设备(如 GPU)上'''
alpha=torch.rand((num_img,1,1,1)).to(device)
'''
    通过线性插值的方式,将真实图像 real_img 和假图像 fake_img 组合起来,生成新的图像 x_hat。
    alpha 用于控制真实图像和假图像的混合比例。
'''
#使用判别器 D 评估混合图像 x_hat,得到预测结果 pred_hat
x_hat=alpha*real_img+(1-alpha)*fake_img
pred_hat=D(x_hat)
#使用 torch.autograd.grad 计算 pred_hat 相对于 x_hat 的梯度
gradients=torch.autograd.grad(outputs=pred_hat,#outputs=pred_hat 指定了需要计算梯度的输出
                              inputs=x_hat,#inputs=x_hat 指定了需要计算梯度的输入
                              grad_outputs=torch.ones(pred_hat.size()).to(device),#创建一个与 pred_hat 形状相同、所有元素为 1 的张量,用于梯度计算。
                                create_graph=True,#允许梯度的梯度计算,这对于二阶导数(如在梯度惩罚中)是必要的
                                retain_graph=True,#表示在一次backward之后不释放计算图,这对于再次进行backward是必要的。
                                only_inputs=True)[0]#表示只计算对输入的梯度,而不计算对权重的梯度
gradient_penalty=lambda_*((gradients.view(gradients.size()[0],-1).norm(2,1)-1)**2).mean()
#lambda_ 是梯度惩罚的权重,是一个超参数,超参数是机器学习模型训练过程中的参数,它们在开始学习过程之前设置,并且在学习过程中不发生变化。
#将梯度张量重新塑形,以便每个样本的梯度都在一个向量中。
#norm(2, 1) 计算每个样本梯度的 L2 范数,L2 范数(欧几里得范数):向量元素的平方和的平方根
#计算梯度范数与 1 的差的平方,这是梯度惩罚的核心部分,用于惩罚梯度范数偏离 1 的情况。
#.mean() 计算所有样本的平均梯度惩罚
#这段代码的目的是为了在 WGAN 训练过程中添加梯度惩罚项,以确保判别器满足 Lipschitz 连续的约束,从而提高训练的稳定性和生成模型的质量

        代码中的gradients   V₂D(x)   有关联,V₂D(x)的倒三角“梯度算子”表示对D(x) x的偏导。考虑函数 torch.autograd.grad,相关代码如下。

#x是一个tensor变量,变量是多维数组的一个泛化,它可以包含标量、向量、矩阵或更高维度的数据
x=torch.tensor([1,2,3],[2,3,4]]).float()
#开启x的梯度下降功能
x.requires_grad=True#PyTorch 会跟踪所有对 x 的操作,以便在反向传播时计算梯度。这对于模型的参数(如权重和偏置)通常是必需的,因为我们需要更新这些参数来最小化损失函数
print(x)
#对x进行计算,相当于函数y=2*x
y=2*x#求x的导数
print(y)
grad=torch.autograd.grad(outputs=y,#指定了需要计算梯度的输出张量 y。这通常是某个损失函数或神经网络的输出
                         inputs=x,#指定了需要计算梯度的输入张量 x。这通常是网络的输入或任何你想要计算梯度的张量。
                         grad_outputs=torch.ones(x.shape))#创建了一个与 y 形状相同、所有元素为1的张量,用于作为 grad 函数的 grad_outputs 参数。这个参数代表了 y 相对于 x 的外部梯度,通常在计算损失函数相对于网络输出的梯度时使用。
print(grad)

计算图是用来计算梯度的一个方法 

#x是一个tensor变量
xtorch.tensor([1,2,3],[2,3,4]]).float()
#开启梯度下降功能
x.requires_grad=True
#对x进行计算,相当于函数y=2*x
x1=2*x
y+3*x1
#对y=2*x求x的导数
#"grad" 通常是指梯度
grad=torch.autograd.grad(outputs=y,inputs=x,
                         grad_outputs=torch.one(x.shape),
                         retain_graph=True#用于指定是否需要保留计算图
                         )

        参数grad 没有计算图,不支持梯度计算,需要引入另外一个参数create_graph= True”,  为返回值创建一个计算图。

grad=torch.autograd(outputs=y,inputs=x,
                    grad_outputs=torch.ones(x.shape),
                    retain_graph=True,
                    create_graph=True)
grad=torch.autograd(outs=grad[0],inputs=x,
                    grad_outputs=torch.ones(x.shape))
print(grad)

WGANGP

gradients=torch.autograd.grad(outputs=pred_hat,#torch.autograd.grad 是 PyTorch 中用于自动计算梯度的函数
                              inputs=x_hat,#outputs=pred_hat 指定了要计算梯度的输出张量,inputs=x_hat 指定了相对于哪个输入张量计算梯度
                              grad_outputs=torch.ones(pred_hat.size()).to(device),#.to(device) 创建了一个与 pred_hat 相同形状的张量,并且将其所有元素初始化为1。这个张量用于梯度计算中的外导数项。.to(device) 确保这个张量被移到了与 pred_hat 相同的设备上(例如 CPU 或 GPU)。
                              create_graph=True,#表示在计算梯度时,要保留计算图,这样你可以对梯度进行进一步的梯度计算(即高阶导数)。
                              retain_graph=True,#表示在计算梯度后,不立即释放计算图
                              only_inputs=True)[0]# 表示只计算输入张量的梯度,不计算任何其他可能影响输出的参数的梯度
#总结:这段代码通常用于神经网络训练过程中的反向传播,用于计算损失函数相对于网络输入的梯度。

DCGAN,即判别器D 和生成器G 加上了卷积层GAN, 故先 把基础GAN 的判别器D和生成器G改写成如下模型:

class discriminator(nn.Module):
    def __init __(self):
            super(Discriminator,self). __init__()#调用了父类 nn.Module 的构造函数,以确保正确初始化 nn.Module 的所有属性。
            self.dis=nn.Sequential(#创建了一个 nn.Sequential 容器,用于按顺序包含一系列层。self.dis 将存储这些层
                  nn.Conv2d(1,32,3,Stride=1,padding=1),#添加了一个 2D 卷积层,它将输入的 1 个通道转换为 32 个通道,卷积核大小为 3x3,步长为 1,边缘填充为 1 像素
                  nn.LeakyReLU(0.2,True),#添加了一个 LeakyReLU 激活层,负斜率为 0.2,inplace=True 表示在原地进行计算,以节省内存
                  nn.MaxPool2d((2,2)),#添加了一个最大池化层,池化窗口大小为 2x2,步长默认为 2。
                  nn.Conv2d(32,64,3,Stride=1,padding=1),#添加了第二个卷积层,它将 32 个通道转换为 64 个通道,卷积核大小为 3x3,步长为 1,边缘填充为 1 像素。
                  nn.LeakyReLU(0.2,True)#再次添加了一个 LeakyReLU 激活层,参数与第一个相同
                  nn.MaxPool2d((2,2))
            )
    self.fc=nn.Sequential(#创建了另一个 nn.Sequential 容器,self.fc 将用于包含全连接层。
          nn.Linear(7*7*64,1024),#添加了一个全连接层,它将卷积层输出的特征图展平后的特征数量(在这种情况下是 7x7x64)转换为 1024 个特征。
          nn.LeakyReLU(0.2,True),
          nn.Linear(1024,1),#添加了另一个全连接层,将 1024 个特征转换为 1 个特征。
          nn.Sigmoid()  #用于将输出转换为 0 到 1 之间的值,通常用于二分类任务     
    )

再将生成器G 改成如下模型

class generator(nn.Module):#定义了一个名为 generator 的类,它继承自 nn.Module
    def __init__(self,input_size,num_feature):#它接受两个参数:input_size 表示输入噪声向量的维度,num_feature 表示生成器网络中第一个全连接层输出的特征数量
        super(generator,self). __init __()#确保正确初始化 nn.Module 的所有属性
        #fc 通常代表 "Fully Connected",即全连接层
        self.fc=nn.Linear(input_size,num_feature)#创建了一个全连接层,将输入的噪声向量(维度为 input_size)转换为具有 num_feature 个特征的向量。
        self.br=nn.Sequential(#创建了一个 nn.Sequential 容器,用于包含批量归一化层和 ReLU 激活层
            nn.BatchNorm2d(1),#这里 BatchNorm2d 的参数 1 表示输入通道数为 1。
            nn.ReLU(True),
        )
        #然后使用3个卷积层将1×56×56的图片,转换为1×28×28的图片
        #创建了另一个 nn.Sequential 容器,用于包含生成器网络中的卷积层。
        self.gen=nn.Sequential(
            nn.Conv2d(1,64,3,Stride=1,padding=1),#添加了一个 2D 卷积层,它将输入的 1 个通道转换为 64 个通道,卷积核大小为 3x3,步长为 1,边缘填充为 1 像素
            nn.BatchNorm2d(64),#添加了一个批量归一化层,参数 64 表示输入通道数为 64
            nn.ReLU(True),#添加了一个 ReLU 激活层
            nn.Conv2d(32,1,3,Stride=2,padding=1),
            nn.Tanh(),#添加了一个 Tanh 激活层,用于将输出值归一化到 [-1, 1] 范围内
        )
    def forward(self,x):
        x=self.fc(x)#定义了 forward 方法,它是模型的前向传播函数,x 是输入数据。
        x=x.view(x.shape[0],1,56,56)#全连接层的输出 x 重塑为一个四维张量,其中批次大小保持不变,通道数为 1,空间维度为 56x56
        x=self.br(x)#将重塑后的张量 x 通过批量归一化和 ReLU 激活层 self.br 进行处理。
        x=self.gen(x)
        return x#返回卷积层的输出 x,这是生成器的最终输出图像

          DCGAN WDCGAN再到 WDCGAN-GP的过程与GANWGAN  WGAN- GP 类似

  CVAE-GAN

#VAE模型结构,VAE是一种生成模型,它通过编码器将输入数据映射到一个潜在空间,然后通过解码器从潜在空间重构输入数据。
class VAE(nn.Module):#定义了一个名为VAE的类,它继承自nn.Module,这是PyTorch中所有神经网络模型的基类。
    def __init __(self):#定义了类的初始化函数
    super(VAE,self).__init__()
    #定义编码器
    self.encoder_conv=nn.Sequential(#是一个卷积层序列,用于特征提取
        nn.Conv2d(1,16,kernel_size=3,Stride=2,padding=1),#一个输入通道为1、输出通道为16的卷积层,核大小为3,步长为2,填充为1
        nn.BatchNorm2d(16),
        nn.LeakyReLU(0.2,inplace=True),
                     nn.Conv2d(16,32,kernel_size=3,Stride=2,padding=1),
                     nn.BatchNorm2d(32),
                     nn.LeakyReLU(0.2,inplace=True),
                     nn.Conv2d(32,32,kernel_size=3,Stride=1,padding=1),
                     nn.BatchNorm2d(32),
                     nn.LeakyReLU(0.2,inplace=True)
    )
    self.encoder_fc1=nn.Linear(32*7*7,nz)#两个全连接层,用于将卷积层的输出映射到潜在空间的均值和方差。
    self.encoder_fc2=nn.Linear(32*7*7,nz)
    self.decoder_fc=nn.Linear(nz+10,32*7*7)
    self.decoder_deconv=nn.Sequential(#self.decoder_fc 是一个全连接层,将潜在空间的向量映射回卷积层的输出维度。self.decoder_deconv 是一个反卷积层序列,用于将特征图映射回原始输入空间。
        nn.ConvTranspose2d(32,16,4,2,1),
        nn.ReLU(inplace=True),
        nn.ConvTranspose2d(16,1,4,2,1),
        nn.Sigmoid(),
    )
    def noise_reparameterize(self,mean,logvar):#是一个辅助函数,用于在训练过程中引入随机性。它通过重参数化技巧来生成潜在空间的样本。
    eps=torch.randn(mean.shape).to(device)
    z=mean+eps*torch.exp(logvar)
    return z
    def encoder(self,x):#定义了编码器的前向传播过程。它首先通过卷积层提取特征,然后通过两个全连接层计算潜在空间的均值和方差。最后,使用noise_reparameterize函数生成潜在空间的样本。
        out1,out2=self.encoder_conv(x),self.encoder_conv(x)
        mean=self.encoder_fc1(out1.view(out1.shape[0],-1))#这行代码将 out1 的输出展平(view 方法),然后通过一个全连接层 self.encoder_fc1 来计算潜在空间的均值向量 mean。
        logstd=self.encoder_fc2(out2.view(out2.shape[0],-1))#类似地,这行代码将 out2 的输出展平,然后通过另一个全连接层 self.encoder_fc2 来计算潜在空间的标准差对数 logstd。在VAE中,方差通常通过对数方差来参数化,以便确保方差始终为正。
        z=self.noise_reparameterize(mean,logstd)#该方法使用均值 mean 和对数方差 logstd 来生成潜在空间的样本 z。这是通过添加噪声到均值上实现的,噪声的大小由对数方差决定
        return z,mean,logstd#这行代码返回生成的潜在空间样本 z 以及用于生成它的均值和对数方差
    def decoder(self,z)#这行代码将潜在空间样本 z 通过一个全连接层 self.decoder_fc 来扩展其维度,准备进行反卷积操作。
        out3=self.decoder_fc(z)
        out3=out3.view(out3.shape[0],32,7,7)#这行代码将 out3 的输出重新塑形为适合反卷积操作的形状,即 [batch_size, channels, height, width]
        out3=self.decoder_deconv(out3)#这行代码将重新塑形后的 out3 通过反卷积层序列 self.decoder_deconv 进行处理,以生成重构的输出
        return out3#这行代码返回解码器的输出,即从潜在空间重构的输入数据
        

        在训练过程中,跟GAN  一样,每个模型轮着训练,这里先训练分类器C, 再训练判别器 D, 最后训练生成器G

#分类器C训练
for i,(data,label) in enumerate(dataloader,0):#这是一个循环,遍历 dataloader 中的所有数据。dataloader 是一个迭代器,它每次提供一批数据和对应的标签。enumerate 函数用于获取当前批次的索引 i 和数据 data 与标签 label
    #先处理一下数据
    data=data.to(device)#这行代码将数据移动到指定的设备(如CPU或GPU)上。device 是一个字符串或设备对象,指定了数据应该被发送到的设备
    label_onehot=torch.zeros((data.shape[0],10)).to(device)#创建一个零矩阵,其形状为 [batch_size, 10],其中 batch_size 是当前批次数据的数量,10 是类别的数量。这个矩阵用于存储一个独热编码的标签。
    label_onehot[torch.arange(data.shape[0]),label]=1
    batch_size=data.shape[0]#这行代码获取当前批次的大小,并将其存储在变量 batch_size 中
    output=C(data)#这行代码将数据传递给分类器 C,得到模型的输出
    real_label=label_onehot.to(device)#这行代码确保独热编码的标签也被移动到指定的设备上。
    errC=criterion(output,real_label)#这行代码计算模型输出和真实标签之间的损失。criterion 是一个损失函数,例如交叉熵损失
    C.zero_grad()#在反向传播之前,需要将模型参数的梯度清零。这是因为默认情况下,梯度是累加的
    errC.backward()#这行代码执行反向传播,计算损失函数关于模型参数的梯度
    optimzerC.step()#这行代码根据计算出的梯度更新模型的参数。optimizerC 是一个优化器对象,负责在训练过程中调整参数。
    #独热编码(One-Hot Encoding)是一种将分类变量转换为机器学习算法可以更好处理的形式的方法。在独热编码中,每个类别被表示为一个二进制向量,其中只有一个元素是1,其余元素都是0。这个1的位置对应于类别的索引

判别器D训练过程

#判别器D训练代码,判别器的作用就是判断真假
output=D(data)#这行代码将真实数据 data 传递给判别器 D,得到判别器对真实数据的输出
#创建一个包含全1的向量,其长度等于当前批次的大小 batch_size,并将这个向量移动到指定的设备上。
# 这个向量代表真实数据的标签,在二分类问题中,1通常表示正类,也就是真,负类也就是假
real_label=torch.ones(batch_size).to(device)
fake_label=torch.zeros(batch_size).to(device)
errD_real=criterion(output,real_label)#计算判别器对真实数据输出和真实标签之间的损失。criterion 是一个损失函数,例如二元交叉熵损失
z=torch.randn(batch_size,nz+10).to(device)#创建一个随机噪声向量 z,其形状为 [batch_size, nz + 10],并将这个向量移动到指定的设备上。这里的 nz 是潜在空间的维度,10 可能是附加信息的维度
fake_data=vae.decoder(z)
output=D(fake_data)#将生成的假数据 fake_data 传递给判别器 D,得到判别器对假数据的输出
errD_fake=criterion(output,fake_label)#计算判别器对假数据输出和假标签之间的损失
errD=errD_real+errD_fake#将判别器在真实数据和假数据上的损失相加,得到总损失 errD
errD.backward()#这行代码执行反向传播,计算损失函数关于判别器参数的梯度
optimizerD.step()#optimizerD 是一个优化器对象,负责在训练过程中调整判别器 D 的参数。

        判别器D 的训练方式和GAN  的训练方式没有差别,即希望判别器可以把真实图片都 归类为1,生成图片都归类为0。至于生成器G 的损失函数,由三部分组成:

(1)生成图像更接近原始图像,而且生成的mean  logstd 也应该满足标准分布; (2)生成图像可以被Discriminator  判断成是真实的图像;

(3)生成图像可以被Classifier 判断出对应的类别。

分别对应下面代码中的1、2、3部分:

#更新VAE(G)1,损失函数就是传统VAE的损失函数
z,mean,logstd=vae.encoder(data)#使用VAE的编码器对输入数据进行编码,得到潜在空间的表示z,以及均值mean和对数标准差logstd
z=torch.cat([z,label_onehot],1)#z和标签的one-hot编码label_onehot拼接在一起,以便在解码器中使用
recon_data=vae.decoder(z)
vae_loss1=loss_function(recon_data)#计算重构损失,这是传统VAE损失函数的一部分,通常包括重构误差和KL散度。
#更新VAE(G)2,损失函数是传统GAN的损失函数,希望生成器G可以生成以假乱真的图片
output=D(recon_data)
##使用VAE的解码器对拼接后的潜在表示进行解码,得到重构的数据。
#衡量解码器输出的数据与原始输入数据之间的相似度。它通常使用某种距离度量(如均方误差)来计算,目的是使解码器能够尽可能准确地重建输入数据
#衡量编码器输出的潜在空间分布与先验分布(通常是标准正态分布)之间的差异
real_label=torch.ones(batch_size).to(device)#创建一个与批次大小相同,所有元素为1的张量,表示真实数据的标签。
vae_loss2=criterion(output,real_label)#计算GAN损失,这是希望生成器生成的数据能够被判别器认为是真实的。
#更新VAE(3),是一个类别的损失函数,希望生成器G可以生成分类器C得出分类的图片
output=C(recon_data)#将重构的数据输入到分类器C中,得到分类器的输出
real_label=label_onehot#使用原始的标签one-hot编码作为真实标签
vae_loss3=criterion(output,real_label)#计算分类损失,这是希望生成器生成的数据能够被分类器正确分类。
#三个部分损失函数梯度下降
vae.zero_grad()#清除VAE模型的梯度
vae_loss=vae_loss1+vae_loss2+vae_loss3#将三个部分的损失相加,得到总的损失
vae_loss.backward()#对总损失进行反向传播,计算梯度
optimizerVAE.step()#使用优化器更新VAE模型的参数
vae=VAE().to(device)#重新初始化VAE模型并将其移动到指定的设备(如GPU)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2099194.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

趣味算法------回文数

目录 ​编辑 前言 什么是回文数 题目描述 解题思路 具体代码 C语言代码 python代码 总结 ps 前言 什么是回文数 回文数(Palindrome Number)是一种特殊的数字,它正读和反读都是一样的。例如,121,12321&#xf…

统计学第4天

学前知识点 方差:反映一组数据离散程度,除n是为了缩小数据量对结果的影响。 标准差: 多个统计量推断 使用z统计量和t统计量可对两个总体参数进行推断,如果需要对更多的参数进行推断需要研究多个变量之间的关系,需要…

vscode安装rest client插件,提示XHR failed

vscode安装rest client插件,提示XHR failed: 本地搜索rest client插件,然后下载,放到容器对应位置,参考:

GeoScene Pro教程(006):GeoScenePro地图集制作

文章目录 1、加载数据2、修改地图样式3、修改外观4、显示上下左右各为哪个地市5、新建布局6、选择地图框显示区域7、插入指北针、比例尺、图例8、显示相邻地市9、导出地图地图系列的构建来自单个地图图幅的集合,每个图幅显示 特定的地图范围,包含 动态地图元素和 静态地图…

测试用例的具体方法

1.等价类 依据需求将输⼊(特殊情况下会考虑输出)划分为若⼲个等价类,从等价类中选出⼀个测试⽤例,如果这个测试⽤例测试通过,则认为所代表的等价类测试通过,这样就可以⽤较少的测试⽤例达到尽量多的 功能覆…

建模杂谈系列253 序列突变点的判定

说明 使用pycm3进行推断。 内容 1 环境搭建 使用conda创建对应的包环境,然后再通过jupyter运行 conda create -c conda-forge -n pymc_env "pymc>5" conda activate pymc_envpip3 install ipython -i https://mirrors.cloud.tencent.com/pypi/si…

JavaScript高级进阶(一)

什么是BOM BOM: Browser Object Model(浏览器对象模型) 提供了独立于内容与浏览器窗口进行交互的对象,你可以前进后退……历史记录等,是浏览器自动生成的功能。 浏览器对象模型 对象以及说明: window: 窗口对象,可以用来控制当前窗口&…

FreeRTOS中任务通知的使用

目录 0x01 任务通知介绍0x02 示例代码 0x01 任务通知介绍 简单举个例子: 例如任务一用于获取数据,任务二用于处理数据。 但这其中存在一个先后关系:必须等到任务一获取完了数据,任务二才能开始工作,你会如何选择何种…

两个月冲刺软考——概念+求已知内存按字节编址从(A)…到(B)…的存储容量+求采用单/双缓冲区需要花费的时间计算 类型题目讲解

1.四个周期的区别与联系 时钟周期:也称为CPU周期或机器周期,是CPU操作的基本时间单位。 指令周期:是指CPU执行一条指令所需的全部时间。一个指令周期通常由多个时钟周期组成,因为执行一条指令可能需要多个步骤,如取指…

基于 OpenCV 的数字图像处理实验平台设计

基于 OpenCV 的数字图像处理实验平台设计 前言简介正文资源链接(含源码) 前言 哈哈上学那会儿做的一个软件,当时把OpenCV各个基础算法都集成在了一起,还有一定程度的顺序执行部分相关算法的功能,那时候网上相关内容比较…

【开源大模型生态1】逐步成熟

人工智能和大模型的发展,我们之前讨论过,我在人工智能考试笔记中,也有分享。 结合上图,一起再来回顾一下。 机器学习出现之后,大模型逻辑推理为主,聚焦决策、认知能力。 深度学习出现之后,大…

利用注解将数据转为树结构

利用注解生成树结构 ListToTree注解 背景介绍: 通常,我们都有需要将一个列表List,转为树的结构 或许我们或多或少都写过工具类如: 或者: 以上写法,或多或少,都需要我们对集合进行一些处理,写多了自然就变得繁琐,甚至有业务相关的时候,修改会变动麻烦 并且功能比较单一,局限…

IO进程day07(信号灯集、消息队列)

【1】信号灯集 semaphore 1》概念 信号灯(semaphore),也叫信号量,信号灯集是一个信号灯的集合。它是不同进程间或一个给定进程内部不同线程间同步的机制; 而Posix信号灯指的是单个计数信号灯:无名信号灯、有名信号灯。&#xff0…

Spring Security 用户认证和授权管理

文章目录 一、介绍1、简介2、核心概念3、主要功能4、处理流程 二、Spring Security实现权限1、添加依赖2、执行顺序和代码执行流程(1)用户登录(2)访问受保护资源 总结1、用户登录2、访问受保护资源 完整源码 一、介绍 1、简介 S…

SpringBoot+Vue的竞赛报名系统【源码】【最详细运行文档】

SpringBootVue的竞赛报名系统 一、项目简介二、技术选型三、运行步骤1. 后端启动2. 前端启动 四、项目演示登录页管理员登录学生登录源码获取方式 总结 大家好,这里是程序猿代码之路。在现代教育和技术竞赛中,一个高效、稳定的报名系统对于赛事的组织和管…

【Java|Stream流】获取各个数据类型的Stream流

文章目录 1.Stream流介绍2.获取Stream流2.1单列集合2.2双列集合2.3数组2.4零散的数据 3.Stream.of()方法的注意事项 1.Stream流介绍 在 Java 中,Stream 流是一种处理集合数据的高级方式,可以方便地对集合进行各种操作,如过滤、映射、排序、聚…

python:序列1~n的立方之和==序列1~n的和之平方

pip install sympy 或者 Anaconda 3 自带 sympy 点击 【Jupyter Notebook】 这是我最喜欢的代数恒等式之一 from IPython.display import Latex Latex(r"$1^32^33^3\cdotsn^3 (123\cdotsn)^2 $") Latex(r"$\sum_{i1}^n i^3 (\sum_{i1}^n i)^2 $")# 求…

小试牛刀-SOL链创建Token代币

目录 1.编写目的 2.账户结构 3.环境及使用依赖 4.步骤分解 4.1.导入相关依赖 4.2. 初始化变量 4.3. 创建并初始化Mint Account 4.4. 创建并初始化Metadata Account 4.5. 发送创建和初始化mint Account 4.6 铸造代币 5.源码分享 Welcome to Code Blocks blog 本篇文…

视频孪生智慧监所平台,实现监管数据的统一管理和立体直观呈现

针对监所传统方式难以有效管控;监所视频监控相似度极高,难以辨识,工作人员劳动强度大;监所行业涉及的系统众多,缺少统一高效的管理;监所行业对系统应急响应能力、智慧化程度要求高等痛点问题。在智慧监所建…

24数学建模国赛及提供助力(12——存贮论)!!!!

需要资料和助攻的小伙伴们可以文章末尾获取链接!!!! 点击链接加入群聊获取资料以及助攻https://qm.qq.com/q/NGl6WD0Bky