SegNeXt:重新思考用于语义分割的卷积注意力

news2024/12/26 3:56:30

&原文信息

原文题目:《SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation》

原文引用:Guo M H, Lu C Z, Hou Q, et al. Segnext: Rethinking convolutional attention design for semantic segmentation[J]. Advances in Neural Information Processing Systems, 2022, 35: 1140-1156.

原文链接:https://proceedings.neurips.cc/paper_files/paper/2022/file/08050f40fff41616ccfc3080e60a301a-Paper-Conference.pdficon-default.png?t=N6B9https://proceedings.neurips.cc/paper_files/paper/2022/file/08050f40fff41616ccfc3080e60a301a-Paper-Conference.pdf

0.摘要

        我们提出了SegNeXt,这是一种简单的卷积网络架构,用于语义分割。最近基于transformer的模型在语义分割领域占据主导地位,这是由于自注意力在编码空间信息方面的高效性。在本文中,我们展示了卷积注意力是一种比transformer中的自注意力机制更高效和有效地编码上下文信息的方式。通过重新审视成功的分割模型所拥有的特性,我们发现了几个关键组件,这些组件导致了分割模型性能的提升。这激励我们设计了一种新颖的卷积注意力网络,它使用廉价的卷积操作。没有花哨的东西,我们的SegNeXt在流行的基准测试中显著提高了以前最先进方法的性能,包括ADE20K、Cityscapes、COCO-Stuff、Pascal VOC、Pascal Context和iSAID。值得注意的是,SegNeXt在仅使用其1/10参数的情况下超过了EfficientNet-L2 w/ NAS-FPN,在Pascal VOC 2012测试排行榜上达到了90.6%的mIoU。平均而言,SegNeXt在ADE20K数据集上与最先进方法相比,mIoU提高了约2.0%,计算量相同或更少。

1.引言

        作为计算机视觉中最基础的研究课题之一,语义分割旨在为每个像素分配一个语义类别,在过去的十年中引起了广泛关注。从早期的基于CNN的模型,如FCN和DeepLab系列,到最近的基于transformer的方法,如SETR和SegFormer,语义分割模型在网络架构方面经历了重大革命。

        通过重新审视以前成功的语义分割作品,我们总结了一些不同模型具有的关键特性,如表1所示。基于以上观察,我们认为一个成功的语义分割模型应具备以下特点:

        (i) 强大的主干网络作为编码器。与以前的基于CNN的模型相比,基于transformer的模型的性能改进主要来自更强大的主干网络。

        (ii) 多尺度信息交互。不同于主要识别单个对象的图像分类任务,语义分割是一项密集预测任务,因此需要在单个图像中处理不同大小的对象。

        (iii) 空间注意力。空间注意力允许模型通过对语义区域内的区域进行优先级排序来进行分割。

        (iv) 低计算复杂度。当处理来自遥感和城市场景的高分辨率图像时,这一点尤为重要。

        考虑到上述分析,在本文中,我们重新思考了卷积注意力的设计,并提出了一种高效而有效的用于语义分割的架构。与以前的基于transformer的模型在解码器中使用卷积作为特征优化器不同,我们的方法颠倒了transformer-卷积编码器-解码器的架构。具体而言,对于我们编码器中的每个块,我们改进了传统卷积块的设计,并利用多尺度卷积特征通过简单的逐元素乘法来唤起空间注意力,这是在[25]之后的一种方法。我们发现,这种简单的构建空间注意力的方式比标准卷积和自注意力在空间信息编码方面更有效率。对于解码器,我们从不同阶段收集多级特征,并使用Hamburger [22]进一步提取全局上下文。在这种设置下,我们的方法可以从局部到全局获取多尺度的上下文,实现在空间和通道维度上的适应性,并从低级别到高级别聚合信息。

        我们的网络被称为SegNeXt,除了解码器部分外,它主要由卷积操作组成,解码器部分包含一个基于分解的Hamburger模块[22](Ham)用于全局信息提取。这使得我们的SegNeXt比之前严重依赖于transformer的分割方法更加高效。如图1所示,SegNeXt在性能上显著优于最近的基于transformer的方法。特别是,在处理来自Cityscapes数据集的高分辨率城市场景时,我们的SegNeXt-S在仅使用约1/6(124.6G vs. 717.1G)的计算成本和1/2(13.9M vs. 27.6M)的参数时,表现优于SegFormer-B2(81.3% vs. 81.0%)。

我们的贡献可以总结如下:

  • 我们确定了一个良好的语义分割模型应该具备的特点,并提出了一种新颖的定制网络架构,称为SegNeXt,通过多尺度卷积特征唤起空间注意力。
  • 我们展示了一个具有简单和廉价的卷积的编码器仍然可以比视觉transformer更好地处理对象细节,同时需要更少的计算成本。
  • 我们的方法在包括ADE20K、Cityscapes、COCO-Stuff、Pascal VOC、Pascal Context和iSAID在内的各种分割基准上大幅提高了最先进的语义分割方法的性能。

表1:我们从成功的语义分割方法中观察到的对模型性能提升有益的属性。这里,n表示像素或令牌的数量。强大的编码器表示强大的主干网络,如ViT [16]和VAN [25]。

图1:在Cityscapes(左图)和ADE20K(右图)验证集上的性能-计算曲线。FLOPs是使用2,048×1,024的输入大小计算的Cityscapes和512×512的ADE20K。圆的大小表示参数的数量。更大的圆表示更多的参数。我们可以看到,我们的SegNeXt在分割性能和计算复杂度之间实现了最佳的权衡。

2.相关工作

2.1.语义分割

        语义分割是一项基本的计算机视觉任务。自从FCN [60]被提出以来,卷积神经网络(CNNs)[1, 71, 98, 106, 20, 99, 79, 21, 51]取得了巨大的成功,并成为语义分割的流行架构。最近,基于transformer的方法[108, 90, 100, 73, 70, 50, 10, 9]展现了巨大的潜力,并超过了基于CNN的方法。

        在深度学习时代,分割模型的架构可以大致分为两部分:编码器和解码器。对于编码器,研究人员通常采用流行的分类网络(如ResNet [28]、ResNeXt [91]和DenseNet [33])而不是定制的架构。然而,语义分割是一种密集预测任务,与图像分类不同。在分类任务中的改进可能在具有挑战性的分割任务中并不明显 [29]。因此,出现了一些定制的编码器,包括Res2Net [21]、HRNet [79]、SETR [108]、SegFormer [90]、HRFormer [100]、MPViT [44]、DPT [70]等。对于解码器,它通常与编码器合作以实现更好的结果。针对不同的目标,有不同类型的解码器,包括实现多尺度感受野 [106, 6, 88]、收集多尺度语义 [71, 90, 7]、扩大感受野 [4, 4, 69]、加强边缘特征 [107, 2, 15, 48, 102]和捕捉全局上下文 [20, 35, 101, 46, 24, 27, 103]。

        在本文中,我们总结了那些成功的用于语义分割的模型的特点,并提出了一种基于CNN的模型,名为SegNeXt。与我们的论文最相关的工作是[69],它将一个k×k的卷积分解为一个k×1和一个1×k的卷积。尽管这项工作显示了在语义分割中大型卷积核的重要性,但它忽略了多尺度感受野的重要性,并且没有考虑如何利用通过大型卷积核提取的这些多尺度特征以注意力的形式进行分割。

2.2.多尺度网络

        设计多尺度网络是计算机视觉中的一个热门方向。对于分割模型来说,多尺度块出现在编码器[79, 21, 75]和解码器[106, 98, 5]部分。GoogleNet [75]是与我们的方法最相关的多尺度架构之一,它使用多分支结构实现多尺度特征提取。另一个与我们的方法相关的工作是HRNet [79]。在更深层次上,HRNet也保持高分辨率特征,并与低分辨率特征聚合,以实现多尺度特征提取。

        与之前的方法不同,SegNeXt除了在编码器中捕捉多尺度特征外,还引入了一种高效的注意力机制,并采用了更便宜且更大的卷积核。这使得我们的模型能够实现比前述分割方法更高的性能。

2.3.注意力机制

        注意力机制是一种自适应选择过程,旨在使网络专注于重要的部分。一般来说,在语义分割中,它可以分为两类 [26],包括通道注意力和空间注意力。不同类型的注意力起着不同的作用。例如,空间注意力主要关注重要的空间区域 [16, 13, 64, 58, 23]。而使用通道注意力的目标是使网络有选择地关注那些重要的对象,在先前的工作中已经证明了它的重要性 [31, 8, 80]。谈到最近流行的视觉Transformer [16, 58, 94, 81, 82, 57, 90, 34, 56, 100, 93],它们通常忽视了在通道维度上的适应性。

        视觉注意力网络(VAN)[25]是与SegNeXt最相关的工作,它也提出利用大型卷积核注意力(LKA)机制构建通道和空间注意力。尽管VAN在图像分类方面取得了很好的性能,但它在网络设计过程中忽视了多尺度特征聚合的作用,而这对于分割类任务来说是至关重要的。

图2:所提出的MSCA和MSCAN的示意图。这里,d,k1×k2表示使用k1×k2的核大小进行深度卷积(d)。我们使用卷积提取多尺度特征,然后将它们用作MSCA输入的注意力权重进行重新加权。

3.方法

        在这一部分,我们详细描述了所提出的SegNeXt的架构。基本上,我们采用了一个编码器-解码器的架构,这是大多数先前工作所采用的,简单易懂。

3.1.卷积编码器

        我们采用了金字塔结构作为我们的编码器,这是根据大多数先前的工作[90, 4, 20]。对于我们编码器中的构建模块,我们采用了类似于ViT [16, 90]的结构,但不同之处在于我们没有使用自注意机制,而是设计了一个新颖的多尺度卷积注意力(MSCA)模块。如图2(a)所示,MSCA包含三个部分:一个深度卷积用于聚合局部信息,多分支深度条带卷积用于捕捉多尺度上下文,以及一个1×1卷积用于建模不同通道之间的关系。1×1卷积的输出直接用作注意力权重,用于重新加权MSCA的输入。数学上,我们的MSCA可以写成:

         ⊗表示逐元素矩阵乘法操作。DW-Conv表示深度卷积,Scalei,i∈{0,1,2,3},表示图2(b)中的第i个分支。Scale0是恒等连接。根据[69]的方法,在每个分支中,我们使用两个深度条带卷积来近似具有大型核的标准深度卷积。在这里,每个分支的核大小分别设置为7、11和21。我们选择深度条带卷积的原因有两个。一方面,条带卷积是轻量级的。为了模拟一个具有7×7核大小的标准2D卷积,我们只需要一对7×1和1×7卷积。另一方面,在分割场景中存在一些条带状物体,例如人体和电线杆。因此,条带卷积可以作为网格卷积的补充,并有助于提取条带状特征[69, 30]。

        将一系列的构建模块堆叠起来,得到了所提出的卷积编码器,称为MSCAN。对于MSCAN,我们采用了一个常见的分层结构,其中包含四个阶段,分别具有逐渐减小的空间分辨率H4×W4、H/8×W/8、H/16×W/16和H/32×W/32。这里,H和W分别是输入图像的高度和宽度。每个阶段包含一个下采样块和一堆构建块,如上所述。下采样块具有步长为2和核大小为3×3的卷积,然后是一个批量归一化层[36]。值得注意的是,在MSCAN的每个构建块中,我们使用批量归一化而不是层归一化,因为我们发现批量归一化对分割性能的提升更大。

        我们设计了四个具有不同大小的编码器模型,分别命名为MSCAN-T、MSCAN-S、MSCAN-B和MSCAN-L。相应的整体分割模型分别称为SegNeXt-T、SegNeXt-S、SegNeXt-B和SegNeXt-L。详细的网络设置如表2所示。

表2:所提出的SegNeXt不同尺寸的详细设置。在这个表中,“e.r.”表示前馈网络中的扩张比例。‘C’和‘L’分别是通道数和构建块数。‘解码器维度’表示解码器中的MLP维度。‘参数’是在ADE20K数据集[111]上计算的。由于不同数据集中类别数目的差异,参数数量可能会略有变化。

3.2.解码器

        在分割模型[90, 108, 4]中,编码器大多数是在ImageNet数据集上进行预训练的。为了捕捉高级语义,通常需要一个解码器,该解码器应用于编码器之上。在这项工作中,我们研究了三种简单的解码器结构,如图3所示。第一种结构是SegFormer [90]中采用的纯MLP结构。第二种是大多数采用CNN的模型。在这种结构中,编码器的输出直接作为输入传递给重型解码器头,如ASPP [4]、PSP [106]和DANet [20]。最后一种是我们SegNeXt中采用的结构。我们从最后三个阶段聚合特征,并使用轻量级的Hamburger [22]进一步建模全局上下文。结合我们强大的卷积编码器,我们发现使用轻量级的解码器可以提高性能-计算效率。

        值得注意的是,与SegFormer的解码器从第1阶段到第4阶段聚合特征不同,我们的解码器只接收来自最后三个阶段的特征。这是因为我们的SegNeXt是基于卷积的。来自第1阶段的特征包含了太多的低级信息,对性能产生了负面影响。此外,第1阶段的操作会带来沉重的计算开销。在我们的实验部分,我们将展示我们的卷积SegNeXt的性能要比最近的基于Transformer的SegFormer [90]和HRFormer [100]要好得多。

图3:三种不同的解码器设计。

4.实验

数据集。我们在七个流行的数据集上评估我们的方法,包括ImageNet-1K [14]、ADE20K [111]、Cityscapes [12]、Pascal VOC [17]、Pascal Context [65]、COCO-Stuff [3]和iSAID [84]。ImageNet [14]是最著名的图像分类数据集,包含1,000个类别。与大多数分割方法类似,我们使用它来预训练我们的MSCAN编码器。ADE20K [111]是一个具有挑战性的数据集,包含150个语义类别。它包含20,210/2,000/3,352张图像,分别用于训练、验证和测试集。Cityscapes [12]主要关注城市场景,并包含5,000张高分辨率图像,涵盖19个类别。分别有2,975/500/1,525张图像用于训练、验证和测试。Pascal VOC [17]涉及20个前景类别和一个背景类别。经过增强后,它有10,582/1,449/1,456张图像用于训练、验证和测试。Pascal Context [65]包含59个前景类别和一个背景类别。训练集和验证集分别包含4,996和5,104张图像。COCO-Stuff [3]也是一个具有挑战性的基准数据集,包含172个语义类别和总共164,000张图像。iSAID [84]是一个大规模的航拍图像分割基准数据集,包括15个前景类别和一个背景类别。它的训练、验证和测试集分别涉及1,411/458/937张图像。

实现细节。我们使用Jittor [32]和Pytorch [68]进行实验。我们的实现基于timm (Apache-2.0) [85]和mmsegmentation (Apache-2.0) [11]库,用于分类和分割。我们分割模型的所有编码器都是在ImageNet-1K数据集 [14]上进行预训练的。我们分别采用Top-1准确率和平均交并比(mIoU)作为分类和分割的评估指标。所有模型都在一个包含8个RTX 3090 GPU的节点上进行训练。

        对于ImageNet的预训练,我们的数据增强方法和训练设置与DeiT [78]相同。对于分割实验,我们采用了一些常见的数据增强方法,包括随机水平翻转、随机缩放(从0.5到2)和随机裁剪。批量大小设置为8用于Cityscapes数据集,对于其他所有数据集设置为16。我们使用AdamW [61]来训练我们的模型。初始学习率设置为0.00006,并采用多项式学习率衰减策略。我们对ADE20K、Cityscapes和iSAID数据集进行了160K次迭代的训练,对于COCO-Stuff、Pascal VOC和Pascal Context数据集进行了80K次迭代的训练。在测试过程中,我们使用单尺度(SS)和多尺度(MS)翻转测试策略进行公平比较。更多细节可以在我们的补充材料中找到。

4.1.ImageNet上的编码器性能

        ImageNet预训练是训练分割模型的常见策略[106, 5, 90, 100, 4]。在这里,我们将我们的MSCAN与几种最近流行的基于CNN和Transformer的分类模型进行了性能比较。如表3所示,我们的MSCAN在性能上优于最近的基于CNN的方法ConvNeXt [59],并且优于流行的基于Transformer的方法,如Swin Transformer [58]和SegFormer的编码器MiT。

表5:解码器中不同注意机制的性能。SegNeXt-B w/ Ham表示MSCAN-B编码器加上Ham解码器。FLOPs是使用512×512的输入尺寸计算的。

4.2.消融研究

对MSCA设计进行剔除研究。我们对ImageNet和ADE20K数据集上的MSCA设计进行了剔除研究。K × K分支包含一个深度可分离的1 × K卷积和一个K × 1深度可分离卷积。1 × 1卷积表示通道混合操作。注意力表示元素级乘积,使网络获得自适应能力。结果如表6所示。我们可以发现每个部分都对最终性能做出了贡献。

解码器中的全局上下文。解码器在分割模型中起着整合多尺度特征的全局上下文的重要作用。在这里,我们研究了不同全局上下文模块对解码器的影响。正如大多数先前的工作所示[83, 20],基于注意力的解码器在CNNs上比金字塔结构[106, 4]获得了更好的性能,因此我们只展示使用基于注意力的解码器的结果。具体而言,我们展示了4种不同类型的基于注意力的解码器的结果,包括具有O(n^2)复杂度的非局部(NL)注意力[83],以及具有O(n)复杂度的CCNet [35]、EMANet [46]和HamNet [22]。如表5所示,Ham在复杂度和性能之间实现了最佳平衡。因此,我们在解码器中使用Hamburger [22]。

解码器结构。与图像分类不同,分割模型需要高分辨率的输出。我们对分割任务进行了三种不同的解码器设计的剔除研究,所有的设计都在图3中展示。相应的结果列在表7中。我们可以看到,SegNeXt (c)获得了最佳性能,并且计算成本也较低。

我们对MSCA在分割任务中的重要性进行了实验证明。作为对比,我们按照VAN [25]的方法,将我们MSCA中的多个分支替换为一个具有大卷积核的单一卷积。如表8和表3所示,我们可以观察到虽然两个编码器在ImageNet分类任务中的性能接近,但是带有MSCA的SegNeXt比不带MSCA的设置产生了更好的结果。这表明在编码器中聚合多尺度特征对于语义分割是至关重要的。

表6:对MSCA设计的剔除研究。Top-1表示在ImageNet数据集上的Top-1准确率,mIoU表示在ADE20K基准上的mIoU。结果基于MSCAN-T模型。

表7:不同解码器结构的性能。SegNeXt-T (a)表示在解码器中使用图3(a)的结构。FLOPs是使用512×512的输入尺寸计算的。SegNeXt-T (c) w/ stage 1表示阶段1的输出也被送入解码器。

表8:我们多尺度卷积注意力(MSCA)的重要性。SegNeXt-T w/o MSCA表示我们仅使用一个具有大卷积核的分支来替代我们MSCA中的多个分支,这与[25]中的方法相同。FLOPs是使用512×512的输入尺寸计算的。

图4:SegNeXt-B和SegFormer-B2在Cityscapes数据集上的定性比较。更多的视觉结果可以在我们的附加资料中找到。

4.3.与当前先进方法的比较

        在这个小节中,我们将我们的方法与最先进的基于CNN的方法进行了比较,如HRNet [79]、ResNeSt [104]和EfficientNet [77],以及基于transformer的方法,如Swin Transformer [58]、SegFormer [90]、HRFormer [100]、MaskFormer [10]和Mask2Former [9]。

性能与计算的权衡。ADE20K和Cityscapes是语义分割中广泛使用的两个基准数据集。如图1所示,我们绘制了不同方法在Cityscapes和ADE20K验证集上的性能-计算曲线。显然,与SegFormer [90]、HRFormer [100]和MaskFormer [10]等其他最先进的方法相比,我们的方法在性能和计算之间实现了最佳的权衡。

与最先进的transformer模型的比较。我们将SegNeXt与ADE20K、Cityscapes、COCO-Stuff和Pascal Context等最先进的transformer模型进行比较。如表9所示,SegNeXt-L在ADE20K数据集上与Swin-T骨干网络的Mask2Former相比,mIoU提高了3.3个百分点(51.0对比47.7),参数和计算成本相似。此外,SegNeXt-B在ADE20K数据集上与SegFormer-B2相比,仅使用56%的计算量,mIoU提高了2.0个百分点(48.5对比46.5)。特别是,由于SegFormer [90]中的自注意力与输入尺寸呈二次复杂度的关系,而我们的方法使用卷积操作,这使得我们的方法在处理Cityscapes数据集中的高分辨率图像时表现出色。例如,SegNeXt-B在SegFormer-B2上提高了1.6个百分点的mIoU(81.0对比82.6),但使用了更少的计算量(减少了40%)。在图4中,我们还展示了与SegFormer的定性比较。我们可以看到,由于我们提出的MSCA,我们的方法在处理对象细节时能够很好地识别出来。

与最先进的CNN的比较。如表4、表10和表12所示,我们将SegNeXt与ResNeSt-269 [104]、EfficientNet-L2 [112]和HRNet-W48 [79]等最先进的CNN进行了比较,这些比较是基于Pascal VOC 2012、Pascal Context和iSAID数据集。SegNeXt-L在参数和计算量更少的情况下表现出色,超过了流行的HRNet (OCR) [79, 99]模型(60.3对比56.3),该模型专门为分割任务设计。此外,SegNeXt-L在Pascal VOC 2012测试排行榜上的表现甚至超过了在额外的3亿个不可用图像上进行预训练的EfficientNet-L2 (NAS-FPN)。值得注意的是,EfficientNet-L2 (NAS-FPN)有4.85亿参数,而SegNeXt-L只有48.7万参数。

与实时方法的比较。除了最先进的性能外,我们的方法也适用于实时部署。即使没有任何特定的软件或硬件加速,当处理尺寸为768×1,536的图像时,SegNeXt-T在单个3090 RTX GPU上实现了每秒25帧(FPS)。如表11所示,我们的方法在Cityscapes测试集上为实时分割设定了新的最先进结果。

表9:在ADE20K、Cityscapes和COCO-Stuff基准数据集上与最先进方法的比较。FLOPs(G)的数量是在ADE20K和COCO-Stuff的输入尺寸为512×512的情况下计算的,而在Cityscapes的输入尺寸为2,048×1,024的情况下计算。†表示在ImageNet-22K上进行了预训练的模型。

表10:在Pascal VOC数据集上与最先进方法的比较。∗表示使用了COCO [55]的预训练。†表示使用了JFT-300M [74]的预训练。$表示利用了额外的3亿张无标签图像进行了预训练。

表11:在Cityscapes测试数据集上与最先进的实时方法的比较。我们使用单个RTX-3090 GPU和AMD EPYC 7543 32核处理器CPU对我们的方法进行测试。在没有使用任何优化的情况下,SegNeXt-T可以实现每秒25帧(FPS),满足实时应用的要求。

4.4.弱监督语义分割

        在这个小节中,我们将提出的网络应用于弱监督语义分割任务。在这个任务中,通常通过使用CAM [110]由分类模型生成伪分割图。先前的工作主要利用VGGNet [72]或ResNets [28, 87]作为CAM生成器。在这里,我们测试了由我们的MSCAN生成的CAM的性能。我们使用EPS [43]架构,并按照训练策略和配方进行。数值结果如表13所示。我们可以看到,仅仅将ResNet38主干换成我们的MSCAN就可以明显提高性能,相比EPS基线。当使用我们的SegNeXt作为分割网络时,性能提升进一步增加。

表12:在Pascal Context基准测试上的比较。FLOPs的数量是以512×512的输入尺寸计算的。∗表示使用了ImageNet-22K的预训练。†表示使用了ADE20K的预训练。

表13:在PASCAL VOC 2012验证集上与之前最先进的弱监督语义分割方法的比较。除了我们使用的MSCAN-B之外,所有的分割结果都基于ResNet主干[28, 87]。

5.总结和讨论

        在这篇论文中,我们分析了之前成功的分割模型,并找到了它们所拥有的良好特性。基于这些发现,我们提出了定制的卷积注意力模块MSCA和CNN风格的网络SegNeXt。实验结果表明,SegNeXt在很大程度上超过了当前最先进的基于transformer的方法。 最近,基于transformer的模型在各种分割排行榜上占据主导地位。然而,本文表明,当使用适当的设计时,基于CNN的方法仍然可以比基于transformer的方法表现更好。我们希望这篇论文能够鼓励研究人员进一步探索CNN的潜力。 我们的模型也有其局限性,例如将这种方法扩展到具有1亿+参数的大规模模型以及在其他视觉或NLP任务上的性能。这些问题将在我们未来的工作中得到解决。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/820312.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SQL从三个表中根据时间分别查询并汇总数量一行展示

需求:如果您要从三个表中根据时间分别查询并汇总数量,然后将结果以时间和数量一行展示,可以使用子查询和条件聚合。 入库主表 入库明细表 出库主表 出库明细表 退货主表 退货明细表 SQL代码 SELECT time,sum(a.inQty) as inQty,sum(a.outQty…

想写几个上位机,是选择学c#还是 c++ qt呢?

C#基本也就上位机开发开发,另外做做日常用的小工具很方便。 结合PLC,以太网做上位机,这个基本上控制这块都比较有需求。 另外我们用C#也做一些工具的二次开发,感觉还行。 C用qt框架其实学习起来可能稍微复杂些,但是…

<MyBatis>MyBatis把空字符串转换成0的问题处理方案

先看问题: Postman入参: MyBatis采用map循环插入: // Mapper接口层void addPar(Param(value "question") Map<String, Object> paramMap);<!-- 新增&#xff1a;参数 --><insert id"addPar" parameterType"map">INSERT IGNO…

linux 配置nacos遇见的问题及解决办法

本次的集群是启动一个服务的三个不同端口&#xff0c;配置如下&#xff1a; 一.application.properties 加上下列配置&#xff0c;目的是使用自己的mysql数据库&#xff1a; spring.datasource.platformmysql db.num1 db.url.0jdbc:mysql://127.0.0.1:3306/nacos_config?s…

【深度学习】InST,Inversion-Based Style Transfer with Diffusion Models,论文,风格迁移,实战

代码&#xff1a;https://github.com/zyxElsa/InST 论文&#xff1a;https://arxiv.org/abs/2211.13203 文章目录 AbstractIntroductionRelated WorkImage style transferText-to-image synthesisInversion of diffusion models MethodOverview ExperimentsComparison with Sty…

构建可靠的前端工程:自动化、代码质量与性能优化

文章目录 代码质量工具与实践1. 代码静态检查工具2. 单元测试和集成测试3. 自动化构建和持续集成4. 代码审查和Pull请求(PR)5. 代码规范和格式化6. Git工作流和版本控制管理 前端性能优化工具与技巧1. 使用压缩和合并2. 图片优化3. 延迟加载4. CDN加速5. 缓存优化6. 代码优化7.…

一个简单的登录功能,你真的会测试吗?

前段时间看了《测试工程师全栈技术进阶与实战》一书&#xff0c;收获颇丰。书中刚开始是以一个登录功能开始的&#xff0c;这个例子非常具有代表性。说到这个登录功能&#xff0c;人人认为很简单&#xff0c;但是要设计好的测试用例&#xff0c;还是要费一番功夫的。把书中的这…

花费7元训练自己的GPT 2模型

在上一篇博客中&#xff0c;我介绍了用Tensorflow来重现GPT 1的模型和训练的过程。这次我打算用Pytorch来重现GPT 2的模型并从头进行训练。 GPT 2的模型相比GPT 1的改进并不多&#xff0c;主要在以下方面&#xff1a; 1. GPT 2把layer normalization放在每个decoder block的前…

森林生物量(蓄积量)数据处理到随机森科估算全流程

python森林生物量&#xff08;蓄积量&#xff09;估算全流程 一.哨兵2号获取/处理/提取数据1.1 影像处理与下载采用云概率影像去云采用6S模型对1C级产品进行大气校正geemap下载数据到本地NDVI 1.2 各种参数计算&#xff08;生物物理变量、植被指数等&#xff09;LAI&#xff1a…

程序员面试金典17.*

文章目录 17.01 不用加号的加法17.04 消失的数字17.05字母与数字17.06 2出现的次数17.07 婴儿名字17.08 马戏团人塔17.09 第k个数17.10 主要元素17.11 单词距离17.12 BiNode17.13 恢复空格&#xff08;未做&#xff0c;字典树dp&#xff09;17.14 最小K个数17.15 最长单词17.16…

TIA Portal(博途)V15.0 安装教程

哈喽&#xff0c;大家好&#xff0c;我是雷工。 最近项目上用到博图15.0软件&#xff0c;在虚拟机安装博图软件。下面记录安装过程。 一、安装环境 虚拟机内的Win10系统专业版64位。 二、注意事项 1、安装文件的存放路径不能含中文字符&#xff0c;软件需安装在C盘。 2、操…

uniapp实现地图点聚合

点聚合的最重要的一个地方是在 markers 中添加 joinCluster true 这个重要的属性&#xff0c;否则将无法开启点聚合功能。 其实在uniapp的官方文档里体现的不是那么清楚&#xff0c;但是在小程序文档提示的就相当清楚。 实现效果如下&#xff1a; 重点&#xff1a;需要编译在小…

PySpark介绍与安装

Spark是什么 定义&#xff1a;Apache Spark是用于大规模数据&#xff08;large-scala data&#xff09;处理的统一&#xff08;unified&#xff09;分析引擎。 简单来说&#xff0c;Spark是一款分布式的计算框架&#xff0c;用于调度成百上千的服务器集群&#xff0c;计算TB、…

免费商城搭建之java版直播商城平台规划及常见的营销模式+电商源码+小程序+三级分销+二次开发

&#xfeff; 1. 涉及平台 平台管理、商家端&#xff08;PC端、手机端&#xff09;、买家平台&#xff08;H5/公众号、小程序、APP端&#xff08;IOS/Android&#xff09;、微服务平台&#xff08;业务服务&#xff09; 2. 核心架构 Spring Cloud、Spring Boot、Mybatis、R…

Linux 入侵痕迹清理技巧(仅限学习安全知识)

vim ~/.bash_history 查看历史操作命令&#xff1a;history history记录文件&#xff1a;more ~/.bash_history history -c #使用vim打开一个文件 vi test.txt # 设置vim不记录命令&#xff0c;Vim会将命令历史记录&#xff0c;保存在viminfo文件中。 :set history0 # 用vim的…

Qt之qml和widget混合编程调用

首先是创建一个widget项目 然后需要添加qml和quick的插件使用 QT quickwidgets qml 接着要在界面上创建一个quickwidget和按钮 创建一个c对象类 QObjectQml #ifndef QOBJECTQML_H #define QOBJECTQML_H#include <QObject> #include <QDebug> class QObjectQml …

如何去推动自己团队所提出的需求

自己团队所提出的需求是指性能优化、技术栈升级、架构调整等需求&#xff0c;偏向于技术范畴。 要推动这类需求&#xff0c;除了自己团队的努力之外&#xff0c;还需要一些外在的辅助因素。 一、时机 对于我们自己团队内部就能消化的需求&#xff0c;主要的问题就是人员&#x…

upload-labs详解------持续更新

目录 注&#xff1a; 搭建&#xff1a; pass-01&#xff08;前端绕过&#xff09; pass-02&#xff08;后缀绕过&#xff09; pass-03&#xff08;黑名单绕过&#xff09; pass-04&#xff08;Apache解析漏洞\.htaccess文件绕过&#xff09; 注&#xff1a; 本项目提供的…

稍微深度踩坑haystack + whoosh + jieba

说到django的全文检索&#xff0c;网上基本推荐的都是 haystack whoosh jieba 的方案。 由于我的需求对搜索时间敏感度较低&#xff0c;但是要求不能有数据的错漏。 但是没有调试的情况下&#xff0c;搜索质量真的很差&#xff0c;搞得我都想直接用Like搜索数据库算了。 但是…

item_search-ks-根据关键词取商品列表

一、接口参数说明&#xff1a; item_search-根据关键词取商品列表&#xff0c;点击更多API调试&#xff0c;请移步注册API账号点击获取测试key和secret 公共参数 请求地址: https://api-gw.onebound.cn/ks/item_search 名称类型必须描述keyString是调用key&#xff08;http:…