论文阅读:2020GhostNet华为轻量化网络

news2024/11/15 13:03:35

创新:(1)对卷积进行改进(2)加残差连接

1、Ghost Module

1、利用1x1卷积获得输入特征的必要特征浓缩。利用1x1卷积对我们输入进来的特征图进行跨通道的特征提取,进行通道的压缩,获得一个特征浓缩。
2、利用深度可分离卷积获得特征浓缩的相似特征图(Ghost)。在获得特征浓缩之后,利用深度可分离卷积进行逐层卷积,进行跨特征点的特征提取,获得额外的特征图,也就是Ghost。

将这两个进行堆叠就是输出的特征层

在这里插入图片描述

2、Ghost Bottlenecks

Ghost Bottlenecks是由Ghost Module组成的瓶颈结构,其实本质上就是用Ghost Module,来代替瓶颈结构里面的普通卷积。

Ghost Bottlenecks有两个种类(输入进来的步长为1选第一种,输入进来的步长为2选第二种),如下图所示。先来看第一个Ghost Bottleneck,可以分为两个部分,分别是主干部分和残差边部分。在主干部分,使用两个ghost模块对输入的特征层进行特征提取;在残差边部分,什么都不处理,直接将输入和输出进行逐元素求和。这样,第一个瓶颈结构就构建完成了,由于它的步长为1,所以不会对输入进来的特征图进行高和宽的压缩,它的功能是加深网络的深度。

当我们需要对特征层的宽高进行压缩的时候,需要设置第二个Ghost Bottlenecks,即在Bottlenecks里添加一些卷积层。在主干部分里,首先用ghost module进行特征提取,提取完成后使用一个步长为2的深度可分离卷积对输入特征层进行高和宽的压缩,然后再用一个ghost模块进行特征提取。在残差边部分,也会添加上一个步长为2的深度可分离卷积和1x1的普通卷积,然后将输入和输出进行相加。第二个瓶颈结构的步长为2,它的功能就是改变输入特征层的宽高。

在这里插入图片描述

(1)ghost module

(2)判断stride=2?,是否用深度可分离卷积

(3)判断是否使用注意力机制模块

注意力机制模块:(即插即用)(这个注意力机制模块类似于SEnet)

1)全局平均池化

2)1*1卷积降维

3)激活

4)1*1卷积升维

(升维降维之后)最终输入与输出通道数相同,然后再取sigmoid,使输出值在 [0,1] 之间,输出值即为每个通道的权重,这个结果乘以输入的特征层,就完成这个注意力机制的添加了

(4)ghost module

(5)判断步长=1?输入通道=输出通道?如果输入通道不等于输出通道,利用DWconv和1*1conv调整通道数,保证主干与残差可以相加

最终将有效特征层(4、6、8)取出来,利用这三个有效特征层进行加强特征提取网络的构建

标题:GhostNet:从廉价的运算中得到更到的特征

摘要:因为有限的内存和计算资源,在嵌入式设备中部署卷积神经网络(CNNs)是困难的。特征图的冗余是那些成功CNNs的一个重要特征,但是很少有关于网络架构设计的研究。这篇论文提出了一个新颖的Ghost模型,从廉价的运算中得到更到的特征图。基于本征特征图集,我们应用一系列低成本的线性运算去生成许多重影特征图,它能够完全的揭露隐藏在本征特征图下的信息。这个提出来的Ghost模块可以当做是一个即插即拔的组件,去升级已有的卷积神经网络。Ghost bottlenecks设计用来存储Ghost模块,然后就可以轻松地构建轻量级的GhostNet。在基准上进行的实验表明,在基准模型中,这个提出来的Ghost模型是卷积层的一个引人注目的替代品,而且在ImgeNet ILSVRC-2012分类数据集上,我们的GhostNet用相似的计算成本可以获得比MobileV3更高的检测性能(即top-1 75.7%的准确率)。

介绍

      深度卷积神经网络在很多计算机视觉工作上显示了卓越的性能,比如图像识别,目标检测和语义分割。传统的CNNs通常需要大量的参数和浮点运算(FLOPs)去获得一个令人满意的精度,比如RestNet-50大约有25.6M个参数,并且需要4.1B个浮点运算处理一张尺寸为224*224的图片。因此,深度神经网络设计的最新趋势是去为移动设备(比如智能手机和自动驾驶车)探索可移植、高效的、性能可接受的网络架构。

      在过去的几年中,提出了一系列的方法去研究紧凑的深度神经网络,比如网络剪枝(network pruning)、低位量化(low-bit quantization)、知识蒸馏(knowledge distillation)等。Song Han提出在神经网络中去剪枝不重要的权重。Hao Li使用L1正则化去修剪过滤器来获得高效的CNNs。Mohammad Rastegari为获取高压缩率和加速率,将权重和激活函数量化为一位数据。 Geoffrey Hinton 为了将知识从大的模型转换成一个更小的模型,引入了知识蒸馏。但是通常被称作是他们基线的预处理深度神经网络所限制。

      除了这些方法,有效的神经网络架构有很大的潜力去构建参数和计算更少的、非常高效的深度网络,而且最近获得了很大的成功。这种类型的方法也可以为自动研究方法提供新的研究单元。举例来说,MobileNet使用depthwise和pointwise卷积构建了一个单元,使用更大的卷积核来逼近原始的卷积层,并且获得了可比较的性能。ShuffleNet进一步探索了一个通道转移操作(a channel shuffle operation)去提高轻量级模型的性能。

       在训练有素的深度神经网络的特征图中,丰富甚至是冗余的信息常常保证了对输入数据的全面理解。举个例子来说,图片1提供一些由ResNet-50所生成的输入图像的特征图,而且这里存在很多相似的特征图对,像彼此的重影。特征图中的冗余可能是一个成功的深度神经网络重要的特征。我们不是避免冗余的特征图,我们倾向于采用他们,但是用一个低成本的方法

      在这篇论文中,我们介绍了一个新颖的Ghost模块,通过使用更少的参数来生成更多的特征。特别地,在深度神经网络中的,一个普通的卷积层会被分成两个部分。第一个部分涉及普通的卷积,但是它们总的数量会得到严格地控制。根据从第一个部分得到的本征特征图,之后使用一系列简单的线性运算去生成更多的信息。Ghost模块中,所有必要参数的数量和计算复杂度与那些在普通卷积神经网络中的相比已经下降了,并没有改变输出特征图的尺寸。基于Ghost模块,我们构建了一个高效的网络架构,即GhostNet。我们首先替换了基准网络架构中原始的卷积层,用来论证Ghost模块的有效性,然后在一些基准视觉测试集上验证了我们GhostNets的优越性。实验结果表示,在保持相似识别性能的同时,提出的Ghost模型能够减少通用卷积层的计算成本,并且GhostNets可以超越最高水准的高效深度模型,比如MobileNetV3,在移动设备上进行多种快速推理任务。

      论文的剩余部分安排如下:第二部分简要总结了这个领域的相关工作,紧接着Ghost模型和GhostNet在第三部分,实验和分析在第四部分,最后,总结在第五部分。

相关的工作

      这里,我们从两个部分回顾现有的减轻神经网络负担的方法:模型压缩和紧凑的模型设计。

2.1 模型压缩

      对于一个给定的神经网络,模型压缩旨在减少计算量、能源和存储成本。剪枝连接(Pruning connections)剪掉了神经元之间不重要的连接。通道修剪(Channel pruning)进一步针对移除无用的通道,以便在实际中更容易加速。模型量化(Model quantization)代表神经网络中的权重和激活函数,其离散值用于压缩和计算加速。特别地,二值化方法(Binarization methods)只使用一位值,通过高效的二值运算可以极大加速模型。张量分解(Tensor decomposition)通过利用权重的冗余和低级属性减少参数和计算量。知识蒸馏(knowledge distillation)利用更大的模型来教导更小的模型,这能够提升较小模型的性能。这些方法的性能通常决定于给定预训练的模型,在这个基础运算和架构上的提升将会让他们走的更远。

2.2 紧凑的模型设计

      随着在嵌入式设备上部署神经网络的需求出现,最近几年提出了一系列紧凑的模型。SqueeeNet使用一个bottleneck的方法达到了AlexNet级别的精度,参数比AlexNet的少了五十倍。Xception利用depthwise卷积操作,更有效的使用模型的参数。MobileNets是一系列的基于深度可分离卷积的轻量级深度神经网络。MobileNetsV2提出了倒残差块,MobileNetV3进一步使用AutoML技术用更少的FLOPs获得了更好的性能。ShuffleNet使用转移操作改善了通道组之间的信息流交换。对于紧凑的模型设计,ShuffleNetV2进一步考虑了在目标硬件上的实际速度。尽管这些模型用更少的FLOPs获得了更好的性能,但是他们从没有很好的开发出特征图之间的相关性和冗余。

研究方法

      在这个部分,我们首先会介绍Ghost模块,从原始的卷积层中使用更少的过滤器生成更多的特征图,然后开发了一个新的GhostNet,拥有一个非常高效的架构和优异的性能。

3.1 为了得到更多特征的Ghost模块

      深度卷积神经网络通常由大量的卷积组成,这导致了大量的计算开销。尽管最近的成果,比如MobileNet和ShuffleNet已经引入了depthwise卷积和shuffle操作,使用更小的卷积过滤器(浮点运算数量)构建高效的CNNs,但是剩下的1*1卷积核仍然占用相当大的内存和FLOPs。

      如图1所示,考虑到主流CNNs计算得到的中间特征图中广泛存在着冗余,我们提出减少必要的资源,即减少生成它们的卷积过滤器。在实际过程中,假设输入数据X∈𝑅𝑐×h×𝑤,其中c是输入数据的通道数,h和w分别是输入数据的高和宽,任意卷积层生成n个特征图的操作可以表示为:

      其中∗表示卷积运算,b是偏置项,Y∈𝑅h′×𝑤′×𝑛是n通道的输出特征图,f∈𝑅𝑐×𝑘×𝑘×𝑛是这个层的卷积过滤器。此外h′和𝑤′分别是输出数据的高和宽,k×𝑘是卷积过滤器f的内核尺寸。在卷积过程中,FLOPs必要的数量可以计算为n∙h′∙𝑤′∙𝑐⋅𝑘⋅𝑘,这个结果通常成千上万,因为过滤器n的数量和通道数c通常非常大。

      根据公式1,要优化的参数的数量(在f和b中)显然由输入的维度和输出特征图所决定。如图1所示,卷积层的输出特征图数量经常包含很多的冗余,有些是非常相似的。我们指出,使用大量的FLOPs和参数来一个个的生成冗余的特征图是不必要的。假设用一些廉价的变换产生的输出特征图是一些本征特征图的“重影”,这些本征特征图尺寸通常很小而且由原始卷积核产生。特别地,m个本征映射图𝑌′∈𝑅h′×𝑤′×h使用基本的卷积产生:

      其中𝑓′∈𝑅𝑐×𝑘×𝑘×𝑚是使用的过滤器,m≤𝑛并且为了简单起见,偏置项忽略不计。为了让空间尺寸(也就是h′和𝑔′)和输出特征图的一致,超参数比如过滤器的尺寸,步长,填充和那些在原始卷积的一样(公式1)。为了进一步获得期望的n个特征图,我们提出在本征特征图上𝑌′上,根据下面的函数,使用一系列廉价的线性运算来生成s个重影特征:

      其中,𝑦′是𝑌′中的第i个本征特征图,在上面函数中,Φi,𝑗是第j个生成的第j个重影特征图𝑦𝑖,𝑗的(除了最后一个)线性运算。也就是说,𝑦′可以有一个或者多个重影特征图{𝑦𝑖𝑗}𝑗=1𝑠 。Φi,𝑠是恒等映射来保存像图2的本征特征图。通过使用公式3,我们可以得到n=m∙𝑠个特征图Y=𝑦11,𝑦12,…., 𝑦𝑚𝑠作为像图2(b)表示的Ghost模型的输出数据。注意线性运算Φ在每一个通道上运行,它的计算成本比原始的卷积要低。在实际过程中,在一个Ghost模型中可以有各种各样的线性运算,比如3*3和5*5线性内核,这个在实验部分将会分析。

      和已有方法的不同。这个提出来的Ghost模块和已有的高效的卷积方案有着很大的不同。i)和这些广泛使用1*1pointwise的卷积相比,Ghost模块中的基本的运算可以有自定义的内核模块。ii)已有的方法采用pointwise卷积去跨通道处理特征,并且之后采用depthwise卷积去处理空间信息。相反,Ghost模块采用原始的卷积首先生成少量的本征特征图,然后利用廉价的线性运算去扩充特征和增加通道。iii)这些去处理每个特征图的运算受之前高效架构里的depthwise运算或者shift运算限制,然而Ghost模型中的线性运算有这个很大的多样性。iv)此外,恒等映射映射等价于Ghost模块中的线性变化,去保存本征特征图。

      复杂度分析。因为我们可以使用在公式3中提出的Ghost模型去从生成和原始卷积层相同数量的特征图,我们可以轻松的将Ghost模型和现有的精心设计的网络架构整合在一起去降低计算成本。这里我们进一步分析了使用Ghost模块在内存使用和理论加速上的好处。举例来说,这里有1个恒等映射和m∙𝑠−1=𝑛𝑠∙(𝑠−1)个线性运算,并且每个线性预算的平均内核尺寸等于d×𝑑。理论上,n∙(𝑠−1)个线性运算可以有不同的形状和参数,但是在线推理会受到阻碍,特别是考虑到CPU和GPU显卡的效用。为了高效的运算,我们推荐在一个Ghost模型中使用相同的尺寸(比如3*3或者5*5)的线性运算。用Ghost模型升级普通卷积的理论加速比是:

 其中d×𝑑和k×𝑘有着相似的大小,而且s⋘𝑐。相似的,参数压缩率可以计算为:

它等于使用提出的Ghost模型的加速比(每个线性运算的内核参数都是不同的)。

3.2 构建高效的CNNs

    Ghost Bottlenecks.   利用Ghost模型的优势,我们引入了为小型的CNNs所设计的Ghost bottleneck(G-bneck)。如图3显示,这个Ghost bottleneck看起来和残差网络的残差块很类似,它整合了一些卷积层和捷径层。这个提出的Ghost Bottlenecks主要由两个堆叠的Ghost模型组成。第一个Ghost模块充当着增加通道数和膨胀层的功能,我们指定输出和输入通道数之间的比例为膨胀比。第二个Ghost模块减少通道数量来匹配捷径通道,这个捷径连接了两个Ghost模块的输入和输出。正如MobileNetV2所示,除了在第二个Ghost模块后不使用ReLU,批归一化和ReLU非线性在每一层的后面都使用,上面描述的Ghost bottlenect用于步长为1的情况。对于第二种步长为2的情况,快捷路径通过一个下采样层实现,而且步长为2的depthwise卷积插入在两个Ghost模块之间。实际过程中,为了效率,在Ghost模型这里的基本卷积是pointwise卷积。

     GhostNet.   以ghost bottleneck为基础,我们提出了如表格7所示的GhostNet。我们遵循了MobileNetV3的基本架构,因为它的优越性,而且用我们的Ghost bottlenck代替了MobileNetV3的bottleneck。GhostNet主要有一堆Ghost bottlenecks组成,它使用Ghost模块作为构造块。第一层是一个标准的带有16个过滤器的卷积层,之后跟着一系列的Ghost bottleneck逐渐增加通道数。这些Ghost bottlenecks根据他们输入特征图的大小分组到不同的阶段。除了每个阶段的最后一个步长为2,所有的Ghost bottleneck的步长为1。最后,为了最终的分类,使用一个全局平均池化层和卷积层将特征图转换成1280维的特征向量。如表格7所示,在一些ghost bottlenecks中,对残差层也使用squeeze and excite(SE)模块。和MobileNetV3相比,我们不适用hard-swish非线性函数,因为它的时延高。尽管进一步的超参调节或者基于ghost模块的自主架构搜索会进一步促进性能,但是我们提出的网络架构只是提供了一个基本的设计参考。

      Width Multiplier.   尽管在表格7中给定的模型已经可以提供低时延和可保证的精度,在一些场景下,对于特定的工作,我们可能需要更小和更快的模型或者更高的准确率。为了定制网络来满足需求,我们可以简单地在每一层均匀地乘以信道数的因子α。这个因子α叫作宽度乘法器,因为它可以改变整个网络的宽度。宽度控制器可以通过大约𝛼2来控制模型的尺寸以及计算成本的平方。通常越小的α会导致更低的时延和更低的性能,反之亦然。

实验

      在这个部分中,我们首先用提出的Ghost模型代替原始的卷积层来验证它的有效性。之后,使用新模型构建的GhostNet架构将会进一步在图像分类和目标检测的基准上进行测试。

数据集和设置  为了验证提出的Ghost模型和Ghostnet架构的有效性,我们在一些基准视觉数据集上进行了实验,包括CIFAR-10,ImageNet ILSVRC 2012数据集和MS COCO目标检测基准上。

      CIFAR-10数据集用于分析所提方法的性能,它由10类六万张32*32的图片构成,五万张训练图片和一万张测试图片。采用通常的数据增强方案,包括随机裁剪和镜像(何凯明)。ImageNet是一个大规模图像数据集,它包含1000类的超过1.2M的训练数据和50K的验证数据。在训练的过程中,使用常规的数据预处理策略,包括随机裁剪和翻转。我们也在MS COCO数据集上进行了目标检测试验,我们在COCO trainval35k split上进行训练以及在有5K章图片的minival split上进行验证。

4.1 Ghost模型的有效性

4.1.1   玩具试验

      我们已经在图1中呈现了图解,指出那里有很多相似的特征图对,它可以用一些有效的线性运算高效地生成。这里我们首先进行了玩具试验来观察原始特征图和生成的ghost特征图之间的重构误差。用图1中的三对(即红,绿,蓝)为例,使用ResNet-50的第一个残差块来提取特征。用左边的特征作为输入,另一个作为输出,我们使用一个小的depthwise卷积过滤器去学习特征,即他们之间的线性运算Φ,卷积过滤器的尺寸d从1到7排序,每一对不同d的MSE(均方误差)值在表2显示。

      在表2可以看出,所有的MES值都非常的小,这论证了深度神经网络中特征图之间存在很强的相关性而且这些冗余的特征图可以由一些本征特征图产生。除了在上面实验中使用的卷积,我们也可以探索一些其他的低成本的线性运算去构建Ghost模块,比如放射变换和小波变换。但是,卷积是一个高效的运算,已经得到了当前硬件很好的支持,并且它可以涵盖大量广泛使用的线性运算比如平滑,模糊和移动等。关于线性运算Φ,尽管我们可以学习每个过滤器的尺寸,但是不规则的模型将会降低计算单元(比如CPU和GPU)的效率。因此,我们建议d在一个Ghost模块中是一个定值,并且在接下来的实验中,使用depthwise卷积去实验公式2来构建非常高效的深度卷积网络。

4.1.2      CIFAR-10

     在CIFAR-10数据集上,我们在两个热门的网络架构上验证了提出的Ghost模型,即VGG-16和ResNet-56。因为VGG-16原来是为ImageNet设计,因此我们使用它的变体,它广泛的应用于文献上来进行下面的实验。提出的Ghost模型会取代这两个模型中的所有的卷积层,并且新的模型,分别记作为Ghost-VGG-16和Ghost-ResNet-5,我们的训练测策略紧跟何凯明RestNet的配置,包括momentum,学习率等等。我们首先分析了Ghost模型中的两个超参数s和d的印象,兵器比较了Ghost-models和最高水平的方法。

超参数的分析  如公式3所述,为高效的深度网络所提出的Ghost模块有两个参数,即为生成m=n/s个本征特征图的s和为了计算ghost特征图的线性卷积的内核尺寸d*d(即depthwise卷积过滤器的内核)。这两个参数的影响在VGG-16架构上进行测试。

      首先,我们固定s=2然后再{1,3,5,7}上调节d,然后表格3中列出了在CIFAR-10验证集上的结果。我们可以看到,提出的Ghost模型d=3比更大的或者更小的那些表现要好。这是因为1*1大小的内核不能够在特征图上引入空间信息,然而更大的内核比如d=5或者d=7导致了过拟合和更多的计算。因此,在接下来的实验中,为了效果和效能,我们采用d=3。

      研究了提出的Ghost模型中所使用的内核尺寸之后,我们保持d=3,在{2,3,4,5}中调节另一个参数s。事实上,s直接和最终结果网络的计算成本相关,也就是,在公式5和公式4所示,更大的s导致了更大的压缩和加速率。从表格4的结果看出,当我们增加s的时候,FLOPs的大量减少并且准确率逐渐降低,这和预期的一样。特别的,但s=2的时候,这意味着压缩VGG-16两倍,我们的方法甚至比原始模型的要稍微好一点,这表明我们提出Ghost模型的优越性。

和最高水准的比较  我们在VGG-16和ResNet-56架构上比较了GhostNet和一些具有代表性的最高水准的模型。这个比较的方法包括不同类型的模型压缩方法,𝑙1剪枝,SBP,通道剪枝(CP)和AMC。对于VGG-16,我们的模型能够以两倍的加速比获得比原始的稍微高的准确率,这表明在VGG模型中存在相当大的冗余。我们的Ghost-VGG-16(s=2)由于和最高性能的比较(93.7%),但是用非常少的FLOPs。对于ResNet-56,它已经比VGG-16小多了,我们的模型可以用两倍的加速度获得和基准可比较的精度。我们可以看出,其他最高水准的模型用相似或者更大的计算量得到低于我们的精度。

特征图的可视化  如图4所示,我们也可以可视化我们ghost模型的特征图。尽管生成的特征图来自基本的特征图,他们确实有很大的不同,这意味着生成的特征足够灵活来满足特征工作的需求。

4.1.3  ImageNet上的大模型

      接下来我们将Ghost模型嵌入在标准的ResNet-50中,并且在大规模ImageNet数据及上进行试验。ResNet-50大约有25.6M的参数和4.1B的FLOPs,7.8%的top-5误差。我们使用我们的Ghost模型代替ResNet-50中所有的卷积层来获得紧凑的模型,并且把结果和一些最高水准的方法进行比较,详情见表格6。为了公平比较,训练的设置比如优化器,学习率和批量尺寸都和何凯明的一样。

      从表格6的结果中,我们可以看到我们的Ghost-ResNet-50(s=2)获得了两倍的加速度和压缩率,但是却保持着和原始的ResNet-50一样的准确率。和最近最高水平的方法比较,包括Thinet, NISP, Versatile filters 和Sparse structure selection(SSS),在两倍的加速度设置下,我们的方法可以获得非常好的性能。当我们进一步将s增加到4的时候,基于Ghost的模型有大约4倍的计算加速率,只有0.3%准确率的下降。相反,有相似权重或者FLOPs的对比方法比我们的性能要低。

4.2  在视觉基准上的GhostNet

      在论证了提出的Ghost模型高效地生成特征图的优越性之后,我们接着验证这个如表7所示的、精心设计的GhostNet架构分别在图像分类和目标检测上的性能。

4.2.1 ImageNet classification

      为了验证所提的GhostNet的优越性,我们在ImageNet分类任务上进行了实验。我们遵循在Shufflenet使用的大部分的训练配置,除了在8GPUs上的时候,批量设置为1024,初始的学习率设置为0.4。所有的结果只显示在ImageNet验证集上单独裁剪的top-1性能。对于GhostNet,我们在初级的卷积中设置内核尺寸k=1,s=2,然后为了简单起见,在所有的Ghost模型中d=3。

      选用一些现代小型网络架构作为对比,包括MobileNet系列、ShuffleNet系列,IGCV3,PrixylessNAS,FBNet,MnasNet等。结果汇总在表格7中。模型分组成四个移动应用典型的计算复杂度级别,即~50,~150,和200-300MFLOPs。从结果中,我们可以看到在这些小型的网络中,越大的FLOPs导致了更高的精度,这表明了他们的有效性。我们的GhostNet模型在各种不同的计算复杂度等级上时钟优于其他的竞争者,因为GhostNet更有效地利用了计算资源生成特征图。

实际推理速度  因为提出的GhostNet是为了移动应用设计的,因此我们使用TFLite工具,在一个基于ARM的移动手机上测量了GhostNet的实际推理速度。我们遵循在Mobilenets中的常规设置,使用batch为1的单进程模型。从图7的结果中,我们可以看到在相同的时延下,GhostNet获得了高出MobileNetV2的0.5%的top-1准确度,而且GhostNet需要更少的运行时间获得相似的性能。举例来说,GhostNet仅仅需要40ms时延得到75.0%的准确度,但是MobileNetV3需要大约45ms处理一张图片来得到相似的准确度。综上所述,我们的模型通常优于著名的最高水准的模,也就是MobileNet系列,ProxylessNAS,FBNet和MnasNet。

4.2.2 目标检测

      为了进一步评估GhostNet的泛化能力,我们在MS COCO数据集上进行了目标检测试验。遵循FPN设置,我们使用trainval35k split作为训练数据,然后再minival split在报告均值平均精度(mAP)。两级的Faster R-CNN和FPN以及一级的RetinaNet都用作是我们的模型,而且GhostNet充当为主干特征提取器的简单替换器件。使用FPN所推荐的超参数得到ImageNet的预训练权重,我们在12的epochs上使用SGD训练所有的模型。我们将输入图片调整为短边800和不超过1333的长边。表格8显示了检测结果,其中FLOPs使用224*224图片作为惯例计算得到。GhostNet在一级RetinaNet和两级Faster R-CNN框架上,用非常低的计算成本得到了和MobileNetV2,MobileNetV3相似的mAP值。

结论

      为了减少最近的深度神经网络的计算成本,这篇论文为构建高校的神经网络架构提出了一种新颖的Ghost模型。这个基本的Ghost模型将输入卷积层分成两个部分并且利用更少的过滤器去生成一些本征特征图。之后,一定数量的廉价转换运算将会进一步用于高效的生成重影特征图。在基准模型和数据集上进行的实验论证了,提出的方法是一个即插即拔的模型,可以将原始模型转换成紧凑的模型,同时保留着可比较的性能。此外,在效率和准确率上,使用提出的新的模型的GhostNet优于最高水准的可移植神经网络。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1481215.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

基于springboot+html实现的衣物捐赠平台

一、系统架构 前端:html | layui | jquery | css 后端:springboot | thymeleaf | mybatis 环境:jdk1.8 | mysql | maven 二、代码及数据库 三、功能介绍 01. 登录页 02. 注册 03. web页-首页 04. web页-捐赠衣服 05. web页-论坛交流…

echarts鼠标向右/向左绘制实现放大/还原

echarts toolbox 的datazoom提供了绘制放大的功能,但通过鼠标绘制只能进行放大 应需求放大与还原都通过鼠标行为实现,增加从右往左绘制时还原放大结果 demo 结果 重写datazoom的原型方法实现绘制事件的拦截 const comp myChart._model.getComponent(to…

存储过程基本了解

文章目录 介绍存储过程示例1. 目的2. 输入参数3. 输出参数4. 执行逻辑5. 返回值6. 示例用法7. 注意事项 存储过程的关键字有哪些简单实操 介绍 存储过程是一组预编译的SQL语句,以及流程控制语句,封装在数据库服务器中并可以被重复调用。它们可以接收参数…

仿牛客网项目---私信列表和发送列表功能的实现

这篇文章我们来讲一下我的这个项目的另外一个功能&#xff1a;私信列表和发送列表功能。 先来设计DAO层。 Mapper public interface MessageMapper {// 查询当前用户的会话列表,针对每个会话只返回一条最新的私信.List<Message> selectConversations(int userId, int of…

WIN10 无密码自动登录

1、家里重装了一下WIN10系统&#xff0c;第一次登陆居然用了微软网站账号&#xff0c;结果密码忘记了&#xff0c;后面只能用PIN码登陆系统。 2、需要登录微软的网站修改密码&#xff1a; Microsoft account | Sign In or Create Your Account Today – Microsoft 3、在运行…

精品ssm的社区团购系统购物商城小程序

《[含文档PPT源码等]精品基于ssm的社区团购系统[包运行成功]》该项目含有源码、文档、PPT、配套开发软件、软件安装教程、项目发布教程、包运行成功&#xff01; 软件开发环境及开发工具&#xff1a; Java——涉及技术&#xff1a; 前端使用技术&#xff1a;HTML5,CSS3、Jav…

SpringBoot 整合WebService

文章目录 WebService1.简单介绍WebService1.1. 类型1.2. 架构1.3. 主要特点1.4. 使用场景1.5. Web服务标准和技术 2.案例-WebServiceDemo2.1.引入配置文件2.2.创建接口2.3.创建接口实现类2.4.创建WebService配置类2.5.测试 WebService Web服务&#xff08;Web Services&#xf…

kotlin安卓开发教程视频,2024年Android开发陷入饱和

Android基础 1、什么是ANR 如何避免它&#xff1f; 如果耗时操作需要让用户等待&#xff0c;那么可以在界面上显示进度条。 2、View的绘制流程&#xff1b;自定义View如何考虑机型适配&#xff1b;自定义View的事件 3、分发机制&#xff1b;View和ViewGroup分别有哪些事件分…

蓝桥杯备战刷题three(自用)

1.合法日期 #include <iostream> #include <map> #include <string> using namespace std; int main() {map<string,int>mp;int days[13]{0,31,28,31,30,31,30,31,31,30,31,30,31};for(int i1;i<12;i){for(int j1;j<days[i];j){string sto_strin…

在线ai写作,让你随时随地创作优质内容

如今的ai技术已经渗透到我们生活的方方面面。其中&#xff0c;AI写作成为了一个备受关注的领域。如今&#xff0c;我们可以利用在线ai写作在任何时间、任何地点创作出优质的内容。 传统的写作过程需要大量的时间和精力。从构思到写作再到修改&#xff0c;每一个环节都需要我们投…

C# 解决uploadify插件上传时造成session丢失问题

出现的问题&#xff1a; 在应用uploadify插件实现上传图片时&#xff0c;报了HTTP Error&#xff0c;经过在Network查看上传方法报错码是302&#xff0c;那这里就可以知道问题是什么了&#xff0c;HTTP 302是请求被重定向&#xff0c;如果你的uploadify处理上传方法有session验…

ABAP - OOALV 用户交互事件

当用户要根据ALV进行某些功能操作比如打印表单时&#xff0c;OOALV标准按钮无法满足用户需求的时候&#xff0c;就要用到自定义按钮来实现了。思路&#xff1a;在OOALV增加一个自定义按钮&#xff0c;类CL_GUI_ALV_GRID提供了内置事件toolbar来完成&#xff0c;通过自定义按钮的…

Apache Flink连载(三十五):Flink基于Kubernetes部署(5)-Kubernetes 集群搭建-1

🏡 个人主页:IT贫道-CSDN博客 🚩 私聊博主:私聊博主加WX好友,获取更多资料哦~ 🔔 博主个人B栈地址:豹哥教你学编程的个人空间-豹哥教你学编程个人主页-哔哩哔哩视频 目录 ​编辑

HTTPS是什么,详解它的加密过程

目录 1.前言 2.两种加密解密方式 2.1对称加密 2.2非对称加密 3.HTTPS的加密过程 3.1针对明文的对称加密 3.2针对密钥的非对称加密 3.3证书的作用 1.前言 我们知道HTTP协议是超文本传输协议,它被广泛的应用在客户端服务器上,用来传输文字,图片,视频,js,html等.但是这种传…

MyBatis 学习(五)之 高级映射

目录 1 association 和 collection 介绍 2 案例分析 3 一对一关联和一对多关联 4 参考文档 1 association 和 collection 介绍 在之前的 SQL 映射文件中提及了 resultMap 元素的 association 和 collection 标签&#xff0c;这两个标签是用来关联查询的&#xff0c;它们的属…

指针与malloc动态内存申请,堆和栈的差异

定义了两个函数print_stack()和print_malloc()&#xff0c;分别演示了两种不同的内存分配方式&#xff1a;栈内存和堆内存。然后在main()函数中调用这两个函数&#xff0c;并将它们返回的指针打印出来。 由于print_stack()中的数组c是在栈上分配的&#xff0c;当函数返回后&…

LabVIEW非接触式电阻抗层析成像系统

LabVIEW非接触式电阻抗层析成像系统 非接触式电阻抗层析成像&#xff08;NEIT&#xff09;技术以其无辐射、非接触、响应速度快的特点&#xff0c;为实时监测提供了新的解决方案。基于LabVIEW的电阻抗层析成像系统&#xff0c;实现了数据的在线采集及实时成像&#xff0c;提高…

黑马JavaWeb课程中安装vue脚手架出现的问题

1 安装node.js 要想前端工程化&#xff0c;必须安装node.js&#xff0c;前端工程化的环境。 在成功安装node.js后&#xff0c; 修改全局包安装路径为Node.js安装目录&#xff0c; 修改npm镜像源为淘宝镜像源&#xff0c;这里出现第一个问题&#xff0c;视频中给的淘宝镜像为&…

力扣SQL50 无效的推文 查询

Problem: 1683. 无效的推文 思路 &#x1f468;‍&#x1f3eb; 参考 char_length(str)&#xff1a;计算 str 的字符长度length(str)&#xff1a;计算 str 的字节长度 Code select tweet_id from Tweets where char_length(content) > 15;

G8-ACGAN理论

本文为&#x1f517;365天深度学习训练营 中的学习记录博客 原作者&#xff1a;K同学啊|接辅导、项目定制 我的环境&#xff1a; 1.语言&#xff1a;python3.7 2.编译器&#xff1a;pycharm 3.深度学习框架Pytorch 1.8.0cu111 一、对比分析 前面的文章介绍了CGAN&#xf…