二、CNNs网络架构-卷积分离网络架构

news2025/1/9 22:59:05

《A review of convolutional neural network architectures and their optimizations》论文指出AlexNet的优异性能证明了可以通过增加网络深度提高网络性能。随着网络层数的不断增加,不断增加的计算负担和不显著的性能提升使得更先进的网络架构成为另一个主要的研究方向。卷积分裂的思想作为扩大网络深度的一个至关重要的解决方案应运而生。因此,本文将介绍上述论文中综述的几款卷积分离网络架构:VGGNet、GoogLeNet、GoogLeNet v2、GoogLeNet v3、GoogLeNet v4。

 

目录

1.VGGNet

1.1 网络架构 

1.2 网络特点

1.3 论文

1.4 参考博文

2.GoogLeNet(Inception-v1)

2.1 网络架构

2.2 论文

3.InceptionV2(BN - Inception)

3.1 网络架构

3.2 网络特点

3.3 论文 

4.InceptionV3

4.1 网络架构

4.2 论文

5.InceptionV4

5.1 网络架构

5.2 论文 

6.Inception-ResNet

6.1 网络架构

6.2 论文 

7.对比

8.参考博文


1.VGGNet

2014 - ILSVRC竞赛中获得第二名。VGG可以看作是AlexNet的一个深化版本,它使用多个连续的3 × 3卷积核来代替网络中较大的核(11×11,7×7,5×5)。VGGNet将网络分为5段,每段连接多个3 × 3卷积核。每段卷积后面有一个最大池化层,最后增加3个FC层和一个softmax层。

1.1 网络架构 

 如下图所示为VGGNet的网络架构,根据卷积层不同的子层数量,设计了A、A-LRN、B、C、D、E这6种网络结构,其中D和E即为VGG-16和VGG-19:

这6种网络结构相似,都是由5层卷积层、3层全连接层组成,区别在于每个卷积层的子层数量不同,从A至E依次增加,总的网络深度从11层到19层。表格中的卷积层参数表示为“conv(感受野大小)-通道数”,例如con3-64,表示使用3x3的卷积核,通道数为64;最大池化表示为maxpool,层与层之间使用maxpool分开;全连接层表示为“FC-神经元个数”,例如FC-4096表示包含4096个神经元的全连接层;最后是softmax层。

1.2 网络特点

1.结构简单

虽然VGG层数较多,总的网络深度从11层到19层,但是它的整体结构还是相对简单。概括来说,VGG由5层卷积层(每个卷积层的子层数量不同)、3层全连接层、softmax输出层构成,层与层之间使用maxpooling(最大化池)分开,所有隐层的激活单元都采用ReLU函数。

2.小卷积核

VGG中的所有卷积操作都是使用小卷积核(3x3)。VGG的作者认为两个3x3的卷积堆叠获得的感受野大小,相当一个5x5的卷积;而3个3x3卷积的堆叠获取到的感受野相当于一个7x7的卷积。这样可以增加非线性映射,也能很好地减少参数(例如7x7的参数为49个,而3个3x3的参数为27),省下的参数可以用于堆叠更多的卷积层,可以增加网络的拟合,表达,特征提取能力。

3.小池化核

相比AlexNet的3x3的池化核,VGG全部采用2x2的池化核。

4.通道数多

VGG网络第一层的通道数为64,后面每层都进行了翻倍,最多到512个通道。相比较于AlexNet和ZFNet最多得到的通道数是256,VGG 的通道数的进行了翻倍,使得更多的信息可以被卷积操作提取出来。

5.层数更深、特征图更多

网络中,卷积层专注于扩大feature maps的通道数、池化层专注于缩小feature maps的宽和高,使得模型架构上更深更宽的同时,控制了计算量的增加规模。

6.全卷积网络

VGG16在训练的时候使用的是全连接网络。然而在测试验证阶段,作者将全连接全部替换为卷积网络。全连接层首先转换为卷积层(第一个FC层改为7×7conv层,最后两个FC层改为1×1conv 层)。

第一层FC:输入为7*7*512的frature map,使用4096个7*7*512的卷积核进行卷积,输出1*1*4096个feature map,相当于4096个神经单元。

第二层FC:输入为1*1*4096的feature map,使用4096个1*1*4096的卷积核进行卷积,输出1*1*4096个feature map。

第三层FC:输入为1*1*4096个feature map,使用1000个1x1x4096的卷积核进行卷积,输出为1x1x1000。相当于1000个神经元,属于卷积层。

 采用卷积替代全连接,可以让网络模型可以接受任意大小的尺寸。

1.3 论文

论文:《VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION》 

 https://arxiv.org/pdf/1409.1556.pdf

贡献:使用小卷积核替换大卷积核;

缺陷:全连接层计算量过大;

1.4 参考博文

1.经典网络VGGNet介绍_fengbingchun的博客-CSDN博客

2.深度学习之图像分类(四):VGG - 魔法学院小学弟

3.手撕 CNN 经典网络之 VGGNet(理论篇) - 知乎 

2.GoogLeNet(Inception-v1)

获得2014 - ILSVRC锦标赛冠军。由于原始模块显著增加了计算负担,更新后的Inceptionv1模块在3 × 3、5 × 5卷积之前和池化层之后增加了1 × 1卷积层,分别用于压缩输入和输出图像通道数。在CNN中引入了Inception块的新概念,通过拆分、变化和合并将多尺度卷积和变换融合在一起,使得CNNs能够在降低计算成本的同时获得较高的准确率。

2.1 网络架构

1.Inception结构:

作者在文中提出Inception结构,将四个不同卷积核尺寸的卷积操作聚合在一起,四个分支卷积计算后的feature maps在channel维度上合并,得到一组feature map送入后续操作。采用不同大小的卷积核意味着不同大小的计算感受野,最后拼接操作意味着不同尺度特征的融合。

但是,使用5x5的卷积核仍然会带来相对较大的计算量。 因此,作者在改进结构中采用1x1卷积核来进行降维。更新前【a】后【b】的Inception-v1结构图:

 2.网络架构图:

 GoogLeNet采用模块化结构,通过不断地叠加Inception块进行实现。网络的最后采用了average pooling代替全连接层,这样可以允许网络接收不同大小的图片输入。网络中也使用了droupout,为了避免梯度消失,海尔外增加了2个softmax辅助分类器,用于前向导梯度。

下图也是GoogLeNet的结构图,途中蓝色代表卷积层,红色代表池化层,黄色为softmax层: 

2.2 论文

论文:《Going Deeper with Convolutions》

https://arxiv.org/pdf/1409.4842v1.pdf

贡献:inception块增加网络宽度,在卷积操作时可以提取不同尺度的特征;

缺陷:存在无效的块结构;

3.InceptionV2(BN - Inception)

同年,Ioffe等人通过对Inceptionv1进行改进,提出了Inceptionv2,将原Inceptionv1模块中的大卷积核( 5 × 5)拆分为两个小卷积核( 3 × 3)。与Inceptionv1相比,它最大的贡献是引入了批量归一化( BN )的概念。

3.1 网络架构

 1.Inceptionv2块结构图

Inceptionv2将原Inceptionv1模块中的大卷积核( 5 × 5)拆分为两个小卷积核( 3 × 3),一个 5×5 的卷积在计算成本上是一个 3×3 卷积的 2.78 倍,所以在性能上有所提升。

 2.InceptionV2网络架构图

3.2 网络特点

与Inceptionv1相比,它最大的贡献是引入了批量归一化( BN )的概念。利用BN对某一网络节点的输出进行处理,使其近似服从均值为0,方差为11的正态分布,从而缓解反向传播中的梯度消失和梯度爆炸问题。

Batch Normalization(BN)的好处:

1.BN使得模型可以使用较大的学习率而不用特别关心诸如梯度爆炸或消失等优化问题;

2.降低了模型效果对初始权重的依赖;

3.可以加速收敛,一定程度上可以不使用Dropout这种降低收敛速度的方法,但却起到了正则化的作用,提高了模型泛化性;

4.即使不使用ReLU也能环节激活函数饱和问题;

5.能够学习到从当前层到下一层的分布缩放(scaling(方差),shift(期望))系数;

3.3 论文 

论文:《Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift》

https://arxiv.org/pdf/1502.03167.pdf

贡献:介绍并引入Batch Normalization(BN);

缺陷:可优化的卷积层;

4.InceptionV3

Ioffe and Szegedy等人在2016年提出了Inceptionv3架构,旨在不影响泛化性的前提下,降低更深层网络的计算开销。

4.1 网络架构

1.Inceptionv3块结构

Inceptionv3引入了非对称卷积核,它将一个n × n的卷积核分解为n × 1和1 × n,n越大节省的运算量越大。但这种分解在前面的层效果不好,使用feature map大小在12-20之间。使用1 × 3、3 × 1非对称堆叠卷积比将3 × 3卷积核分解为2个2 × 2卷积核减少了28 %的参数量。与Inceptionv2相比,Inceptionv3还将7 × 7和5 × 5的大型滤波器替换为1 × 7、7 × 1和1 × 5、5 × 1的滤波器堆栈。此外,Inceptionv3使用辅助分类器来加速CNNs训练的收敛,性能提升了04%的top - 1准确率。

                                    (n × n卷积分解后的Inception模块)

                                      (不对称卷积示意图)

 2.Inceptionv3架构图:

4.2 论文

论文:《Rethinking the Inception Architecture for Computer Vision》

https://arxiv.org/pdf/1512.00567v3.pdf

贡献:

提出通用网络结构设计准则;

引入卷积分解(非对称卷积)提高效率;

引入高效的feature map降维;

平滑标注样本;

缺陷:复杂的结构设计导致很难调整超参数; 

5.InceptionV4

提出了效果更好的GoogLeNet Inception v4网络结构;与残差网络(ResNet)融合,提出效果不逊于v4但训练速度更快的GoogLeNet Inception ResNet结构(下一小节介绍)。

5.1 网络架构

5.2 论文 

论文:《Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning》

https://arxiv.org/pdf/1602.07261.pdf

贡献:模块化网络构建;

缺陷:计算花销昂贵;

6.Inception-ResNet

受 ResNet 的优越性能启发,研究者提出了一种混合 inception 模块。尽管深度和宽度增加,但具有残差连接的Inception - ResNet具有与普通Inceptionv4相同的泛化能力。而且Inception - ResNet比Inceptionv4收敛更快,更直接地证明了使用残差连接可以显著加速Inception网络训练。Inceptionv4和Inception - ResNet训练速度更快,性能更好。

Inception ResNet 有两个子版本:v1 和 v2。

Inception-ResNet v1 的计算成本和 Inception v3 的接近。

Inception-ResNetv2 的计算成本和 Inception v4 的接近。

两个子版本都有相同的模块 A、B、C 和缩减块结构。唯一的不同在于超参数设置。

 6.1 网络架构

Inception-ResNet v1及Inception-ResNet v2网络架构如下图所示(红框区域为V1,绿框区域为V2):

6.2 论文 

论文:《Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning》

https://arxiv.org/pdf/1602.07261.pdf

贡献:Inception和残差模块集成;

缺陷:可优化的多尺度特征提取;

7.对比

8.参考博文

1.深度学习之图像分类(五):GoogLeNet - 魔法学院小学弟 

2.GoogLeNet网络结构详解与模型的搭建_太阳花的小绿豆的博客-CSDN博客 

3. ​​​​深度学习入门(三十一)卷积神经网络——GoogLeNet_google 卷积神经网络_澪mio的博客-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/567674.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何在华为OD机试中获得满分?Java实现【字符串分隔】一文详解!

✅创作者:陈书予 🎉个人主页:陈书予的个人主页 🍁陈书予的个人社区,欢迎你的加入: 陈书予的社区 🌟专栏地址: Java华为OD机试真题(2022&2023) 文章目录 1. 题目描述2. 输入描述3. 输出描述…

uniapp沉浸式渐变状态栏

插件地址&#xff1a;沉浸式渐变状态栏 - DCloud 插件市场 标准用法 <v-headerview actionBarColor"#fac90f" titleColor"#ffffff" pageTitle这是标题 ><template v-slot:title><!--如需自定义标题&#xff0c;用这个slot自定义内容。否则…

基于postman测试接口(整套接口测试)

可以解决的问题 几百个接口人工测试接口过于繁杂大多测试无法使用请求结果当参数可以使用随机参数支持swagger信息导入随账号持久化保存数据对集合一键测试自定义可视化结果 开启控制台 单个测试尝试 使用请求结果当参数 pm.test("存全局参数", function () {// 获…

【深度学习】基于Python Qt的口罩检测与报警系统

文章目录 yolov7训练系统集成数据库报警记录查看qt页面跳转方式qt 的数据库某表查看页面如何写q742971636 yolov7训练 yolov7:https://github.com/WongKinYiu/yolov7 人脸口罩数据集&#xff1a;链接&#xff1a;https://pan.baidu.com/s/1bnxJPnoRNwUfVzLxKjIvkQ?pwdc0yc …

Confluence的数据迁移备份与恢复

目录 一、简介 二、数据备份&#xff08;默认系统会自动备份&#xff0c;不需要手动&#xff09; 2、点击左上角的设置按钮&#xff0c;选择“一般配置”选项。 3、选择“备份与还原”选项 4、开始手动备份 三、数据恢复 1、使用管理员账号登录 2、选择“备份与还原”选…

亿发管理信息化系统,助力五金加工企业信息化建设

传统生产模式下劳动密集的五金生产车间&#xff0c;管理难度逐渐增大&#xff0c;五进生产加工商需要寻求新的竞争力。信息化建设可以将信息技术和系统融入五金生产加工过程的各个环节&#xff0c;使五金生产行业受益。 1、定制生产 信息化建设使五金管理者能够高效地实施定制…

laravel 图表Apexchart 整数多出小数点

Apexchart做统计界面发现一个问题&#xff0c;数据全是整数&#xff0c;但是还显示小数点&#xff0c;如下图&#xff1a; 网上很少有答案&#xff0c;自己研究了很久&#xff0c;分享下经验 第一种方案重新buildDefaultScript方法 protected function buildDefaultScript(){$…

R语言实践——rWCVP 的函数清单

rWCVP 的函数清单 1. get_area_name()用法参数值详介例子 2. get_wgsrpd3_codes()用法参数值详介例子 3. powo_map()用法参数值 4. powo_pal(), scale_color_powo(), scale_colour_powo(), scale_fill_powo()用法参数值 5. redlist_example用法格式资源 6. taxonomic_mapping用…

【万字长文】深度解析 Transformer 和注意力机制(含完整代码实现)

深度解析 Transformer 和注意力机制 在《图解NLP模型发展&#xff1a;从RNN到Transformer》一文中&#xff0c;我介绍了 NLP 模型的发展演化历程&#xff0c;并用直观图解的方式为大家展现了各技术的架构和不足。有读者反馈图解方式虽然直观&#xff0c;但深度不足。考虑到 Tra…

Java设计模式七大原则-单一职责原则

✨作者&#xff1a;猫十二懿 ❤️‍&#x1f525;账号&#xff1a;CSDN 、掘金 、个人博客 、Github &#x1f389;公众号&#xff1a;猫十二懿 单一职责原则 1、单一职责介绍 单一职责原则&#xff08;SRP&#xff1a;Single Responsibility Principle&#xff09;是指一个类…

二层交换机和三层交换机的区别

交换机端口是现代 IT 生态系统中网络通信过程的重要组成部分。通过将数据包从一个网段或网络设备转发到另一个网段或网络设备&#xff0c;它们可实现网络连接和可访问性。但是&#xff0c;并非所有交换机都是平等的。为您的网络选择合适的交换机归结为一个关键决策&#xff1a;…

【Prompt 思考】AI 产品的交互必须是对话和聊天吗?

AI 产品的交互必须是对话和聊天吗&#xff1f; 1. 界面设计2. 对话和聊天3. 提示工程4. 思考5. 工具辅助用户写prompt的界面自动优化promptChatWeb的提示器商店 1. 界面设计 对话没有预设用途&#xff1a;用户不知道它能做什么&#xff0c;其实是什么也能干。提供更好的用户体…

【2023 · CANN训练营第一季】基于昇腾910的TF网络脚本训练(ModelArts平台)

准备工作: 1.注册华为云账号&#xff0c;获取AK/SAK&#xff0c;授权ModelArts&#xff0c;并申请华为云代金券 2.获取训练数据集&#xff0c;并进行数据预处理&#xff0c;比如离线制作成tfrecords(建议&#xff0c;可选) 3.将数据集(训练脚本)上传到OBS 4.安装PycharmIDE及To…

一文细说vDSO机制原理

1. 什么是 vDSO 众所周知&#xff0c;操作系统为我们管理硬件资源&#xff0c;并以系统调用的方式对用户进程提供 API&#xff0c;但是 syscall 很慢&#xff0c;涉及陷入内核以及上下文切换。对于少量频繁调用的系统调用&#xff08;比如获取当期系统时间&#xff09;来说&am…

CDN 回源与CDN 多级缓存原理

一、什么是回源 回源是指浏览器在发送请求报文时&#xff0c;响应该请求报文的是源站点的服务器&#xff0c;而不是各节点上的缓存服务器&#xff08;比如Nginx开启缓存&#xff09;&#xff0c;那么这个过程相对于通过各节点上的缓存服务器来响应的话就称作为回源。回源的请求…

Mac 原神电脑版下载安装使用教程,MacBook 上也可以玩原神了

最近发现了一个很棒的工具&#xff0c;他可以让你的 Mac 苹果电脑运行原神&#xff0c;而且画质和流畅度都是在线的&#xff0c;今天分享给大家 软件名字叫 playCover &#xff0c;根据作者的介绍这款软件最初就是国外的一位博主想在 Mac 上玩原神特意开发的一款软件&#xff…

Faster R-CNN网络架构详解和TensorFlow Hub实现(附源码)

文章目录 一、RPN网络1. RPN网络简介2. backbone网络简介 二、Faster R-CNN网络架构1. Faster R-CNN网络简介2. 基于TensorFlow Hub实现Faster R-CNN 前言&#xff1a;Faster R-CNN的简介见 上一篇文章 一、RPN网络 1. RPN网络简介 RPN网络全称Region Proposal Network&#…

【星戈瑞】BODIPY-530/550氟化硼二吡咯荧光染料

BODIPY是一种荧光染料&#xff0c;其分子结构稳定、荧光强度高、荧光寿命长、光谱范围广&#xff0c;因此在许多领域都有应用。在生物医学领域&#xff0c;BODIPY作为荧光探针&#xff0c;可用于细胞成像、生物分子探测、药物筛选等方面。例如&#xff0c;一些研究者将BODIPY修…

如何在华为OD机试中获得满分?Java实现【计算某字符出现次数】一文详解!

✅创作者&#xff1a;陈书予 &#x1f389;个人主页&#xff1a;陈书予的个人主页 &#x1f341;陈书予的个人社区&#xff0c;欢迎你的加入: 陈书予的社区 &#x1f31f;专栏地址: Java华为OD机试真题&#xff08;2022&2023) 文章目录 1. 题目描述2. 输入描述3. 输出描述…

今天面了个字节拿23k出来的小伙,让我见识到了什么才是天花板...

2023年堪称大学生就业最难的一年&#xff0c;应届毕业生人数是1158万&#xff0c;再次刷新记录。 但是我观察到一个数据&#xff0c;那就是已经就业的毕业生中&#xff0c;计算机通信等行业最受毕业生欢迎&#xff01; 计算机IT行业薪资高&#xff0c;平均薪资是文科其他岗位的…