【论文阅读总结】inception v1总结
- 1. 摘要
- 2. 序言
- 3. 文献综述
- 4.动机和高层考虑
- 4.1提高深度神经网络性能的最直接方法
- 4.1.1 增加模型的大小
- 4.1.2 解决增加模型大小导致的缺点思路
- 5.结构详述
- 5.1 Inception架构的主要思想
- 5.2 原生inception块问题
- 5.3 解决通道数增加问题
- 5.4 `1*1`卷积优点
- 6. GoogLeNet
- 6.1辅助分类器
- 7. 训练方法
- 论文链接
https://arxiv.org/pdf/1409.4842v1.pdf - 视频链接
【子豪兄】inception v1精读人工智能经典论文
1. 摘要
- 提出了Inception的深度卷积神经网络架构。
- 该体系结构用于分类和检测。
- 分类【分类问题】:对画框的范围进行分类
- 检测【回归问题】:画出框的线,画出物体的边缘框
- 该体系结构的主要特点是提高了网络内计算资源的利用率。
- 该体系结构基于Hebbian理论和多尺度信息处理
- Hebbian理论:将不同特征进行融合成物体【例如:猫的耳朵,腿等融合成一只完整的猫】
- 多尺度信息处理:用不同大小的卷积核并行处理,进行汇总融合【不同大小的卷积核,会融合不同大小的物体,比如:人,猫大小不一样,需要不同的卷积核】
- 允许增加网络的深度和宽度,同时保持计算量保持不变
2. 序言
- 在过去三年中,深度学习的进步(更具体地说是卷积网络),图像识别和对象检测的质量一直在以惊人的速度进步
- 大部分不仅是更强大的硬件、数据集和模型的结果,而且主要是新思想、算法和改进的网络架构的结果
- GoogLeNet参数比AlexNet少12倍,同时也更加准确。
- 随着移动和嵌入式计算的不断发展,算法的效率(尤其是其功率和内存使用)越来越重要
- 目标检测的最大收益并不是来自于单独使用深度网络或更大的模型,而是来自深度架构和经典计算机视觉的协同作用
- 该模型保持15亿倍的计算量,可以以合理的成本投入到现实中使用,即使是在大型数据集上。
- 该模型增加了网络深度【模型的深度与算法的深度】
3. 文献综述
- 从LeNet-5开始,卷积神经网络(CNN)通常具有标准结构
- 标准结构:多层卷积层——》对比度归一化和最大池层【可选】——》一个或多个全连接的层。
- 对于较大的数据集,最近的趋势是增加深度(层数)和宽度(卷积核个数),同时使用丢弃(dropout)来解决过拟合问题。
- 池化层可能会导致空间信息丢失,但也成功用于定位、对象检测和人体姿态估计
- 池化层具有平移不变性
- Inception模型中的所有滤波器(卷积核)都是学习得到的。 Inception层重复多次使用,导致GoogLeNet模型中的22层深度模型。
- Network-in-Network model,大量使用
1*1
卷积层,旨在提高神经网络的代表能力。具有两种作用- 主要用作降维模块,以消除计算瓶颈,限制网络的大小
- 可以增加网络深度,宽度,非线性运算,且不会造成显著的性能损失。
4.动机和高层考虑
4.1提高深度神经网络性能的最直接方法
4.1.1 增加模型的大小
- 主要优点:
- 增加网络深度【模型的深度】
- 增加网络宽度【卷积核个数】
- 是训练更高质量模型的一种简单而安全的方法,特别是考虑到大量标记训练数据的可用性。
- 主要缺点
- 容易过拟合:增加网络深度会有更多参数,特别是在训练集中标记的数据集少时,使网络容易过拟合
- 计算资源急剧增加
- 参数的增加,计算次数也会增加
- 如果增加深度使用效率降低(如果大多数权重最终接近于零,容量增加并没有显著效果),计算资源就会被浪费。
4.1.2 解决增加模型大小导致的缺点思路
- 思路一:【计算机设施效率降低,没有用】
- 稀疏连接取代密集连接,并且在卷积内部也使用
- 稀疏连接:就是有些参数权重为0【自己理解】
- 在稀疏数据结构上进行数值计算,计算基础设施效率很低。
- 即使参数减少了100倍,因此现有的计算效率低下使稀疏连接取代密集连接,模型并没有实际的提升
- 稀疏连接取代密集连接,并且在卷积内部也使用
- 思路二:【没有降低计算机设施效率,且使用了稀疏计算】
- 使用密集连接,得到稀疏连接
- inception块使用了4种不同大小的卷积核并行卷积【每个卷积核卷积是密集连接】,最后进行汇总融合【各个特征图汇总融合就变成了稀疏连接】。
- 在调整学习率、超参数和改进的训练方法之后,Inception架构在定位和对象检测特别有用,最终证明它们至少是局部最优。
- 尽管该体系结构已经成为计算机视觉的成功,但其质量是否可以归因于导致其构建的指导原则,仍然值得探索。
- 使用密集连接,得到稀疏连接
5.结构详述
5.1 Inception架构的主要思想
- 主要思想:通过多个密集结构融合去获取近似的稀疏结构
- 在较低层(靠近输入层),更注重提取局部特征。在较高层(靠近输出层),更注重提取全局特征。
- 较低层提取局部特征,可以使用1*1卷积核。较高层提取较大特征,可以使用较大的卷积核(例如:3*3,5*5)提取
- 使用不同大小的卷积核并行卷积,汇总融合要确保特征图大小一致,使用padding填充。
- 池化操作对于网络成功至关重要,因此也添加了池化层
- Inception模块相互叠加,它们输出相关性统计数据不同。
- 更高特征会被更高层提取,在更高层特征提取,3×3和5×5卷积的比率应该会增加。
- 仅在较高层开始使用Inception模块
- 由于技术原因(训练期间的内存效率)。在传统卷积结构(CNN标准结构)后使用Inception模块是有益的。【但不是必须的,只是当前训练中的一些基础设施效率低下】
- 另一个优点,它符合一种直觉,即视觉信息应该以各种尺度处理,然后聚合,以便下一阶段可以同时从不同尺度提取特征。
- inception模块增了网络的深度与宽度,但是没有增加计算量。导致inception网络非Inception架构类似性能网络快2-3倍,需要仔细的手动设计模型。
5.2 原生inception块问题
- Inception模块叠加,通道数会大大增加,导致较高层通道数非常大,计算量大大增加,可能导致计算故障。
- 因为一个池化层存在,通道数一定会增加,其它层输出通道为1,最终输出层也会比输入层多3层
5.3 解决通道数增加问题
- 使用1*1卷积
- 在3*3,5*5卷积之前使用1*1卷积降低通道数【降维】
- 在3*3,5*5卷积之前使用1*1卷积降低通道数【降维】
5.4 1*1
卷积优点
- 升维与降维
- 1*1卷积层不会改变卷积核的大小,只会改变通道数,调整通道数,控制模型复杂度【升维,降维】
- 通道数比卷积前小,是对数据降维,降低模型复杂度
- 通道数比卷积前大,是对数据升维,增加模型复杂度
- 1*1卷积层不会改变卷积核的大小,只会改变通道数,调整通道数,控制模型复杂度【升维,降维】
- 增加非线性变换
- 卷积层后会有非线性变换层,增加1*1卷积层,也就增加了非线性变换
- 增加模型深度
- 减少参数量与计算量
- 1*1卷积参数只有1个,参数量较少,计算量也会减少
- 可以替代全连接层【通道数就是神经元的个数】
- 也可当作池化层
- 使用1*1卷积核,当输入输出的特征图个数一致时,设置步长(stride),也可以代替池化层
6. GoogLeNet
-
模型inception结构图
-
总图
-
GoogLeNet 这个名字是对LeNet 5网络的致敬
-
卷积之后全部使用Relu激活函数
-
图片大小为224×224,采用RGB颜色通道减去均值,对数据预处理
-
网络深度为22层(加上池化层,为27层。再加上inception模块内部层,为100层)。
-
全局平均池化代代替全连接层和展平层。
- 网络能够很容易地适应和微调其他标签集。
- 继续使用dropout
6.1辅助分类器
- 由于模型的深度较大,反向传播求参数会导致梯度消失问题,通过添加中间层的辅助分类器,增加反向传播梯度信号,提供额外的正则化。
- 辅助分类器放在Inception(4a)和(4d)模块的输出之上的较小卷积网络。
- 注意:训练好的模型,会去掉辅助分类器,增加辅助分类器只是防止梯度消失问题,导致求参困难
- 总损失函数公式
L o s s t o t a l = L o s s e n d + 0.3 ∗ L o s s 辅 助 器 1 + 0.3 ∗ L o s s t o t a l 辅 助 器 2 \begin{aligned} Loss_{total}=Loss_{end}+0.3*Loss_{辅助器1}+0.3*Loss_{total辅助器2} \end{aligned} Losstotal=Lossend+0.3∗Loss辅助器1+0.3∗Losstotal辅助器2
7. 训练方法
- 网络使用分布式机器学习系统进行训练。
- 分布式机器学习系统具有数据并行性
- 分布式系统,相当于多个电脑同时对该模型进行训练,数据分为k份,每份有batch个数据集,每个电脑进行前向与反向传播,主电脑用来优化更新参数
- 使用0.9的动量异步随机梯度下降(stochastic gradient descent with 0.9 momentum )。
- 使用固定学习率计划(每8个时期将学习率降低4%)