Squeeze-and-Excitation Networks(压缩和激励网络)
论文地址:Squeeze-and-Excitation Networks
论文中文版:Squeeze-and-Excitation Networks_中文版
代码地址:GitHub - hujie-frank/SENet: Squeeze-and-Excitation Networks
论文总结部分:
目录
一、论文出发点
二、论文的主要工作
三、Squeeze-and-Excitation模块
3.1 Transformation(Ftr): 转型
3.2 Squeeze:全局信息嵌入
3.3 Excitation:自适应重新校正
3.4 Scale:重新加权
四、模型:SE-Inception和SE-ResNet
五、实验
六、结论
代码实现部分:
一、论文出发点
为了提高网络的表示能力,许多现有的工作已经显示出增强空间编码的好处。而作者专注于通道,希望能够提出了一种新的架构单元,通过显式地建模卷积特征通道之间的相互依赖性来提高网络的表示能力。
这里引用“博文:Squeeze-and-Excitation Networks解读”中的总结:核心思想是不同通道的权重应该自适应分配,由网络自己学习出来的,而不是像Inception net一样留下过多人工干预的痕迹。
二、论文的主要工作
1.提出了一种新的架构单元Squeeze-and-Excitation模块,该模块可以显式地建模卷积特征通道之间的相互依赖性来提高网络的表示能力。
2.提出了一种机制,使网络能够执行特征重新校准,通过这种机制可以学习使用全局信息来选择性地强调信息特征并抑制不太有用的特征。
三、Squeeze-and-Excitation模块
3.1 Transformation(Ftr): 转型
其中:
1. ,这里指输出特征图的一个单通道2D特征层。
2. 表示学习到的一组滤波器核,Vc指的是第c个滤波器的参数,此外,这里 是指一个通道数为1的2D空间核。
3. ,这里是指输入特征图的一个单通道2D特征层。
该卷积算子公式表示,输入特征图X的每一层都经过一个2D空间核的卷积最终得到C个输出特征层,组成特征图U。
原文内容如下:
- X∈R^(H′×W′×C′):输入特征图
- U∈R^(H×W×C):输出特征图
- V:表示学习到的一组滤波器核
- Vc:指的是第c个滤波器的参数
- :表示一个2D的空间核
- *:卷积操作
3.2 Squeeze:全局信息嵌入
3.3 Excitation:自适应重新校正
3.4 Scale:重新加权
目的:最后是Scale操作,将前面得到的注意力权重加权到每个通道的特征上。
四、模型:SE-Inception和SE-ResNet
通过将一个整体的Inception模块看作SE模块中,为Inception网络构建SE模块。
同理, 将一个整体的Residual模块看作SE模块中,为ResNet网络构建SE模块。
五、实验
六、结论
本文提出的SE模块,这是一种新颖的架构单元,旨在通过使网络能够执行动态通道特征重新校准来提高网络的表示能力。大量实验证明了SENets的有效性,其在多个数据集上取得了最先进的性能。