【图像识别】Swin Transformer

news2024/11/17 17:40:22

一、引言

论文: Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
作者: Microsoft Research Asia
代码: Swin Transformer
特点: 提出滑动窗口自注意力 (Shifted Window based Self-Attention) 解决Vision Transformer输入高分辨率图像注意力模块计算复杂度高的问题。

二、框架

Swin Transformer的整体框架图如下:

可见,Swin Transformer主要包括Patch Partition+Linear Embedding、Swin Transformer Block、Patch Merging几个组件。每经历一个Stage特征图都会缩小2倍、通道数放大2倍,这与ResNet网络的特征尺度变化过程很类似。

Swin Transformer Block的最小单位为上图右侧两个连续的Block,两个Block的差别仅在于注意力模块是窗口多头自注意力 (W-MSA) 还是滑动窗口多头自注意力 (SW-MSA)。所以每个Stage中包含的Block数量都是2的整数倍。

2.1 Patch Partition+Linear Embedding

Patch Partition是要将图像拆分成多个 4 ∗ 4 ∗ 3 4*4*3 443大小的Patch(4*4是每个Patch包含的像素点数,3是原始图像通道数),如下图所示:

之后将每个Patch按行展平,于是每个Patch形成一个 1 ∗ 1 ∗ 48 1*1*48 1148的像素点。 48 = 4 ∗ 4 ∗ 3 48=4*4*3 48=443,原本一个像素点通道数为3,一个Patch有 4 ∗ 4 4*4 44个像素点,所以展平后一个Patch变成一个通道数为48的像素点。所有Patch展平后按原位置拼接则形成 H 4 ∗ W 4 ∗ 48 \frac{H}{4}*\frac{W}{4}*48 4H4W48的特征图。

通过Linear Embedding(例如核为 1 ∗ 1 1*1 11的2D卷积)将通道数从48映射到 C C C(原文中 C = 96 C=96 C=96)。最后通过LayerNorm将所有通道数为 C C C的像素点归一化。

上图为一个Patch上16个像素点的Patch Partition+Linear Embedding过程(图中一个小方格代表一个有3个通道的像素点, c = C 3 c=\frac{C}{3} c=3C)。

事实上,Patch Partition+Linear Embedding就是要将图像尺寸从 H ∗ W ∗ 3 H*W*3 HW3转换为 H 4 ∗ W 4 ∗ C \frac{H}{4}*\frac{W}{4}*C 4H4WC 与Vision Transformer取Patch时采取的策略一致,Swin Transformer并没有分两步完成该操作,而是通过一个卷积核大小为 4 ∗ 4 4*4 44、步长为4、输出通道数为96的2D卷积层进行特征提取,再通过LayerNorm对所有token进行归一化(一个token对应 H 4 ∗ W 4 ∗ C \frac{H}{4}*\frac{W}{4}*C 4H4WC的特征图中的一个像素点)。

2.2 Swin Transformer Block

下图为Vision Transformer(左)和Swin Transformer(右)中Block的结构图:

其中,Swin Transformer中也有DropPath但是没有画出来,并且他们的MLP模块均为如下结构:

可见,两者结构基本一致,主要区别如下:
(1) Vision Transformer的每一个Block都一样,而Swin Transformer中两个不同的Block是一个基本单位,两个Block顺序连接,不会单独出现。
(2) Vision Transformer使用多头自注意力,而Swin Transformer中两个Block注意力模块不同,前一个使用窗口多头自注意力,后一个使用滑动窗口多头自注意力。
(3) Vision Transformer使用绝对位置编码,而Swin Transformer使用相对位置编码。

所以我们下面主要介绍窗口多头自注意力和滑动窗口多头自注意力,其余部分请参考我关于Vision Transformer的博客。

2.2.1 窗口多头自注意力

引入窗口多头自注意力 (W-MSA) 是为了减少计算复杂度。

如下为多头自注意力 (MSA) 与窗口多头自注意力的窗口划分方法:

多头自注意力不对特征图进行划分,左图中共16个像素点(也叫token),每个像素点作为query时都要与所有像素点进行自注意力计算。而窗口多头自注意力会先将特征图拆分为一个个窗口(右图中窗口高宽为 2 ∗ 2 2*2 22),然后在每个窗口内部单独进行自注意力计算。

两者的计算复杂度如下:

其中, h h h为特征图高度, w w w为特征图宽度, C C C为特征图通道数, M M M为每个窗口的大小;自注意力的计算是以特征图或窗口上的token为单位的,所以未被拆分的特征图中应包含 h w hw hw个长度为 C C C的token。该计算复杂度不包括除以 d k \sqrt{d_k} dk 和SoftMax产生的计算量。

在讲解两者计算复杂度推导过程前,我们需要明确两个矩阵相乘所产生的计算量,如果 A A A矩阵高宽为 a ∗ b a*b ab B B B矩阵高宽为 b ∗ c b*c bc,则 A ⋅ B A\cdot B AB的计算量为 a ∗ b ∗ c a*b*c abc

下图实线部分为单头自注意力的计算过程:

其中,黑色字体为当前矩阵含义,红色字体为当前矩阵高宽,绿色和橙色字体为当前运算复杂度。多头自注意力在通道上对token的拆分不会影响计算复杂度,所以除最后将 A ⋅ V A\cdot V AV通过 W o W_o Wo映射为输出时产生的计算复杂度(上图右侧虚线部分),其余与单头自注意力计算复杂度相同。于是,我们可以得到多头自注意力的计算复杂度为 4 h w C 2 + 2 ( h w ) 2 C 4hwC^2+2(hw)^2C 4hwC2+2(hw)2C

对于窗口多头自注意力,特征图大小为 h ∗ w h*w hw,窗口大小为 M ∗ M M*M MM时,则从特征图上可拆分出 h M ∗ w M \frac{h}{M}*\frac{w}{M} MhMw个窗口。每个窗口单独执行多头自注意力产生计算复杂度为 4 M 2 C 2 + 2 M 4 C 4M^2C^2+2M^4C 4M2C2+2M4C。则 h M ∗ w M \frac{h}{M}*\frac{w}{M} MhMw个窗口的总计算复杂度为 4 h w C 2 + 2 M 2 h w C = h M ∗ w M ∗ ( 4 M 2 C 2 + 2 M 4 C ) 4hwC^2+2M^2hwC=\frac{h}{M}*\frac{w}{M}*(4M^2C^2+2M^4C) 4hwC2+2M2hwC=MhMw(4M2C2+2M4C)

两者计算复杂度差别在后半部分,以原文中的参数 h = 56 , w = 56 , C = 96 , M = 7 h=56,w=56,C=96,M=7 h=56,w=56,C=96,M=7为例,多头自注意力后半部分计算复杂度为 2 ( h w ) 2 C = 2 ( 56 ∗ 56 ) 2 ∗ 96 = 1888223232 2(hw)^2C=2(56*56)^2*96=1888223232 2(hw)2C=2(5656)296=1888223232,窗口多头自注意力后半部分的计算复杂度为 2 M 2 h w C = 2 ∗ 7 2 ∗ 56 ∗ 56 ∗ 96 = 29503488 2M^2hwC=2*7^2*56*56*96=29503488 2M2hwC=272565696=29503488。两者相差64倍。

此外,Swin Transformer使用相对位置编码来避免注意力运算未考虑token顺序的问题。与绝对位置编码直接加在输入特征图上不同,相对位置编码以偏执形式存在参与注意力权重的计算,其公式如下:
A t t e n t i o n ( Q , K , V ) = S o f t M a x ( Q K T d k + B ) V Attention(Q,K,V)=SoftMax(\frac{QK^T}{\sqrt{d_k}}+B)V Attention(Q,K,V)=SoftMax(dk QKT+B)V

详情请参考我关于绝对位置编码和相对位置编码的博客。

2.2.2 滑动窗口多头自注意力

采用窗口多头自注意力时,每个窗口都是独立的,会导致窗口间的相关信息无法被捕捉。例如一个目标处于多个窗口上,窗口独立进行注意力计算就导致该目标各个部分的相关信息无法被考虑。Swin Transformer引入滑动窗口来解决这一问题。

2.2.2.1 窗口滑动

对于 M ∗ M M*M MM的窗口,滑动方向为右下,向右移动 ⌊ M 2 ⌋ \lfloor\frac{M}{2}\rfloor 2M个像素点,向下移动 ⌊ M 2 ⌋ \lfloor\frac{M}{2}\rfloor 2M个像素点。

下图是窗口高宽为 4 ∗ 4 4*4 44时窗口滑动前后的窗口分割情况(因为是向右下滑动,所以我在图中增加了左上方的窗口):

可见,经滑动之后的窗口中可能包含滑动前多个窗口的内容。例如,滑动后的中心窗口就包含滑动前的4个窗口中的内容。该操作从一定程度上缓解了相关信息完全丢失的问题。

2.2.2.2 窗口移位与掩码

不过,滑动后各个窗口大小不一,只有在padding后才能组成tensor进行并行运算。以上图为例,原本只有4个 4 ∗ 4 4*4 44的窗口,padding后会产生9个 4 ∗ 4 4*4 44的窗口,这无疑增加了很多计算负担。Swin Transformer通过移位和掩码解决了该问题。

移位流程如下:

可见, A , B , C A,B,C A,B,C均为左上方新增窗口向右下滑动时产生的窗口,因此 A , C A,C A,C的高度为 ⌊ M 2 ⌋ \lfloor\frac{M}{2}\rfloor 2M A , B A,B A,B的宽度为 ⌊ M 2 ⌋ \lfloor\frac{M}{2}\rfloor 2M C C C的宽度为 w − ⌊ M 2 ⌋ w-\lfloor\frac{M}{2}\rfloor w2M B B B的高度为 h − ⌊ M 2 ⌋ h-\lfloor\frac{M}{2}\rfloor h2M

这样,所有新的窗口大小都是统一的 M ∗ M M*M MM但是这引入了另一个问题,同一窗口内包括原本不应相互计算注意力的内容。 例如上图中的右下角窗口,同时包含 A , B , C , D A,B,C,D A,B,C,D四个部分的内容,但 A A A原本在左上角,与 B B B的下侧、 C C C的右侧、 D D D的右下侧一般是没有联系的。就像一张仅包含天空和草地的图片, A , C A,C A,C是天空, B , D B,D B,D是草地, A A A不必与 B , D B,D B,D进行注意力计算。

于是Swin Transformer又引入了掩码。首先给移位后的各个窗口一个编号,如下图:

然后给每个窗口每个像素点一个掩码矩阵,如下图(以右下角窗口中两个像素点为例):

掩码矩阵中仅有两种值,0和-100。与查询像素点属于同一编号的像素点对应掩码为0,否则为-100。窗口注意力会计算每个像素点与所有像素点间的相似度,所以窗口中有几个像素点就有几个掩码矩阵,每个掩码矩阵都与窗口大小一致。

这个掩码矩阵像相对位置偏执一样被施加在注意力计算相似度的公式中,如下:
A t t e n t i o n ( Q , K , V ) = S o f t M a x ( Q K T d k + B + M a s k ) V Attention(Q,K,V)=SoftMax(\frac{QK^T}{\sqrt{d_k}}+B+Mask)V Attention(Q,K,V)=SoftMax(dk QKT+B+Mask)V

我们不考虑相对位置偏执 B B B,相似度 Q K T d k \frac{QK^T}{\sqrt{d_k}} dk QKT+掩码 M a s k Mask Mask经SoftMax产生效果如下:

可见,对于橙色框中像素点来说,同编号的像素点与其的相似度没有被改变,其它像素点相似度被减去100。因相似度矩阵中的值都比较小,减去100相当于变成一个很小的数,经SoftMax后其值接近于0。

在各个窗口上计算完多头自注意力后,按照之前移位流程逆向复原,滑动窗口多头自注意力就完成了。

综上,移位操作使并行运算成为可能,掩码操作使注意力计算不跨窗口。

2.3 Patch Merging

Swin Transformer Block不改变特征图尺寸,Patch Merging起到使特征图缩小2倍、通道数放大2倍的作用。

以大小为 4 ∗ 4 4*4 44、单通道的特征图为例,Patch Merging的过程如下图:

无论特征图是多大,Patch Merging时Patch的高宽均为 2 ∗ 2 2*2 22。截取各Patch同相对位置的像素点,之后将截取结果拼接到一起形成新的特征图。假设原特征图为 [ H , W , C ] [H,W,C] [H,W,C],则中间特征图为 [ H 2 , W 2 , 4 C ] [\frac{H}{2},\frac{W}{2},4C] [2H,2W,4C] 之后对中间特征图每个像素点所有通道分别执行归一化,并经过一次全连接线性映射将每个像素点的通道数减半。最后特征图为 [ H 2 , W 2 , 2 C ] [\frac{H}{2},\frac{W}{2},2C] [2H,2W,2C]

致谢:

本博客仅做记录使用,无任何商业用途,参考内容如下:
Swin-Transformer中MSA和W-MSA模块计算复杂度推导
Swin Transformer论文精读【论文精读】
Swin-Transformer网络结构详解

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1665169.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

恶意软件正劫持安全软件更新进行分发

GuptiMiner 是一个高度复杂的威胁,最早在 2018 年发现,主要为了在大型企业中分发后门。一种是 PuTTY Link 的增强版本后门,能够针对本地网络进行 SMB 扫描,并通过网络横向移动到网络上其他可能易受攻击的 Windows 7 和 Windows Se…

如何盘点选择的连锁收银系统贵不贵

在选择连锁收银系统时,成本是一个至关重要的考量因素。盘点连锁收银系统的成本既涉及到系统本身的购买费用,也包括了系统的维护、培训以及可能带来的附加费用。下面将从四个方面对连锁收银系统的成本进行盘点。 1. 初始投资成本 连锁收银系统的初始投资…

Python基础详解四

一,Json解析 字典转换为JSON: import jsondata [{"name":"袁震","age":20},{"name":"张三","age":21},{"name":"李四","age":22}] str json.dumps(data) …

c++父类指针指向子类

有一个常见的c题,就是父类和子类的构造函数和析构函数分别调用顺序: 父类构造函数子类构造函数子类析构函数父类析构函数 以及父类中的函数在子类中重新实现后,父类指针指向子类后,该指针调用的函数是父类中的还是子类中的&…

【GlobalMapper精品教程】079:投影坐标系转地理坐标系(UTM转WGS1984/2000)

文章目录 一、矢量UTM转WGS1984/20001. UTM转WGS19842. UTM转CGCS2000二、栅格UTM转WGS1984/2000一、矢量UTM转WGS1984/2000 加载配套实验数据(data079.rar)中的矢量数据,如下所示: 查看源坐标系:双击图层的,图层投影选项卡,为UTM投影,Zone48N。 设置系统坐标系:点击…

【MATLAB源码-第206期】基于matlab的差分进化算法(DE)机器人栅格路径规划,输出做短路径图和适应度曲线。

操作环境: MATLAB 2022a 1、算法描述 差分进化算法(Differential Evolution, DE)是一种有效的实数编码的进化算法,主要用于解决实值函数的全局优化问题。本文将详细介绍差分进化算法的背景、原理、操作步骤、参数选择以及实际应…

2024数维杯数学建模竞赛A题完整代码和思路论文解析

2024数维杯数学建模完整代码和成品论文已更新,获取↓↓↓↓↓ https://www.yuque.com/u42168770/qv6z0d/bgic2nbxs2h41pvt?singleDoc# 2024数维杯数学建模A题34页论文已完成,论文包括摘要、问题重述、问题分析、模型假设、符号说明、模型的建立和求解&…

Qt之常用控件一

Widget常见属性及其作用 属性作用enabled 设置控件是否可使⽤. true 表⽰可⽤, false 表⽰禁⽤ geometry 位置和尺⼨. 包含 x, y, width, height 四个部分. 其中坐标是以⽗元素为参考进⾏设置的. windowTitle 设置 widget 标题 windowIcon 设置 widget 图标 windowOpa…

【姿态解算与滤波算法】

姿态解算 一、主线 姿态表示方式:矩阵表示,轴角表示,欧拉角表示,四元数表示。 惯性测量单元IMU(Inertial Measurement Unit):MPU6050芯片,包含陀螺仪和加速度计,分别测…

为啥我说英语能决定程序员的天花板?

看到知乎有这样的一个问题,作为程序员的你,大学最后悔没有好好学哪门课? 很多人回答《软件工程》、《线性代数》、《微积分》等,各种都有。。 但我觉得,这些课都很重要,但没学好不妨碍自学。 其实对程序…

芯课堂 | 如何使用SWM系列产品的TIMER功能(一)

01 TIMER简介 TIMER是一种定时器工具,用来在一个后台线程计划执行指定任务。它可以计划执行一个任务一次或反复多次。 我司的SWM系列单片机提供的TIMER个数和功能有些微差别,为了让您更加简单的使用这一功能,下面将以SWM190为例&#xff0…

高效视频剪辑:视频批量调色,如何利用色调调整提升效率

在视频剪辑的后期处理中,调色是一个至关重要的环节。它不仅能够改变视频的整体氛围和风格,还能够突出视频的重点,增强观众的视觉体验。然而,对于大量的视频素材进行逐个调色处理,无疑会耗费大量的时间和精力。我们可以…

在IDEA中使用 Spring Initializr 新建 spring boots 项目

【在IDEA中使用 Spring Initializr 新建 spring boots 项目 - CSDN Apphttp://t.csdnimg.cn/mVs5P Spring Initializr 创建spring boots项目 添加到pom.xml <dependency> <groupId>mysql</groupId> <artifactId>mysql-connec…

鸿蒙开发接口Ability框架:【(窗口扩展能力)】

窗口扩展能力 WindowExtensionAbility基于ExtensionAbility&#xff0c;WindowExtensionAbility中展示的内容作为一个控件(AbilityComponent)内容展示在其他应用窗口中&#xff0c;实现在一个窗口中展示多个应用程序内容的功能。 说明&#xff1a; 本模块首批接口从API versio…

Android 13 aosp 默认关闭SELinux

通过adb修改 adb root adb shell setenforce 0 // 开SELinux&#xff0c;设置成模式permissive adb shell setenforce 1 // 关SELinux&#xff0c;设置成模式enforce adb shell getenforce // 获取当前SELinux状态源码修改 Android_source/system/core/init/selinu…

前端笔记-day05

文章目录 01-结构伪类选择器02-结构伪类选择器-公式用法03-伪元素选择器04-盒子模型-组成05-盒子模型-边框线06-盒子模型-单方向边框线07-盒子模型-内边距08-盒子模型-padding多值写法09-盒子模型-尺寸计算10-盒子模型-版心居中11-清除默认样式12-元素溢出overflow13-外边距合并…

Redis如何避免数据丢失?——RDB

目录 1. RDB机制的配置 2. fork()函数和写时复制(Copy On Write&#xff09; 什么是Copy On Write 系统fork中使用Copy On Write机制 3. RDB文件结构 RDB文件内容和内容顺序 InfoAuxFields是rdb信息数据 数据库数据 数据 数据存储格式 字符串编码 操作码 4. RDB的2…

Coursera吴恩达深度学习专项课程01: Neural Networks and Deep Learning 学习笔记 Week 03

Neural Networks and Deep Learning Course Certificate 本文是学习 https://www.coursera.org/learn/neural-networks-deep-learning 这门课的笔记 Course Intro 文章目录 Neural Networks and Deep LearningWeek 03: Shallow Neural NetworksLearning Objectives Neural Ne…

第四百九十八回

文章目录 1. 概念介绍2. 使用方法2.1 固定样式2.2 自定义样式 3. 示例代码4. 内容总结 我们在上一章回中介绍了"GetMaterialApp组件"相关的内容&#xff0c;本章回中将介绍使用get显示SnackBar.闲话休提&#xff0c;让我们一起Talk Flutter吧。 1. 概念介绍 我们在介…

windows设置软件开机自启动

winr 输入 shell:startup C:\Users\用户名\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup把要开机自动启动的程序的快捷方式放进来 输入快捷键 ctrlshiftesc 打开任务管理器 同时在任务管理器也可以看到