MobileFormer:一种通过双线桥将 MobileNet 和 Transformer 并行的结构。这种方式融合了 MobileNet 局部性表达能力和 Transformer 全局表达能力的优点,这个桥能将局部性和全局性双向融合。和现有 Transformer 不同,Mobile-Former 使用很少的 tokens(例如 6 个或者更少)随机初始化学习全局先验,计算量更小。
论文地址:https://openaccess.thecvf.com/content/CVPR2022/papers/Chen_Mobile-Former_Bridging_MobileNet_and_Transformer_CVPR_2022_paper.pdf
1. 并行结构
Mobile-Former 将 MobileNet 和 Transformer 并行化,并通过双向交叉注意力连接(下见图)。Mobile(指 MobileNet)采用图像作为输入,并应用反向瓶颈块提取局部特征。Former(指 Transformers)将可学习的参数(或 tokens)作为输入,表示为 𝑍∈𝑅𝑀×𝑑,其中 M 和 d 分别是 tokens 的数量和维度,这些 tokens 随机初始化。与视觉 Transformer(ViT)不同,其中 tokens 将局部图像 patch 线性化,Former 的 tokens 明显较少(M≤6),每个代表图像的全局先验知识,使得计算成本大大降低。
2. Mobile-Former 块
Mobile-Former 由 Mobile-Former 块组成。每个块包含四部分:Mobile 子块、Former 子块以及双向交叉注意力 Mobile←Former 和 Mobile→Former(如下图所示)。
输入和输出:Mobile-Former 块有两个输入:(a) 局部特征图,以及(b) 全局 tokens。Mobile-Former 块输出更新的局部特征图 𝑋 和全局 tokens Z,用作下一个块的输入。
Mobile 子块:如上图所示,Mobile 子块将特征图 𝑋 作为输入,并将其输出作为 Mobile←Former 的输入,这和反向瓶颈块略有不同,其用动态 ReLU 替换 ReLU 作为激活函数。不同于原始的动态 ReLU,在平均池化特征图上应用两个 MLP 以生成参数。我们从 Former 的第一个全局 tokens 的输出 𝑧′ 应用两个 MLP 层(上图中的θ)保存平均池化。其中所有块的 depth-wise 卷积的核大小为 3×3。
class Mobile(nn.Module):
def __init__(self, in_channel, expand_size, out_channel, token_demension, kernel_size=3, stride=1, k=2):
super(Mobile, self).__init__()
self.in_channel, self.expand_size, self.out_channel = in_channel, expand_size, out_channel
self.token_demension, self.kernel_size, self.stride, self.k = token_demension, kernel_size, stride, k
if stride == 2:
self.strided_conv = nn.Sequential(
nn.Conv2d(self.in_channel, self.expand_size, kernel_size=3, stride=2, padding=int(self.kernel_size // 2), groups=self.in_channel).cuda(),
nn.BatchNorm2d(self.expand_size).cuda(),
nn.ReLU6(inplace=True).cuda()
)
self.conv1 = nn.Conv2d(self.expand_size, self.in_channel, kernel_size=1, stride=1).cuda()
self.bn1 = nn.BatchNorm2d(self.in_channel).cuda()
self.ac1 = DynamicReLU(self.in_channel, self.token_demension, k=self.k).cuda()
self.conv2 = nn.Conv2d(self.in_channel, self.expand_size, kernel_size=3, stride=1, padding=1, groups=self.in_channel).cuda()
self.bn2 = nn.BatchNorm2d(self.expand_size).cuda()
self.ac2 = DynamicReLU(self.expand_size, self.token_demension, k=self.k).cuda()
self.conv3 = nn.Conv2d(self.expand_size, self.out_channel, kernel_size=1, stride=1).cuda()
self.bn3 = nn.BatchNorm2d(self.out_channel).cuda()
else:
self.conv1 = nn.Conv2d(self.in_channel, self.expand_size, kernel_size=1, stride=1).cuda()
self.bn1 = nn.BatchNorm2d(self.expand_size).cuda()
self.ac1 = DynamicReLU(self.expand_size, self.token_demension, k=self.k).cuda()
self.conv2 = nn.Conv2d(self.expand_size, self.expand_size, kernel_size=3, stride=1, padding=1, groups=self.expand_size).cuda()
self.bn2 = nn.BatchNorm2d(self.expand_size).cuda()
self.ac2 = DynamicReLU(self.expand_size, self.token_demension, k=self.k).cuda()
self.conv3 = nn.Conv2d(self.expand_size, self.out_channel, kernel_size=1, stride=1).cuda()
self.bn3 = nn.BatchNorm2d(self.out_channel).cuda()
def forward(self, x, first_token):
if self.stride == 2:
x = self.strided_conv(x)
x = self.bn1(self.conv1(x))
x = self.ac1(x, first_token)
x = self.bn2(self.conv2(x))
x = self.ac2(x, first_token)
return self.bn3(self.conv3(x))
Former 子块:Former 子块是一个标准的 Transformer 块,包括一个多头注意力(MHA)和一个前馈网络(FFN)。在 FFN 中,膨胀率为 2(代替 4)。使用 post 层归一化。Former 在 Mobile→Former 和 Mobile←Former 之间处理。
class Former(nn.Module):
def __init__(self, head, d_model, expand_ratio=2):
super(Former, self).__init__()
self.d_model = d_model
self.expand_ratio = expand_ratio
self.eps = 1e-10
self.head = head
assert self.d_model % self.head == 0
self.d_per_head = self.d_model // self.head
self.QVK = MLP([self.d_model, self.d_model * 3], bn=False).cuda()
self.Q_to_heads = MLP([self.d_model, self.d_model], bn=False).cuda()
self.K_to_heads = MLP([self.d_model, self.d_model], bn=False).cuda()
self.V_to_heads = MLP([self.d_model, self.d_model], bn=False).cuda()
self.heads_to_o = MLP([self.d_model, self.d_model], bn=False).cuda()
self.norm = nn.LayerNorm(self.d_model).cuda()
self.mlp = MLP([self.d_model, self.expand_ratio * self.d_model, self.d_model], bn=False).cuda()
self.mlp_norm = nn.LayerNorm(self.d_model).cuda()
def forward(self, x):
QVK = self.QVK(x)
Q = QVK[:, :, 0: self.d_model]
Q = rearrange(self.Q_to_heads(Q), 'n m ( d h ) -> n m d h', h=self.head)
K = QVK[:, :, self.d_model: 2 * self.d_model]
K = rearrange(self.K_to_heads(K), 'n m ( d h ) -> n m d h', h=self.head)
V = QVK[:, :, 2 * self.d_model: 3 * self.d_model]
V = rearrange(self.V_to_heads(V), 'n m ( d h ) -> n m d h', h=self.head)
scores = torch.einsum('nqdh, nkdh -> nhqk', Q, K) / (np.sqrt(self.d_per_head) + self.eps)
scores_map = F.softmax(scores, dim=-1)
v_heads = torch.einsum('nkdh, nhqk -> nhqd', V, scores_map)
v_heads = rearrange(v_heads, 'n h q d -> n q ( h d )')
attout = self.heads_to_o(v_heads)
attout = self.norm(attout)
attout = self.mlp(attout)
attout = self.mlp_norm(attout)
return attout
Mobile→Former:文章提出的轻量级交叉注意力用于将局部特征 X 融合到全局特征 tokens Z。与标准注意力相比,映射矩阵的键 𝑊𝐾 和值 𝑊𝑉(在局部特征 X 上)被移除以节省计算(见上图)。
class Mobile_Former(nn.Module):
'''局部特征 -> 全局特征'''
def __init__(self, d_model, in_channel):
super(Mobile_Former, self).__init__()
self.d_model, self.in_channel = d_model, in_channel
self.project_Q = nn.Linear(self.d_model, self.in_channel).cuda()
self.unproject = nn.Linear(self.in_channel, self.d_model).cuda()
self.eps = 1e-10
self.shortcut = nn.Sequential().cuda()
def forward(self, local_feature, x):
_, c, _, _ = local_feature.shape
local_feature = rearrange(local_feature, 'n c h w -> n ( h w ) c')
project_Q = self.project_Q(x)
scores = torch.einsum('nmc , nlc -> nml', project_Q, local_feature) * (c ** -0.5)
scores_map = F.softmax(scores, dim=-1)
fushion = torch.einsum('nml, nlc -> nmc', scores_map, local_feature)
unproject = self.unproject(fushion)
return unproject + self.shortcut(x)
Mobile-Former:这里的交叉注意力与 Mobile→Former 的方向相反,其将全局 tokens 融入本地特征。局部特征是查询,全局 tokens 是键和值。因此,我们保留键 𝑊𝐾 和值 𝑊𝑉 中的映射矩阵,但移除查询 𝑊𝑄 的映射矩阵以节省计算。
计算复杂度:Mobile-Former 块的四个核心部分具有不同的计算成本。给定输入大小为 𝐻𝑊×𝐶 的特征图,以及尺寸为 d 的 M 个全局 tokens,Mobile 占据了大部分的计算量 𝑂(𝐻𝑊𝐶2)。Former 和双线桥是重量级的,占据不到总计算成本的 20%。具体而言,Former 的自注意力和 FFN 具有复杂度 𝑂(𝑀2𝑑+𝑀𝑑2)。Mobile→Former 和 Mobile←Former 共享交叉注意力的复杂度 𝑂(𝑀𝐻𝑊𝐶+𝑀𝑑𝐶)。
class Former_Mobile(nn.Module):
'''全局特征 -> 局部特征'''
def __init__(self, d_model, in_channel):
super(Former_Mobile, self).__init__()
self.d_model, self.in_channel = d_model, in_channel
self.project_KV = MLP([self.d_model, 2 * self.in_channel], bn=False).cuda()
self.shortcut = nn.Sequential().cuda()
def forward(self, x, global_feature):
res = self.shortcut(x)
n, c, h, w = x.shape
project_kv = self.project_KV(global_feature)
K = project_kv[:, :, 0 : c]
V = project_kv[:, :, c : ]
x = rearrange(x, 'n c h w -> n ( h w ) c')
scores = torch.einsum('nqc, nkc -> nqk', x, K)
scores_map = F.softmax(scores, dim=-1)
v_agg = torch.einsum('nqk, nkc -> nqc', scores_map, V)
feature = rearrange(v_agg, 'n ( h w ) c -> n c h w', h=h)
return feature + res
3. 网络结构
一个 Mobile-Former 架构,图像大小为 224×224,294M FLOPs,以不同的输入分辨率堆叠 11 个 Mobile-Former 块。所有块都有 6 个维度为 192 的全局 tokens。它以一个 3×3 的卷积作为 stem 和第一阶段的轻量瓶颈块,首先膨胀,然后通过 3×3 depth-wise 卷积和 point-wise 卷积压缩通道数。第 2-5 阶段包括 Mobile-Former 块。每个阶段的下采样,表示为 Mobile-Former 分类头在局部特征应用平均池化,首先和全局 tokens concat 到一起,然后经过两个全连接层,中间是 h-swish 激活函数。Mobile-Former 有七种模型,计算成本从 26M 到 508M FLOPs。它们的结构相似,但宽度和高度不同。
class MobileFormerBlock(nn.Module):
def __init__(self, in_channel, expand_size, out_channel, d_model, stride=1, k=2, head=8, expand_ratio=2):
super(MobileFormerBlock, self).__init__()
self.in_channel, self.expand_size, self.out_channel = in_channel, expand_size, out_channel
self.d_model, self.stride, self.k, self.head, self.expand_ratio = d_model, stride, k, head, expand_ratio
self.mobile = Mobile(self.in_channel, self.expand_size, self.out_channel, self.d_model, kernel_size=3, stride=self.stride, k=self.k).cuda()
self.former = Former(self.head, self.d_model, expand_ratio=self.expand_ratio).cuda()
self.mobile_former = Mobile_Former(self.d_model, self.in_channel).cuda()
self.former_mobile = Former_Mobile(self.d_model, self.out_channel).cuda()
def forward(self, local_feature, global_feature):
z_hidden = self.mobile_former(local_feature, global_feature)
z_out = self.former(z_hidden)
x_hidden = self.mobile(local_feature, z_out[:, 0, :])
x_out = self.former_mobile(x_hidden, z_out)
return x_out, z_out
4. 小结
-
MobileFormer 通过并行的 MobileNet 和 Transformer 结构以及双线桥技术,实现了局部和全局特征的有效融合。
-
MobileFormer 网络利用轻量级的交叉注意力机制,显著降低了计算成本,同时保持了高效的特征表达能力。
-
MobileFormer 提供了多种模型变体,适应不同计算需求,最高可达 508M FLOPs,为移动和边缘设备上的高效视觉任务提供了灵活的解决方案。