1. PETR
PETR网络结构如下,主要包括image-backbone,3D Coordinates Generator,3D Position Encoder,transformer Decoder四个模块。
把N 个视角的图像输入到骨干网络中以提取 2D 多视图特征。在 3D 坐标生成器中,首先将相机视锥体空间离散化为 3D 网格。然后,通过相机参数对网格的坐标进行变换,并生成 3D 世界空间中的坐标。3D 坐标与 2D 多视图特征一起被输入到 3D 位置编码器,生成 3D 位置感知特征。3D 特征进一步被输入到 Transformer 解码器中,并与从查询生成器生成的对象查询进行交互。更新后的对象查询用于预测对象类别以及 3D 边界框。
1.1. Images Backbone
采用resnet 或者 vovNet,下面的x表示concatenate
1.2. 3D Coordinates Generator
坐标生成跟ISS类似,假设一系列深度值,再有相机内存进行坐标转换
1.3. 3D Position Encoder
将多视图2D图像特征输入到1×1卷积层以进行降维。这个由三维坐标生成器生成的三维坐标被转换为通过多层感知的3D位置嵌入。3D位置嵌入与同一视图的2D图像特征相加,生成3D位置感知功能。最后,3D位置感知特征被展平并且用作变换器解码器的输入。
这里2D部分是经过三角函数编码后与3DpositionEmb相加作为K,原始的image feature作为V 输入transformer Decoder。
1.4. Transformer Decoder
为了缓解在3D场景中的收敛困难,类似于Anchor DETR,我们首先在均匀分布的3D世界空间中初始化一组可学习的锚点从0到1。然后将3D锚点的坐标输入到小MLP具有两个线性层的网络,并生成初始对象查询Q0。在我们的实践中,在三维空间中使用锚点可以保证收敛在采用DETR中的设置或生成锚点的同时在BEV空间中不能实现令人满意的检测性能。
1.5. Head and Loss
检测头主要包含用于分类和回归的两个分支。来自解码器的更新后的对象查询被输入到检测头,以预测对象类别的概率以及 3D 边界框。请注意,回归分支相对于锚点的坐标预测相对偏移量。为了与 DETR3D 进行公平比较,我们在分类中也采用了焦点损失,在 3D 边界框回归中采用了 L1 损失。令 y = (c, b) 和分别表示真实值和预测值的集合。匈牙利算法用于在真实值和预测值之间进行标签分配。假设 σ 是最优分配函数,那么 3D 对象检测的损失可以总结为:
这里表示分类的焦点损失,是回归的 L1 损失。是一个超参数,用于平衡不同的损失。
1.6. 实验
训练资源如下:
代码执行图:
可视化效果
时延测试:
extract_feat_time | 0.0166 |
positional_encod_time | 0.0150 |
transformer_time | 0.0074 |
fnn_time | 0.0031 |
get_bboxes_time | 0.0015 |
2. PETRv2
PETRv2的整体框图如下,与PETR不同的地方在于加入了时序模块,分割头,以及改变了 3D Position Encoder。
2.1. Temporal Modeling
对于某一个view的相机来说,t时刻和t-1时刻构建的视锥模型(坐标值)是一模一样的,通过内外参变换到lidar/ego坐标系后的值也是一模一样的。但是不管从哪个坐标系来说,如果自车运动,上一时刻的坐标和当前时刻的坐标一定是不同的,因此需要进行坐标对齐。
全局坐标系作为一个桥梁可以很好的将t时刻和t-1时刻进行连接。本文以lidar坐标系为基础进行计算。t-1时刻到t时刻坐标的变换就是将t-1时刻的坐标从lidar坐标系变到ego坐标系,再到global坐标系(固定不变),再从global坐标系到t时刻的ego坐标系,再到t时刻lidar坐标系,这就完成了t-1时刻lidar坐标系坐标到t时刻lidar坐标系坐标的变换。
公式2中表示的就是在t-1时刻的lidar坐标系中的坐标变换到t时刻的lidar坐标系中的坐标。左侧的P就是t-1时刻的lidar坐标系中的坐标在t时刻lidar坐标系中的坐标值。t时刻的lidar坐标系和t-1时刻的lidar坐标系是不同的,是变化了的,所以需要一个不会变化的global坐标系作为桥梁。
3D坐标在对齐之后,前后帧直接cat起来,同时前后帧的2D特征也直接cat起来。个人感觉可以这样理解,对于一个视锥模型(D*4, H, W),变换到lidar坐标系后也是这样的tensor结构,也就是空间上看,还是这样一个视椎体。前后帧如果单独来看没有区别,数值都是一样的。但是在对t-1时刻的坐标进行变换后,这些坐标的值发生了变化,但是tensor结构没有发生变化依旧是(D*4, H, W),那么对于H, W的某个位置x和y来说,t时刻是一条射线上的若干点坐标,t-1时刻变换到t时刻,同样的位置x和y处是上一时刻的一一对应的坐标,这表示的就是坐标的变化,这条射线上每个点在△t内坐标的变化。而2D特征的cat就是t时刻和t-1时刻特征的组合,用来增强特征表达。
2.2. Multi-task Learning
不同的任务使用task-specific的queries,anchor points的选择不同。
3d目标检测的检测头和PETR中是一样的,learnable anchors通过mlp形成queries。
分割是把高分辨率的bev map分成小的patch,每个query负责一个特定的patch,比如bev map中左上25*25像素的patch。在bev空间中使用固定的anchor points初始化queries,然后通过一个2层的MLP生成seg queries,这些queries在decoder中不断更新最后输入到分割头,和CVT中的decoder相似,预测最终的分割结果。
车道线的表达使用的是一系列的3D坐标,比如在深度方向(y)上均匀采样100个点,每条车道线如果在y上的某个点可见就有相对应的x和z值,如果不可见就不关注,说明这个y值的地方没有车道线,一般可见性都是连续的,某一段y值区域连续可见,有对应的x和z,这样通过散点的形式表示一条线。
定义anchor lane平行于y轴,选择anchor points生成lane quereis,最后预测类别,相对于anchor lane的x和z轴的offsets和每个位置的可见性。
3. StreamPETR
StreamPETR的总体架构。内存队列存储历史对象查询。在Propagation Transformer中,最近的对象查询依次与历史查询和当前图像特征交互,以获得时间和空间信息。输出查询被进一步用于生成检测结果,并且前K个非背景目标查询被推送到存储器队列中。通过存储器队列的循环更新,长期时间信息被逐帧传播。
3.1. Propagation Transformer模块
Propagation Transformer和MLN 的细节。在PT中,object查询与混合查询和图像特征进行迭代交互。运动感知层规范化对运动属性进行编码(姿态、时间戳、速度),并隐式地执行补偿。不同色调的矩形象征着来自不同帧,灰色矩形表示当前帧的初始化查询,虚线矩形对应于背景查询。
3.2. Hybrid Attention
Hybrid Attention在这里用于取代原生的self-attention。首先它起到self-attention的作用,对于当前帧的重复框进行抑制。其次,当前帧的object query还需要和历史帧object query做类似cross attention操作,进行时序的交互。 由于hybrid queries远小于cross attention中 image token的数量,因此所带来的额外计算量可以忽略不计。此外历史object query也会传递到当前帧为当前帧提供更好的初始化(propagate query)。
参考文献
https://zhuanlan.zhihu.com/p/660293688
https://zhuanlan.zhihu.com/p/689481109
PETRv2: A Unified Framework for 3D Perception from Multi-Camera Images
PETR: Position Embedding Transformation for Multi-View 3D Object Detection