【多视图感知】BEVFormer: Learning Bird’s-Eye-View Representation

news2024/7/4 6:26:06

BEVFormer: Learning Bird’s-Eye-View Representation from Multi-Camera Images via Spatiotemporal Transformers

论文链接:http://arxiv.org/abs/2203.17270

代码链接:https://github.com/fundamentalvision/BEVFormer

一、摘要

  本文提出了一种名为BEVFormer的新框架,通过时空transformer学习统一的鸟瞰图表征,以支持多个自动驾驶感知任务。BEVFormer通过预定义的网格状BEV查询与空间和时间空间进行交互,从而利用空间和时间信息。为了聚合空间信息,设计了空间交叉注意力,每个BEV查询从不同摄像头视图中提取感兴趣区域的空间特征。对于时间信息,提出了时间自注意力,以循环地融合历史BEV信息。所提方法在nuScenes的test数据集上以NDS指标达到了新的最优56.9%,比之前最佳结果高出9.0个百分点,并且与基于LiDAR的基线模型性能相当。
在这里插入图片描述

文章目录

  • BEVFormer: Learning Bird’s-Eye-View Representation from Multi-Camera Images via Spatiotemporal Transformers
    • 一、摘要
    • 二、创新点
    • 三、原理
      • 1、Overall Architecture
      • 2、BEV Queries
      • 3、Spatial Cross-Attention
      • 4、Temporal Self-Attention
      • 5、Applications of BEV Features
      • 6、Implementation Details
    • 四、实验
      • 1、Datasets
      • 2、Experimental Settings
      • 3、3D Object Detection Results
      • 4、Multi-tasks Perception Results
      • 5、Ablation Study
      • 6、Visualization Results
    • 五、总结

二、创新点

关键问题:在自动驾驶中,通过多个相机给出的二维线索,预测周围场景的三维边界框或语义地图是一种期望的视觉感知。最直接的解决方案是基于单目框架[45,44, 31, 35, 3]和跨相机后处理。这种框架的缺点是它单独处理不同视图,无法捕捉相机间的信息,导致性能和效率低[32, 47]。

  BEVFormer包含三个关键设计,分别是:

  • (1)网格状的BEV查询,通过注意机制灵活地融合空间和时间特征;

  • (2)空间交叉注意模块,用于聚合来自多视角摄像头的空间特征;

  • (3)时间自注意模块,用于从历史BEV特征中提取时间信息,有助于移动物体的速度估计和严重遮挡物体的检测,同时带来可忽略的计算开销。

  通过BEVFormer生成的统一特征,模型可以与不同的任务特定头部(如Deformable DETR [56]和mask decoder[22])协同工作,实现端到端的3D物体检测和地图分割。

创新点

  • 提出了BEVFormer,一种时空transformer编码器,将多视角和/或时间戳输入投影到BEV表征中。通过统一的BEV特征,我们的模型可以同时支持多个自动驾驶感知任务,包括3D检测和地图分割。

  • 设计了可学习的BEV查询,以及一个空间交叉注意层和一个时间自注意层,分别用于从交叉摄像头中查找空间特征和从历史BEV中查找时间特征,然后将它们聚合成统一的BEV特征。

  • 在多个具有挑战性的基准测试中评估了提出的BEVFormer,包括nuScenes [4]和Waymo[40]。BEVFormer始终比先前的方法表现更好。例如,在可比的参数和计算开销下,BEVFormer在nuScenes的test集上达到了56.9%的NDS,比之前最好的检测方法DETR3D[47]高出9.0个百分点(56.9% vs. 47.9%)。地图分割任务实现了最先进的性能,比最具挑战的车道分割方法Lift-Splat [32]高出5.0个百分点以上。
    在这里插入图片描述

三、原理

  文中提出了一种基于transformer的新框架用于BEV生成,该框架可以通过注意机制有效地聚合多视角摄像头历史BEV特征的时空特征

1、Overall Architecture

  如图2所示,BEVFormer 模型具有6 个编码器层,每个层都遵循传统transformer 模型的结构[42],但有三个定制设计,即BEV queries空间交叉注意力时间自注意力。具体而言,BEV queries 是网格状的可学习参数,旨在通过注意力机制从多摄像头视图中查询BEV空间的特征。空间交叉注意力和时间自注意力是与BEV queries 一起工作的注意力层,用于根据BEV查询从多摄像头图像中查找和聚合空间特征以及从历史BEV中获取时间特征

  在推断过程中,在时间戳 t t t,将多摄像头图像输入到骨干网络(例如,ResNet-101 [15]),并获得不同摄像头视图的特征 F t = F t i i = 1 N v i e w F_{t} = {F^{i}_{t}}^{N_{view}}_{i=1} Ft=Ftii=1Nview,其中 F t i F^{i}_{t} Fti 是第 i i i个视图的特征, N v i e w N_{view} Nview是摄像头视图的总数。同时保留了先前时间戳 t − 1 t−1 t1的BEV 特征 B t − 1 B_{t−1} Bt1。在每个编码器层中,首先使用BEV queries Q Q Q通过时间自注意力从先前的BEV 特征 B t − 1 B_{t−1} Bt1查询时间信息。然后,使用BEV queries Q Q Q通过空间交叉注意力从多摄像头特征 F t F_{t} Ft 查询空间信息。在经过前馈网络[42]后,编码器层输出经过改进的BEV特征,这是下一个编码器层的输入。经过6个堆叠的编码器层,生成当前时间戳 t t t的统一 BEV 特征 B t B_{t} Bt。将 BEV 特征 B t B_{t} Bt 作为输入,3D检测头和地图分割头预测感知结果,如3D边界框和语义地图。

2、BEV Queries

  预定义了一组网格状可学习参数 Q ∈ R H × W × C Q \in R^{H \times W \times C} QRH×W×C作为BEVFormer的查询(queries),其中 H H H, W W W 是BEV平面的空间形状。具体而言,位于 Q Q Q p = ( x , y ) p = (x,y) p=(x,y) 处的查询 Q p ∈ R 1 × C Q_{p} \in R^{1 \times C} QpR1×C 负责BEV平面中相应的网格单元区域。BEV平面中的每个网格单元对应于实际世界中 s s s米的大小。BEV特征的中心默认对应于自车的位置。按照常见做法 [14],在输入BEV查询Q到BEVFormer之前,添加可学习的位置嵌入(positional embedding)。

3、Spatial Cross-Attention

  由于多摄像头3D感知的大输入规模(包含 N v i e w N_{view} Nview个摄像头视图),普通的多头注意力 [42]的计算成本非常高。因此,基于可变形注意力 [56]开发了基于空间交叉注意力的注意力层,这是一种资源高效的注意力层,其中每个BEV查询 Q p Q_{p} Qp只与其在摄像头视图中感兴趣的区域进行交互。然而,可变形注意力最初是为2D感知设计的,因此需要对3D场景进行一些调整。

  如图 2(b)所示,首先将BEV平面上的每个查询提升到柱状查询[20],从柱状体中采样 N r e f N_{ref} Nref个3D参考点,然后将这些点投影到2D视图上。对于一个BEV查询,投影的2D点只能落在某些视图上,其他视图没有命中。在这里,将命中的视图称为 V h i t V_{hit} Vhit。之后将这些2D点视为查询 Q p Q_{p} Qp的参考点,并从命中的视图 V h i t V_{hit} Vhit周围采样特征。最后,对采样到的特征进行加权求和,作为空间交叉注意力的输出。空间交叉注意力(SCA)的过程可以表示为:
S C A ( Q p , F t ) = 1 ∣ V h i t ∣ ∑ i ∈ V h i t ∑ j = 1 N r e f D e f o r m A t t n ( Q p , P ( p , i , j ) , F t i ) ,   ( 2 ) SCA(Q_{p}, F_{t}) = \frac{1}{|V_{hit}|} \sum_{i \in V_{hit}} \sum^{N_{ref}}_{j=1}DeformAttn(Q_{p}, P(p, i, j), F^{i}_{t}), \ (2) SCA(Qp,Ft)=Vhit1iVhitj=1NrefDeformAttn(Qp,P(p,i,j),Fti), (2)

其中, i i i 表示相机视角的索引, j j j表示参考点的索引, N r e f N_{ref} Nref是每个鸟瞰图查询的总参考点数。 F … … i t F……{i}_{t} F……it 是第 i i i个相机视角的特征。对于每个鸟瞰图查询 Q p Q_{p} Qp使用投影函数 P ( p , i , j ) P(p,i,j) P(p,i,j)来获取第 i i i个视角图像上的第 j j j个参考点。接下来介绍如何从投影函数 P P P中获取视角图像上的参考点。首先,根据公式3计算查询 Q p Q_{p} Qp Q Q Q的位置 p = ( x , y ) p = (x,y) p=(x,y)对应的实际世界位置 ( x ′ , y ′ ) (x′,y′) (x,y)

x ′ = ( x − W 2 ) × s ;   y ′ = ( y − H 2 ) × s ,   ( 3 ) x' = (x - \frac{W}{2}) \times s; \ y'=(y - \frac{H}{2}) \times s, \ (3) x=(x2W)×s; y=(y2H)×s, (3)

其中, H H H W W W是BEV查询的空间形状, s s s是BEV网格分辨率的大小, ( x ′ , y ′ ) (x′,y′) (x,y)以自车位置为原点的坐标。在3D空间中,位于 ( x ′ , y ′ ) (x′,y′) (x,y)处的物体将出现在 z z z轴上的高度 z ′ z′ z处。因此,预定义了一组锚点高度${z′{j}}^{N{ref}}_{j=1},以确保可以捕捉到出现在不同高度的线索。

  通过这种方式,对于每个查询 Q p Q_{p} Qp,获得了一个3D参考点柱 ( x ′ , y ′ , z ′ j ) j = 1 N r e f (x′,y′,z′_{j})^{N_{ref}}_{j=1} (x,y,zj)j=1Nref。最后通过相机的投影矩阵将3D参考点投影到不同的图像视图中,可以表示为:
P ( p , i , j ) = ( x i j , y i j ) w h e r e   z i j ⋅ [ x i j , y i j , 1 ] T = T i ⋅ [ x ′   y ′   z j ′   1 ] T .   ( 4 ) P(p, i, j) = (x_{ij}, y_{ij}) \\ where \ z_{ij} \cdot [x_{ij}, y_{ij}, 1]^{T} = T_{i} \cdot [x' \ y' \ z'_{j} \ 1]^{T}. \ (4) P(p,i,j)=(xij,yij)where zij[xij,yij,1]T=Ti[x y zj 1]T. (4)
  这里, P ( p , i , j ) P(p,i,j) P(p,i,j) 是从第 j j j个3D 点 ( x ′ , y ′ , z ′ j ) (x′,y′,z′j ) (x,y,zj) 投影到第 i i i个视角上的2D 点, T i ∈ R 3 × 4 T_{i} \in R^{3 \times 4} TiR3×4 是第 i i i个相机的已知投影矩阵

4、Temporal Self-Attention

  除了空间信息外,时间信息对于视觉系统理解周围环境也是至关重要的[27]。例如,在没有时间线索的静态图像中,很难推断移动物体的速度或检测高度遮挡的物体。为了解决这个问题,作者设计了时间自注意力,它可以通过融合历史鸟瞰图特征来表示当前环境

  给定当前时间戳 t t t的鸟瞰图查询 Q Q Q和保存在时间戳 t − 1 t −1 t1的历史鸟瞰图特征 B t − 1 B_{t−1} Bt1,首先根据自车运动将 B t − 1 B_{t−1} Bt1对齐到 Q Q Q,使得相同网格上的特征对应到相同的现实世界位置。将对齐后的历史鸟瞰图特征 B t − 1 B_{t−1} Bt1表示为 B ′ t − 1 B′_{t−1} Bt1。然而,从 t − 1 t −1 t1 t t t的时间段内,可移动物体在现实世界中以各种偏移量移动。在不同时间的鸟瞰图特征之间构建相同物体的精确关联是具有挑战性的。因此,我们通过时间自注意力(TSA)层来建模特征之间的时间连接,其可以表示为以下形式:
T S A ( Q p , Q , B t − 1 ′ ) = ∑ V ∈ Q , B t − 1 ′ D e f o r m A t t n ( Q p , p , V ) ,   ( 5 ) TSA(Q_{p},{Q, B'_{t-1}}) = \sum_{V \in {Q,B'_{t-1}}} DeformAttn(Q_{p}, p, V), \ (5) TSA(Qp,Q,Bt1)=VQ,Bt1DeformAttn(Qp,p,V), (5)

其中, Q p Q_{p} Qp 表示位于 p = ( x , y ) p = (x,y) p=(x,y)处的BEV查询。此外,与普通的可变形注意力不同,时序自注意力中的偏移量 ∆ p ∆p p 是由 Q Q Q B ′ t − 1 B′_{t−1} Bt1的串联预测得到的。特别地,在每个序列的第一个样本中,时序自注意力将退化为没有时序信息的自注意力,将BEV 特征 Q , B ′ t − 1 {Q,B′_{t−1}} Q,Bt1替换为重复的BEV查询 Q , Q {Q,Q} Q,Q

  与简单堆叠BEV的方法[18, 38, 6] 相比,时序自注意力可以更有效地建模长时序依赖关系BEVFormer 从先前的BEV特征中提取时序信息,而不是多次堆叠BEV 特征,因此需要更少的计算成本,并且受到更少的干扰信息的影响。

5、Applications of BEV Features

  由于鸟瞰视角特征 B t ∈ R H × W × C B_{t} \in R^{H \times W \times C} BtRH×W×C是一种多功能的二维特征图,可用于各种自动驾驶感知任务,基于二维感知方法[56, 22] 可以开发出3D物体检测地图分割任务头,只需进行轻微修改。

对于3D物体检测,设计了一个基于二维检测器Deformable DETR [56]的端到端3D检测头。修改包括使用单尺度的BEV特征 B t B_{t} Bt 作为解码器的输入,预测3D边界框和速度而不是2D边界框,并且仅使用L1 损失来监督3D边界框回归。通过检测头,模型可以端到端地预测3D边界框和速度,无需进行NMS后处理。

  对每个3D边界框预测10个参数,包括每个框的3个参数 ( l , w , h ) (l,w,h) (l,w,h)表示尺度,3个参数 ( x o , y o , z o ) (x_{o},y_{o},z_{o}) (xo,yo,zo)表示中心位置,2个参数 ( c o s ( θ ) , s i n ( θ ) ) (cos(θ), sin(θ)) (cos(θ),sin(θ))表示物体的偏航角 θ θ θ,2个参数 ( v x , v y ) (v_{x},v_{y}) (vx,vy)表示速度。在训练阶段只使用L1损失和L1成本。根据 [47],使用900个对象查询,在推理过程中保留300个具有最高置信度得分的预测框

对于地图分割,设计了一个基于二维分割方法Panoptic SegFormer [22]的地图分割头。由于基于BEV的地图分割基本上与常见的语义分割相同,利用 [22] 的掩码解码器固定类别查询来定位每个语义类别,包括车辆、道路(可行驶区域)和车道。
在这里插入图片描述

  如图5所示,对于语义地图的每个类别,遵循[22]中的掩码解码器,使用一个可学习的查询来表示该类别,并根据来自基本多头注意力的注意力图生成最终的分割掩码。

6、Implementation Details

训练阶段。对于每个时间戳 t t t的样本,从过去2秒的连续序列中随机选择另外3个样本,这种随机采样策略可以增加自我运动的多样性[57]。将这四个样本的时间戳表示为 t − 3 t−3 t3 t − 2 t−2 t2 t − 1 t−1 t1 t t t。对于前三个时间戳的样本,它们负责循环生成BEV特征 B t − 3 , B t − 2 , B t − 1 {B_{t−3},B_{t−2},B_{t−1}} Bt3,Bt2,Bt1,这个阶段不需要梯度。对于时间戳 t − 3 t−3 t3的第一个样本,没有先前的BEV特征,时间自注意力退化为自注意力。在时间 t t t,模型基于多摄像头输入和先前的BEV特征 B t − 1 B_{t−1} Bt1生成BEV特征 B t B_{t} Bt,使得 B t B_{t} Bt包含跨越四个样本的时间和空间线索。最后,将BEV特征 B t B_{t} Bt输入到检测和分割头部,并计算相应的损失函数

推理阶段。按照时间顺序评估视频序列的每一帧。上一个时间戳的BEV特征被保存并用于下一个时间戳,这种在线推理策略既高效又符合实际应用。尽管利用了时间信息,但推理速度仍然与其他方法相当[45, 47]。

四、实验

1、Datasets

  在两个具有挑战性的公共自动驾驶数据集上进行实验,分别是nuScenes数据集[4]和Waymo开放数据集[40]。

nuScenes数据集[4]包含1000个大约持续20秒的场景,关键样本以2Hz的频率进行注释。每个样本由来自6个摄像头的RGB图像组成,具有360°的水平视场。对于检测任务,有来自10个类别的1.4M个注释的3D边界框。作者按照[32]中的设置进行BEV分割任务。该数据集还为检测任务提供了官方评估指标。nuScenes的平均精度均值(mAP)是使用地面平面上的中心距离而不是3D交并比(IoU)来匹配预测结果和真实值的。nuScenes指标还包含5种真正阳性指标(TP指标),包括ATE、ASE、AOE、AVE和AAE,用于测量平移、尺度、方向、速度和属性误差。nuScenes还定义了nuScenes检测得分 (NDS),即 N D S = 1 10 [ 5 m A P + ∑ m T P ∈ T P ( 1 − m i n ( 1 , m T P ) ) ] NDS = \frac{1}{10} [5mAP + \sum_{mTP \in TP}(1 −min(1,mTP))] NDS=101[5mAP+mTPTP(1min(1,mTP))],以捕捉nuScenes检测任务的所有方面。

Waymo开放数据集 [40]是一个大规模的自动驾驶数据集,包含798个训练序列和202个验证序列。需要注意的是,Waymo每帧提供的五个图像的水平视场约为252°,但提供的注释标签在自车周围360°。在训练和验证集中删除那些在任何图像上都不可见的边界框。由于Waymo开放数据集是大规模和高频率的[34],使用训练序列中每5个帧进行采样的子集,并且仅检测车辆类别。使用3D IoU的阈值0.5和0.7来计算Waymo数据集上的mAP。

2、Experimental Settings

  采用了两种类型的骨干网络:ResNet101-DCN [15, 12],它从FCOS3D [45]的检查点初始化,以及VoVnet-99 [21],它从DD3D [31]的检查点初始化。默认情况下,使用FPN [23]的多尺度特征输出,尺度为1/16、1/32、1/64,维度为C = 256。对于nuScenes的实验,默认的BEV查询大小为 200 × 200 200 \times 200 200×200,感知范围为 X X X Y Y Y轴的[−51.2m,51.2m],BEV网格的分辨率s为 0.512 m 0.512m 0.512m。为BEV查询采用可学习的位置嵌入。BEV编码器包含6个编码器层,并在每一层中不断优化BEV查询。每个编码器层的输入BEV特征 B t − 1 B_{t−1} Bt1相同且不需要梯度。对于每个局部查询,在由可变形注意力机制实现的空间交叉注意力模块中,它对应于3D空间中具有不同高度的 N r e f = 4 N_{ref} = 4 Nref=4个目标点,预定义的高度锚点均匀采样自−5米到3米。对于2D视图特征上的每个参考点,为每个头部周围的该参考点使用四个采样点

  默认情况下,使用24个轮次、学习率为 2 × 1 0 − 4 2 \times 10^{−4} 2×104来训练模型。每个GPU上的批次大小为1(包含6个视角图像)。骨干网络的学习率乘数为0.1,并且用余弦退火[24]来衰减学习率。采用AdamW [25]进行模型优化,权重衰减为 1 × 1 0 − 2 1×10^{−2} 1×102

  对于Waymo的实验,进行了一些设置更改。由于Waymo的摄像系统无法捕捉到自车周围的整个场景 [40],默认的BEV查询空间形状为 300 × 220 300 \times 220 300×220,感知范围为 X X X轴的[−35.0m, 5.0m]和 Y Y Y轴的[−75.0m, 75.0m]。每个网格的分辨率 s s s为0.5m。自车位于BEV的(70, 150)处。

3、3D Object Detection Results

  仅使用检测头在检测任务上训练所提模型,以便与先前的最先进的3D物体检测方法进行公平比较。
在这里插入图片描述

  表1和表2报告了在nuScenes的test和val数据集上的主要结果。在公平的训练策略和可比较的模型规模下,所提方法在val数据集上相对于先前最佳方法DETR3D [47]提高了9.2个百分点(51.7% NDS vs. 42.5% NDS)。在test数据集上,模型在没有任何额外技巧的情况下达到了56.9% NDS,比DETR3D (47.9% NDS)高出9.0个百分点。所提方法甚至可以达到与一些基于LiDAR的基准方法相当的性能,例如SSN(56.9% NDS)[55]和PointPainting(58.1% NDS)[43]。
在这里插入图片描述

  先前的基于相机的方法 [47, 31, 45]几乎无法估计速度,而该方法表明时间信息在多相机检测中对速度估计起着关键作用。BEVFormer在test数据集上的平均速度误差(mAVE)为0.378 m/s,远远优于其他基于相机的方法,并接近基于LiDAR的方法的性能[43]。

在这里插入图片描述

  在Waymo上进行了实验,如表3所示。根据 [34],使用IoU为0.7和0.5的标准来评估车辆类别。此外,由于很少有基于相机的工作在Waymo上报告结果,还使用DETR3D的官方代码在Waymo上进行实验进行比较。可以观察到,BEVFormer在LEVEL_1和LEVEL_2难度上,使用IoU为0.5的标准,相对于DETR3D的平均精度 (APH)[40]提高了6.0%和2.5%。在nuScenes指标上,BEVFormer相对于DETR3D的NDS提高了3.2%,AP提高了5.2%。还在前置摄像头上进行实验,将BEVFormer与CaDNN [34]进行比较,CaDNN是一种在Waymo数据集上报告结果的单目3D检测方法。BEVFormer在LEVEL_1和LEVEL_2难度上,使用IoU为0.5的标准,相对于CaDNN的APH提高了13.3%和11.2%

4、Multi-tasks Perception Results

在这里插入图片描述

  使用检测和分割头部训练所提模型,以验证模型对多任务的学习能力,并且结果如表 4 所示。在相同设置下比较不同的BEV编码器时,除了道路分割结果与BEVFormer-S相当外,BEVFormer在所有任务上都取得了更高的性能。例如,在联合训练中,BEVFormer在检测任务上的性能优于Lift-Splat∗ [32] 11.0个点(52.0% NDS v.s.41.0%NDS),在车道分割的IoU上优于5.6个点(23.9% v.s. 18.3%)。与单独训练任务相比,多任务学习通过共享更多模块(包括骨干和BEV编码器)节省了计算成本并减少了推理时间。

  本文展示了BEV编码器生成的BEV特征可以很好地适应不同的任务,并且使用多任务头部进行模型训练在检测任务和车辆分割上表现得更好。然而,联合训练的模型在道路和车道分割上的表现不如单独训练的模型,这是多任务学习中的一种常见现象,称为负迁移[11, 13]。

5、Ablation Study

  深入研究不同模块的效果,我们在nuScenes的val数据集上进行了带有检测头的消融实验。更多的消融研究见附录C。

在这里插入图片描述

空间交叉注意力的有效性。为了验证空间交叉注意力的效果,使用BEVFormer-S进行消融实验,排除了时间信息的干扰,结果如表5所示。默认的空间交叉注意力基于可变形注意力。为了比较,还构建了另外两个基准模型,使用不同的注意力机制:(1)使用全局注意力替代可变形注意力;(2)使每个查询只与其参考点交互,而不是周围的局部区域,类似于之前的方法[36, 37]。为了更广泛地比较,还将BEVFormer替换为VPN [30]和Lift-Spalt [32]提出的BEV生成方法。可以观察到,在可比较的模型规模下,可变形注意力明显优于其他注意力机制。全局注意力消耗了太多的GPU内存,点交互的感受野有限。稀疏注意力在与先验确定的感兴趣区域交互时表现更好,平衡了感受野和GPU消耗。

时间自注意力的有效性。从表 1和表 4可以看出,在相同的设置下,BEVFormer相比BEVFormer-S有显著的改进,特别是在具有挑战性的检测任务上。时间信息的效果主要体现在以下几个方面:(1)引入时间信息极大地提高了速度估计的准确性;(2)有了时间信息,对象的预测位置和方向更准确;(3)由于时间信息包含过去对象的线索,对被严重遮挡的对象有更高的召回率,如图3所示。
在这里插入图片描述

  为了评估BEVFormer在不同遮挡级别的对象上的性能,根据nuScenes提供的官方可见性标签将验证集分为四个子集。在每个子集中,还计算了所有类别在中心距离阈值为2米的匹配过程中的平均召回率。为了公平比较召回率,所有方法的最大预测框数为300个。在只有0-40%的对象可见的子集上,BEVFormer的平均召回率比BEVFormer-S和DETR3D高出6.0%以上。

在这里插入图片描述

模型规模和延迟。在表 6中比较了不同配置的性能和延迟。从三个方面对BEVFormer的规模进行了消融实验,包括是否使用多尺度视图特征BEV查询的形状以及层数,以验证性能和推理延迟之间的权衡。可以观察到,在BEVFormer中使用一个编码器层的配置C实现了50.1%的NDS,并将BEVFormer的推理延迟从原来的130ms降低到25ms。配置D使用单尺度视图特征、较小的BEV尺寸和仅1个编码器层,在推理过程中仅消耗7ms,尽管与默认配置相比损失了3.9个点。然而,由于多视图图像输入,限制效率的瓶颈在于骨干网络,自动驾驶的高效骨干网络值得深入研究。总体而言,我们的架构可以适应各种模型规模,并能灵活地在性能和效率之间进行权衡。

6、Visualization Results

在这里插入图片描述

  在图4中展示了一个复杂场景的检测结果。BEVFormer 在大部分情况下都产生了令人满意的结果,只有在一些小型和远距离物体上出现了一些错误。更多的定性结果请参见附录D。

五、总结

  本文提出了BEVFormer来从多摄像头输入中生成鸟瞰图特征。BEVFormer能够高效地聚合空间和时间信息,并生成强大的鸟瞰图特征,同时支持3D检测和地图分割任务

局限性。目前,基于摄像头的方法在效果和效率上仍然与基于LiDAR的方法存在一定差距。从2D信息准确推断3D位置仍然是基于摄像头的方法面临的长期挑战。

更广泛的影响。BEVFormer证明了利用多摄像头输入的时空信息可以显著提高视觉感知模型的性能。BEVFormer展示的优势,如更准确的速度估计和对低可见物体的更高召回率,对于构建更好、更安全的自动驾驶系统以及其他领域至关重要。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1833333.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Marin说PCB之orcad-capture原理图封装库的创建总结----01

今天是个不错的日子,我早上一出门刚骑车到半路就开始下大雨了,可是天气预报上明明说的没有雨啊,所以说天气预报就像是女人的脾气一样,难以揣摩啊,也尽量少去揣摩吧。 小编我刚刚到公司,就收到美国分部同事J…

Nginx + KeepAlived高可用负载均衡集群

目录 一、Keepealived脑裂现象 1.现象 2.原因 3.解决 4.预防 二、实验部署 1.两台nginx做初始化操作并安装nginx 2.四层反向代理配置 3.配置高可用 4.准备检查nginx运行状态脚本 5.开启keepalived服务并测试 一、Keepealived脑裂现象 1.现象 主服务器和备服务器都同…

喜讯 | 全视通获得珠海市第七届“市长杯”工业设计大赛三等奖

近日,在珠海市举行的第七届“市长杯”工业设计大赛颁奖典礼上,珠海全视通信息技术有限公司(以下简称“全视通”)凭借创新的“医护对讲一体终端机”产品,历经激烈的竞争和严格的评选流程,包括大赛宣传发动、…

移植案例与原理 - startup子系统之syspara_lite系统属性部件 (2)

系统属性部件syspara_lite负责提供获取与设置操作系统相关的系统属性,包括默认系统属性、OEM厂商系统属性和自定义系统属性。为满足OpenHarmony产品兼容性规范,产品解决方案需要实现获取设备信息的接口,如:产品名、品牌名、厂家名…

手持气象仪:科技与自然交汇的奇妙工具

TH-SQ5在广袤无垠的大自然中,天气总是瞬息万变,让人难以捉摸。然而,随着科技的进步,人类已经能够借助各种先进的仪器来预测和监测天气变化,其中,手持气象仪便是其中的佼佼者。 手持气象仪,顾名…

聚焦 Navicat 17 新特性 | 查询与配置的革新之处

随着 Navicat 17 的发布,引起业界热烈讨论与关注,这也标志着 Navicat 的产品力再次飞跃。新版本引入的众多创新特性极大地提升了用户在数据库管理和数据分析方面的体验,涵盖模型设计与同步、数据字典、数据分析(data profiling&am…

安卓手机删除文件怎么找回?2个方法,一键救援错过的数据

我们通过手机拍照、录音、录像、浏览网页、社交互动等方式记录和分享生活中的每一个瞬间。然而,手机中的数据也是我们最容易误删的。 当我们不小心删除了重要的文件或数据时,将给生活和工作带来不小的困扰。那么,删除文件怎么找回呢&#xf…

人脸识别系统---年龄预测

一、预测年龄 1.加载预训练的人脸检测模型 face_cascade cv2.CascadeClassifier(haarcascade_frontalface_default.xml)2.加载预训练的性别和年龄识别模型 gender_net cv2.dnn.readNetFromCaffe(deploy_gender.prototxt, gender_net.caffemodel) age_net cv2.dnn.readNet…

英语恶补ing

ing的词组都有停下来做某事的感觉了。 second hand是形容词了。 wouldnt buy这里的would是情态动词,也是助动词 助动词不能单独使用,要搭配实义动词,这样才能构成谓语 情态动词(modals)在英语中有多种作用&#xff…

Linux系统编程——网络编程

目录 一、对于Socket、TCP/UDP、端口号的认知: 1.1 什么是Socket: 1.2 TCP/UDP对比: 1.3 端口号的作用: 二、字节序 2.1 字节序相关概念: 2.2 为什么会有字节序: 2.3 主机字节序转换成网络字节序函数…

springboot + Vue前后端项目(第十七记)

项目实战第十七记 写在前面1. 个人信息1.1 Person.vue1.2 设置路由并改动Header.vue1.3 动态刷新头像1.3.1 在保存个人信息时,触发方法1.3.2 父组件Manage.vue1.3.3 再将user以prop方式传递给子组件Header.vue1.3.4 Header.vue使用user 1.4 效果图 2. 修改密码2.1 前…

《跟我一起学“网络安全”》——等保风评加固应急响应

等保风评加固应急响应 一、安全加固 背景 随着IP技术的飞速发展,一个组织的信息系统经常会面临内部和外部威胁的风险,网络安全已经成为影响信息系统的关键问题。 虽然传统的防火墙等各类安全产品能提供外围的安全防护,但并不能真正彻底的消…

每日复盘-202406017

今日关注: 20240617 六日涨幅最大: ------1--------301036--------- 双乐股份 五日涨幅最大: ------1--------301176--------- 逸豪新材 四日涨幅最大: ------1--------300868--------- 杰美特 三日涨幅最大: ------1--------301082--------- 久盛电气 二日涨幅最大…

day02论文学习:能够使大语言模型产生带有引用的文章

1.主题:Enabling Large Language Models to Generate Text with Citations(能够使大语言模型产生带有引用的文章) 引用出处: Gao, T., Yen, H., Yu, J., & Chen, D. (2023). Enabling Large Language Models to Generate Tex…

C#特性-CallerMemberName、CallerFilePath和CallerLineNumber的介绍和应用

介绍 在csharp中,CallerMemberName, CallerFilePath, 和 CallerLineNumber 是编译时常量,它们是csharp 5.0引入的特性,用于提供有关调用堆栈的信息,通常用于日志记录和调试。这些特性可以自动填充方法的参数,无需显式…

你必须知道的Linux基础知识(一)

Linux简介 类 Unix 系统 Linux 是一种自由、开放源码的类似 Unix 的操作系统 Linux 本质是指 Linux 内核 Linux 这个词本身只表示 Linux 内核,单独的 Linux 内核并不能成为一个可以正常工作的操作系统,所以Linux 出现了各种发行版。 Linux 之父 (林纳斯本纳第…

【系统架构设计师】一、计算机系统基础知识(指令系统|存储系统|输入输出技术|总线结构)

目录 一、指令系统 1.1 计算机指令 1.2 指令寻址方式 1.3 CISC 与 RISC 1.4 指令流水线 二、存储系统 2.1 分级存储体系 2.2 地址映射 2.3 替换算法 2.4 磁盘 2.4.1 磁盘结构和参数 2.4.2 磁盘调度算法 三、输入输出技术 四、总线结构 五、考试真题练习 一、指令…

-------------------------面试散文-----------------------------------

问题1:vue中动态引入图片,为什么使用require? 回答:因为动态添加的src 编译过后的文件地址和被编译过后的资源文件地址不一致,从而导致无法访问题 而使用require 返回的就是资源文件被编译后的文件地址,从…

Linux 按键输入实验

Linux 按键输入实验 1、添加 pinctrl 节点 首先修改在设备树里面添加关于按键的节点。I.MX6U-ALPHA 开发板上的 KEY 使用了 UART1_CTS_B 这个 PIN,打开 imx6ull-alientekemmc.dts,在 iomuxc 节点的 imx6ul-evk 子节点下创建一个名为“pinctrl_key”的子…