NuSences 数据集解析以及 nuScenes devkit 的使用

news2024/12/28 20:04:31

文章目录

  • 一、官网介绍
    • 1.1 总览(Overview)
      • 1.1.1 数据搜集(Data collection)
      • 1.1.2 传感器同步(Sensor synchronization)
    • 1.2 数据格式(Data format)
      • attribute
      • calibrated_sensor
      • category
      • ego_pose
      • instance
      • lidarseg
      • log
      • map
      • sample
      • sample_annotation
      • sample_data
      • scene
      • sensor
      • visibility
  • 二、使用教程
    • 2.1 数据集的下载
    • 2.2 nuScenes devkit 的使用
      • 2.2.1 Initialization
      • 2.2.2 scene
      • 2.2.3 sample
      • 2.2.4 sample_data
      • 2.2.5 sample_annotation
      • 2.2.6 instance
      • 2.2.7 category
      • 2.2.8 attribute
      • 2.2.9 visibility
      • 2.2.10 sensor
      • 2.2.11 calibrated_sensor
      • 2.2.12 ego_pose
      • 2.2.13 log
      • 2.2.14 map
    • 2.3 nuScenes Basics
      • 2.3.1 反向索引和快捷方式(Reverse indexing and short-cuts)
        • Reverse indices
        • Shortcuts
      • 2.3.2 数据可视化 (Data Visualizations)
        • List methods
        • Render
  • 参考

一、官网介绍

1.1 总览(Overview)

nuScenes数据集(发音为/nuːsiːnz/)是由Motional(前身为nuTonomy)团队开发的用于自动驾驶的公共大规模数据集。motion公司正在让无人驾驶汽车成为一个安全、可靠、方便的现实。通过向公众发布我们的一部分数据,motion旨在支持公众对计算机视觉和自动驾驶的研究。

为此,我们收集了波士顿和新加坡的1000个驾驶场景,这两个城市以交通密集和极具挑战性的驾驶情况而闻名。时长20秒的场景是手动选择的,展示了一组多样而有趣的驾驶动作、交通状况和意外行为。nuScenes的丰富复杂性将鼓励开发方法,使每个场景中有数十个物体的城市地区能够安全驾驶。收集不同大洲的数据进一步使我们能够研究计算机视觉算法在不同地区的泛化

为了方便常见的计算机视觉任务,例如对象检测和跟踪,我们在整个数据集上以2Hz的速度用精确的3D包围框注释了23个对象类。此外,我们还注释了对象级属性,如可见性、活动和姿势。

2019年3月,我们发布了包含所有1000个场景的完整nuScenes数据集。完整的数据集包括大约1.4M相机图像(camera images),390k激光雷达扫描(LIDAR sweeps),1.4M雷达扫描(RADAR sweeps)和1.4M物体边界框(object bounding boxes)在40k关键帧。其他功能(地图层,原始传感器数据等)将很快跟进。我们还组织了nuScenes 3D检测挑战,作为CVPR 2019自动驾驶研讨会的一部分。

nuScenes数据集的灵感来自开创性的KITTI数据集。**nuScenes是首个提供自动驾驶汽车整个传感器套件(6个摄像头、1个LIDAR、5个RADAR、GPS、IMU)数据的大规模数据集。**与KITTI相比,nuScenes包含了7倍多的对象注释。

2020年7月,我们发布了nuScenes-lidarseg。在nuScenes-lidarseg中,我们用32种可能的语义标签之一注释nuScenes中的关键帧中的每个激光雷达点(即激光雷达语义分割)。因此,nuScenes-lidarseg包含了14亿个注释点,横跨40000个点云和1000个场景(850个场景用于训练和验证,150个场景用于测试)。

1.1.1 数据搜集(Data collection)

  • 场景选择Scene planning

对于nuScenes数据集,我们在波士顿和新加坡收集了大约15小时的驾驶数据。对于完整的nuScenes数据集,我们发布了来自波士顿海港和新加坡One North、皇后镇和荷兰村地区的数据。驾驶路线经过精心选择,以捕捉具有挑战性的场景。我们的目标是不同的地点、时间和天气条件。为了平衡职业频率分布,我们加入了更多带有稀有职业的场景(比如自行车)。使用这些标准,我们手动选择1000个持续时间为20秒的场景。这些场景都是用人工仔细标注的

  • 汽车配置Car setup

我们使用两辆传感器布局相同的雷诺Zoe汽车在波士顿和新加坡驾驶。传感器的放置位置请参考上图。我们发布的数据来自以下传感器:
在这里插入图片描述

相机(CAM)有六个,分别分布在前方(Front)、右前方(Front Right)、左前方(Front Left)、后方(Back)、右后方(Back Right)、左后方(Back Left);

激光雷达(LIDAR)有1个,放置在车顶(TOP);

毫米波雷达有五个,分别放置在前方(Front)、右前方(Front Right)、左前方(Front Left)、右后方(Back Right)、左后方(Back Left)。

具体配置参数如下:

# 1x spinning LIDAR (Velodyne HDL32E):
20Hz capture frequency
32 beams, 1080 (+-10) points per ring
32 channels
360° Horizontal FOV, +10° to -30° Vertical FOV, uniform azimuth angles
80m-100m Range, Usable returns up to 70 meters, ± 2 cm accuracy
Up to ~1.39 Million Points per Second

# 5x long range RADAR sensor (Continental ARS 408-21):
13Hz capture frequency
77GHz
Independently measures distance and velocity in one cycle using Frequency Modulated Continuous Wave
Up to 250m distance
Velocity accuracy of ±0.1 km/h

# 6x camera (Basler acA1600-60gc):
12Hz capture frequency
Evetar Lens N118B05518W F1.8 f5.5mm 1/1.8"
1/1.8'' CMOS sensor of 1600x1200 resolution
Bayer8 format for 1 byte per pixel encoding
1600x900 ROI is cropped from the original resolution to reduce processing and transmission bandwidth
Auto exposure with exposure time limited to the maximum of 20 ms
Images are unpacked to BGR format and compressed to JPEG
See camera orientation and overlap in the figure below.

# 1x IMU & GPS (Advanced Navigation Spatial):
Position accuracy of 20mm
Heading accuracy of 0.2° with GNSS
Roll & pitch accuracy of 0.1°
Localization takes into account IMU, GPS and HD lidar maps (see our paper for more details)

在这里插入图片描述

  • 传感器矫正(Sensor calibration

为了获得高质量的多传感器数据集,校准每个传感器的外参(extrinsics) 和内参(intrinsics) 是必不可少的。我们表示相对于自我框架(ego frame)的外部坐标,即后车轴的中点。最相关的步骤如下:

  1. LIDAR extrinsics

我们使用laser liner来精确测量激光雷达与自我框架的相对位置。

  1. Camera extrinsics

我们在摄像机和激光雷达传感器前放置一个立方体形状的校准目标。标定目标由三个已知模式的正交平面组成。在检测到模式后,通过对准校准目标的平面来计算从相机到激光雷达的变换矩阵。给出上面计算的激光雷达到自我帧的转换,然后我们可以计算相机到自我帧的转换和由此产生的外部参数。

  1. RADAR extrinsics

我们把雷达安装在水平位置。然后我们通过在城市环境中驾驶来收集雷达测量数据。在对移动物体的雷达回波进行滤波后,我们使用暴力方法校准偏航角,以使静态物体的补偿距离率最小化。

4 . Camera intrinsic calibration

我们使用一组已知模式的校准目标板来推断相机的固有参数和畸变参数。

1.1.2 传感器同步(Sensor synchronization)

为了在激光雷达和相机之间实现良好的跨模态数据对齐,当顶部激光雷达扫过相机的FOV中心时,相机的曝光被触发。图像的时间戳为曝光触发时间;所述LIDAR扫描的时间戳为当前LIDAR帧实现完全旋转的时间。考虑到相机的曝光时间几乎是瞬时的,这种方法通常会产生良好的数据对齐。请注意,相机运行在12Hz,而激光雷达运行在20Hz。12个相机曝光尽可能均匀地分布。

1.2 数据格式(Data format)

本文档描述了nuScenes中使用的数据库模式。所有注释和元数据(包括校准、地图、车辆坐标等)都包含在关系数据库中。下面列出了数据库表。每一行都可以由其唯一的主键token标识。可以使用sample_token等外键链接到表sampletoken。有关最重要的数据库表的介绍,请参阅本教程。

在这里插入图片描述

attribute

属性是可以在类别保持不变的情况下更改的实例的属性。例如:一辆正在停放/停止/移动的车辆,以及一辆自行车是否有人骑。

attribute {
   "token":                   <str> -- 唯一的标识符
   "name":                    <str> -- 属性名
   "description":             <str> -- 属性描述
}

calibrated_sensor

定义在特定车辆上校准的特定传感器(激光雷达/雷达/摄像机)。所有外部参数都是关于自我车体框架给出的。所有相机图像都没有失真和校正。

calibrated_sensor {
   "token":                   <str> -- 唯一的标识符
   "sensor_token":            <str> -- 指向传感器类型的外键。
   "translation":             <float> [3] -- 以米为单位的坐标系原点: x, y, z.
   "rotation":                <float> [4] -- 坐标系方向为四元数: w, x, y, z.
   "camera_intrinsic":        <float> [3, 3] -- 内置相机校准。对于非相机的传感器为空。
}

category

对象类别的分类(例如车辆、人)。子类别由一个点划分(如:human.pedestrian.adult)。

category {
   "token":                   <str> -- 唯一的标识符.
   "name":                    <str> -- 类别名称,子类别由句点划分
   "description":             <str> -- 类别描述
   "index":                   <int> -- 在nuScenes-lidarseg中 .bin 文件中用于提高效率的标签索引。
}

ego_pose

自车具在特定时间戳的姿势。给出了对数图的全局坐标系。ego_pose是我们论文中描述的基于激光雷达地图的定位算法的输出。定位在x-y平面上是二维的。

ego_pose {
   "token":                   <str> -- 唯一的标识符.
   "translation":             <float> [3] -- 坐标系原点以米为单位:x, y, z。注意z总是0
   "rotation":                <float> [4] -- 坐标系方向为四元数:w x y z。
   "timestamp":               <int> -- 唯一的表示符.
}

instance

对象实例,例如特定的车辆。这个表是我们观察到的所有对象实例的枚举。注意,实例不是跨场景跟踪的

instance {
   "token":                   <str> -- 唯一的标识符.
   "category_token":          <str> -- 指向物体类别的外键
   "nbr_annotations":         <int> -- 此实例的注释数量.
   "first_annotation_token":  <str> -- 外键。指向此实例的第一个注释
   "last_annotation_token":   <str> -- 外键。指向此实例的最后一个注释
}

lidarseg

nuScenes-lidarseg注释和sample_data之间的映射,对应于与关键帧相关的lidar点云。

lidarseg {
   "token":                   <str> -- 唯一的标识符.
   "filename":                <str> -- 包含nuScenes-lidarseg标签的.bin文件的名称。这些是使用numpy以二进制格式存储的uint8的numpy数组
   "sample_data_token":       <str> -- 外键。Sample_data对应于带注释的激光雷达pointcloud,带有is_key_frame=True}

log

提取数据的日志的信息。

log {
   "token":                   <str> -- 唯一的标识符.
   "logfile":                 <str> -- 日志文件名.
   "vehicle":                 <str> -- 车辆名称.
   "date_captured":           <str> -- 日期 (YYYY-MM-DD).
   "location":                <str> -- 定位, e.g. singapore-onenorth.
}

map

从自顶向下视图存储为二进制语义掩码的地图数据。

map {
   "token":                   <str> -- 唯一的标识符.
   "log_tokens":              <str> [n] -- 外键.
   "category":                <str> -- 地图类别,目前只有semantic_prior用于可驾驶的表面和人行道
   "filename":                <str> -- 具有映射掩码的文件的相对路径。
}

sample

一个sample是一个带注释的2hz关键帧。数据收集在(大约)相同的时间戳作为单个LIDAR扫描的一部分。

sample {
   "token":                   <str> -- 唯一的标识符.
   "timestamp":               <int> -- Unix时间戳
   "scene_token":             <str> -- 指向scene的外键
   "next":                    <str> -- 外键。在时间上跟随这个样本。空如果场景结束。
   "prev":                    <str> -- 外键。在时间上早于此的样本。如果场景开始为空。

sample_annotation

定义样本中物体位置的边界框。所有位置数据都是在全局坐标系下给出的。

sample_annotation {
   "token":                   <str> -- 唯一的标识符
   "sample_token":            <str> -- 外键。注意:这指向一个样本而不是一个sample_data,因为注释是在样本级别上完成的,考虑了所有相关的sample_data。
   "instance_token":          <str> -- 外键。这个注释是哪个对象实例。随着时间的推移,一个实例可以有多个注释。
   "attribute_tokens":        <str> [n] -- 外键。此注释的属性列表。属性会随着时间而改变,所以它们属于这里,而不是实例表中。
   "visibility_token":        <str> -- 外键。能见度也可能随着时间的推移而改变。如果没有标注可见性,则token为空字符串。
   "translation":             <float> [3] -- 边界框的位置,以米为单位,如center_x, center_y, center_z
   "size":                    <float> [3] -- 边框大小以米为单位,如宽、长、高。
   "rotation":                <float> [4] -- 边框方向为四元数:w, x, y, z
   "num_lidar_pts":           <int> -- 这个检测框里的激光雷达点的数量。在此样本识别的激光雷达扫描过程中计算点。
   "num_radar_pts":           <int> -- 这个盒子里雷达点的数目。在此样本识别的雷达扫描过程中计算点。这个数字是所有雷达传感器的总和,没有任何无效的点滤波
   "next":                    <str> -- 外键。来自后面同一对象实例的示例注释。如果这是该对象的最后一个注释,则为空。
   "prev":                    <str> -- 外键。来自时间上位于此之前的同一对象实例的示例注释。如果这是该对象的第一个注释,则为空。
}

sample_data

传感器数据,如图像、点云或雷达返回。对于带有is_key_frame=True的sample_data,时间戳应该非常接近它所指向的样本。对于非关键帧,sample_data指向时间最接近的样本。

sample_data {
   "token":                   <str> -- 唯一的标识符.
   "sample_token":            <str> -- 外键。与此sample_data相关联的示例。
   "ego_pose_token":          <str> -- 外键.
   "calibrated_sensor_token": <str> -- 外键
   "filename":                <str> -- 磁盘上data-blob的相对路径.
   "fileformat":              <str> -- 数据文件格式.
   "width":                   <int> -- 如果样本数据是一张图像,则这是图像宽度(以像素为单位)
   "height":                  <int> -- 如果样本数据是一张图像,则这是图像高度(以像素为单位)"timestamp":               <int> -- Unix时间戳。
   "is_key_frame":            <bool> -- 如果sample_data是key_frame的一部分,则为True,否则为False"next":                    <str> -- 外键。来自同一传感器的样本数据在时间上跟随这个。空如果场景结束。
   "prev":                    <str> -- 外键。从同一传感器采样数据,在此时间之前。如果场景开始为空。
}

scene

场景是从日志中提取的20秒长的连续帧序列。同一个日志可以产生多个场景。注意,对象标识(实例token)不会跨场景保存。

scene {
   "token":                   <str> -- 唯一的标识符.
   "name":                    <str> -- 短字符串标识符。
   "description":             <str> -- 更长的场景描述。
   "log_token":               <str> -- 外键。提取数据的位置记录日志的点。
   "nbr_samples":             <int> -- 这个场景中的样本数量
   "first_sample_token":      <str> -- 外键。指向场景中的第一个样本。
   "last_sample_token":       <str> -- 外键。指向场景中的最后一个样本。
}

sensor

特定的传感器类型。

sensor {
   "token":                   <str> -- 唯一的标识符.
   "channel":                 <str> -- 传感器通道名称
   "modality":                <str> {camera, lidar, radar} -- 传感器形态。支持括号内的类别
}

visibility

实例的可见性是在所有6个图像中可见的注释的百分比。分为4个bin : 0-40%,40-60%,60-80%和80-100%。

visibility {
   "token":                   <str> -- 唯一的标识符.
   "level":                   <str> -- 能见度水平
   "description":             <str> -- 能见度描述
}

二、使用教程

2.1 数据集的下载

  • 在官网上下载mini版本的数据集(Nuscenes的官网下载链接 )

在这里插入图片描述

  • 解压后有四个文件夹: mapssamplessweepsv1.0-mini

    • maps 文件夹

      4张地图照片
      在这里插入图片描述

    • samples 文件夹

      针对于关键帧(keyframes), 传感器(6个相机、1个激光雷达、5个毫米波雷达)所采集到的信息。
      在这里插入图片描述

    • sweeps文件夹

      其结构和samples文件夹是完全一样的。是intermediate frames(过渡帧或中间帧)的sensor data。

    • v1.0-mini文件夹

      存放着所有meta data和annotations的JSON table。
      在这里插入图片描述

      例如打开 attibute.json 文件
      在这里插入图片描述

      其关键字对应本文【2.1 数据格式】中介绍的:

      attribute {
         "token":                   <str> -- 唯一的标识符
         "name":                    <str> -- 属性名
         "description":             <str> -- 属性描述
      }
      

2.2 nuScenes devkit 的使用

2.2.1 Initialization

  • 安装nuscenes-devkit
pip install nuscenes-devkit
  • 初始化
%matplotlib inline
from nuscenes.nuscenes import NuScenes

nusc = NuScenes(version='v1.0-mini', dataroot='/data/sets/nuscenes', verbose=True)

在这里插入图片描述

2.2.2 scene

nuScenes是一个大型数据库,其特点是注释了1000个场景的样本,每个场景大约20秒。让我们来看看我们在加载的数据库中的场景。

nusc.list_scenes()

在这里插入图片描述
让我们来看一个场景元数据

my_scene = nusc.scene[0]
my_scene

在这里插入图片描述

2.2.3 sample

在场景中,我们每半秒(2hz)注释一次数据。
我们将sample定义为在给定时间戳的场景的注释关键帧。关键帧是一个帧,其中来自所有传感器的数据的时间戳应该非常接近它所指向的样本的时间戳。
现在,让我们看看这个场景中的第一个带注释的示例。

first_sample_token = my_scene['first_sample_token']

# The rendering command below is commented out because it tends to crash in notebooks
# nusc.render_sample(first_sample_token)

让我们研究一下它的元数据

my_sample = nusc.get('sample', first_sample_token)
my_sample

在这里插入图片描述
一个有用的方法是list_sample(),它列出了与示例相关的所有sample_data关键帧和sample_annotation,我们将在后续部分详细讨论。

nusc.list_sample(my_sample['token'])

在这里插入图片描述

2.2.4 sample_data

nuScenes数据集包含从完整的传感器套件收集的数据。因此,对于场景的每个快照,我们提供了对从这些传感器收集的一系列数据的引用。
我们提供了一个data键来访问这些:

my_sample['data']

在这里插入图片描述注意,这些键指向组成传感器套件的不同传感器。让我们看一下从CAM_FRONT获取的sample_data的元数据。

sensor = 'CAM_FRONT'
cam_front_data = nusc.get('sample_data', my_sample['data'][sensor])
cam_front_data

在这里插入图片描述
我们还可以在特定的传感器上呈现sample_data。

nusc.render_sample_data(cam_front_data['token'])

在这里插入图片描述

2.2.5 sample_annotation

Sample_annotation引用定义示例中所见对象位置的任何边界框。所有位置数据都是在全局坐标系下给出的。让我们从上面的示例中查看一个示例。

my_annotation_token = my_sample['anns'][18]
my_annotation_metadata =  nusc.get('sample_annotation', my_annotation_token)
my_annotation_metadata

在这里插入图片描述
我们还可以呈现一个注释,以便更仔细地查看。

nusc.render_annotation(my_annotation_token)

在这里插入图片描述

2.2.6 instance

对象实例是需要被AV检测或跟踪的实例(例如特定的车辆、行人)。让我们研究一个实例元数据

my_instance = nusc.instance[599]
my_instance

在这里插入图片描述
我们通常在特定场景的不同帧间跟踪实例。然而,我们并没有在不同的场景中跟踪它们。在本例中,我们在特定场景中有16个带注释的示例。

instance_token = my_instance['token']
nusc.render_instance(instance_token)

在这里插入图片描述
实例记录记录它的第一个和最后一个annotation token。我们来渲染一下

print("First annotated sample of this instance:")
nusc.render_annotation(my_instance['first_annotation_token'])

该实例的第一个注释示例:
在这里插入图片描述

print("Last annotated sample of this instance")
nusc.render_annotation(my_instance['last_annotation_token'])

此实例的最后一个注释示例:
在这里插入图片描述

2.2.7 category

类别是注释的对象赋值。让我们看看数据库中的类别表。该表包含不同对象类别的分类法,还列出了子类别(以周期划分)。

nusc.list_categories()

在这里插入图片描述
类别记录包含特定类别的名称和描述

nusc.category[9]

在这里插入图片描述

2.2.8 attribute

属性是一个实例的属性,它可能在场景的不同部分发生变化,而类别保持不变。在这里,我们列出了所提供的属性以及与特定属性关联的注释的数量。

nusc.list_attributes()

在这里插入图片描述
让我们看一个例子,一个属性如何在一个场景中改变

my_instance = nusc.instance[27]
first_token = my_instance['first_annotation_token']
last_token = my_instance['last_annotation_token']
nbr_samples = my_instance['nbr_annotations']
current_token = first_token

i = 0
found_change = False
while current_token != last_token:
    current_ann = nusc.get('sample_annotation', current_token)
    current_attr = nusc.get('attribute', current_ann['attribute_tokens'][0])['name']
    
    if i == 0:
        pass
    elif current_attr != last_attr:
        print("Changed from `{}` to `{}` at timestamp {} out of {} annotated timestamps".format(last_attr, current_attr, i, nbr_samples))
        found_change = True

    next_token = current_ann['next']
    current_token = next_token
    last_attr = current_attr
    i += 1

在这里插入图片描述

2.2.9 visibility

visibility定义为特定注释在6个摄像机上可见的像素的百分比,分为4个bins。

nusc.visibility

在这里插入图片描述让我们看一个示例sample_annotation,它具有80-100%的可见性

anntoken = 'a7d0722bce164f88adf03ada491ea0ba'
visibility_token = nusc.get('sample_annotation', anntoken)['visibility_token']

print("Visibility: {}".format(nusc.get('visibility', visibility_token)))
nusc.render_annotation(anntoken)

在这里插入图片描述
让我们看一个示例sample_annotation,它具有0-40%的可见性

anntoken = '9f450bf6b7454551bbbc9a4c6e74ef2e'
visibility_token = nusc.get('sample_annotation', anntoken)['visibility_token']

print("Visibility: {}".format(nusc.get('visibility', visibility_token)))
nusc.render_annotation(anntoken)

在这里插入图片描述

2.2.10 sensor

nuScenes数据集由从我们的完整传感器套件收集的数据组成,其中包括:
1 x LIDAR, 5 x RADAR, 6 x cameras,

nusc.sensor

在这里插入图片描述
每个sample_data都有从哪个传感器收集数据的记录(注意“channel”键)

nusc.sample_data[10]

在这里插入图片描述

2.2.11 calibrated_sensor

calibrated_sensor由在特定车辆上校准的特定传感器(激光雷达/雷达/摄像机)的定义组成。让我们看一个例子。

nusc.calibrated_sensor[0]

在这里插入图片描述
请注意,平移和旋转参数是相对于自我车身框架给出的。

2.2.12 ego_pose

ego_pose包含关于自车相对于全局坐标系的位置(translation编码)和方向(rotation编码)的信息。

nusc.ego_pose[0]

在这里插入图片描述
注意,在加载的数据库中,ego_pose记录的数量与sample_data记录的数量相同。这两份记录显示出一一对应的关系。

2.2.13 log

log表包含从中提取数据的日志信息。日志记录对应于我们的自我车辆沿着预定义路线的一次旅行。让我们检查日志的数量和日志的元数据。

print("Number of `logs` in our loaded database: {}".format(len(nusc.log)))

在这里插入图片描述

nusc.log[0]

在这里插入图片描述
请注意,它包含各种信息,例如收集的日志的日期和位置。它还提供了关于收集数据的地图的信息。注意,一个日志可以包含多个不重叠的场景。

2.2.14 map

地图信息存储为自顶向下视图的二进制语义掩码。让我们检查地图的数量和地图的元数据。

print("There are {} maps masks in the loaded dataset".format(len(nusc.map)))

在这里插入图片描述

nusc.map[0]

在这里插入图片描述

2.3 nuScenes Basics

NuScenes类包含几个表。每个表是一个记录列表,每个记录是一个字典。例如,类别表的第一条记录存储在 :

nusc.category[0]

在这里插入图片描述
类别表很简单 : 它包含字段名称name和描述description。它还有一个标记字段token,这是一个唯一的记录标识符。由于记录是一个字典,token可以像这样访问 :

cat_token = nusc.category[0]['token']
cat_token

在这里插入图片描述
如果您知道DB中任何记录的token,您可以通过执行以下操作来检索该记录

nusc.get('category', cat_token)

在这里插入图片描述
让我们试试更难的。让我们看一下sample_annotation表。

nusc.sample_annotation[0]

在这里插入图片描述
它也有一个token字段(它们都有)。此外,它还有几个格式为[a-z]*_token的字段,例如instance_token。这些是数据库术语中的外键,这意味着它们指向另一个表。使用nusc.get(),我们可以在常数时间内获取其中任何一个。例如,让我们看看能见度记录。

nusc.get('visibility', nusc.sample_annotation[0]['visibility_token'])

在这里插入图片描述
visibility记录表明对象在注释时可见的程度。
让我们再获取instance_token

one_instance = nusc.get('instance', nusc.sample_annotation[0]['instance_token'])
one_instance

在这里插入图片描述

它指向实例表。这个表列举了我们在每个场景中遇到的对象实例。通过这种方式,我们可以连接特定对象的所有注释。
如果仔细查看上表,就会发现sample_annotation表指向实例表,但是实例表并没有列出指向它的所有注释(只有第一个和最后一个)。
那么,如何恢复特定对象实例的所有sample_annotations呢?有两种方法:

  1. 使用nusc.field2token()
ann_tokens = nusc.field2token('sample_annotation', 'instance_token', one_instance['token'])

这将返回带有'instance_token' == one_instance['token']的所有sample_annotation记录的列表。现在让我们把这些存储在一个集合中

ann_tokens_field2token = set(ann_tokens)
ann_tokens_field2token

在这里插入图片描述
nusc.field2token()方法是通用的,可以在任何类似的情况下使用
2 . 在某些情况下,我们在表中提供了一些反向索引。这就是一个这样的例子。
instance记录有一个字段first_annotation_token,它指向该实例的第一个注释。恢复这一记录很容易。

ann_record = nusc.get('sample_annotation', one_instance['first_annotation_token'])
ann_record

在这里插入图片描述
现在我们可以使用“next”字段遍历这个实例的所有注释。我们试试吧。

ann_tokens_traverse = set()
ann_tokens_traverse.add(ann_record['token'])
while not ann_record['next'] == "":
    ann_record = nusc.get('sample_annotation', ann_record['next'])
    ann_tokens_traverse.add(ann_record['token'])

最后,让我们断言我们恢复了与使用nusc.field2token相同的ann_records:

print(ann_tokens_traverse == ann_tokens_field2token)
# True

2.3.1 反向索引和快捷方式(Reverse indexing and short-cuts)

nuScenes表是规范化的,这意味着每条信息只给出一次。例如,每个日志记录对应一个映射记录。查看模式,您将注意到映射表有一个log_token字段,但日志表没有相应的map_token字段。但在很多情况下,您有一个日志,并希望找到相应的地图!那么该怎么办呢?您总是可以使用nusc.field2token()方法,但这很慢且不方便。因此,我们为一些常见情况添加了反向映射,包括这种情况。
此外,在某些情况下,需要遍历几个表才能获得特定的信息。例如,考虑sample_annotation的类别名称(例如human.pedestrian)。sample_annotation表不包含此信息,因为类别是实例级常量。相反,sample_annotation表指向实例表中的一条记录。这反过来又指向类别表中的一个记录,最后名称字段存储所需的信息。
由于想要知道注释的类别名称是很常见的,所以在初始化NuScenes类时,我们向sample_annotation表添加了一个category_name字段。
在本节中,我们列出了在初始化过程中添加到NuScenes类的快捷方式和反向索引。这些都是在NuScenes.__make_reverse_index__()方法中创建的。

Reverse indices

默认情况下,我们添加两个反向索引。

  • log记录中增加map_token字段。
  • sample记录具有指向该记录的所有sample_annotation以及sample_data关键帧的快捷方式。在前一节中使用nusc.list_sample()方法获得更多关于此的详细信息。

Shortcuts

sample_annotation表有一个category_name快捷方式。
使用shortcut

catname = nusc.sample_annotation[0]['category_name']

不使用shortcut

ann_rec = nusc.sample_annotation[0]
inst_rec = nusc.get('instance', ann_rec['instance_token'])
cat_rec = nusc.get('category', inst_rec['category_token'])

print(catname == cat_rec['name'])
# True

sample_data表有“channel”和“sensor_modality”快捷方式:

# Shortcut
channel = nusc.sample_data[0]['channel']

# No shortcut
sd_rec = nusc.sample_data[0]
cs_record = nusc.get('calibrated_sensor', sd_rec['calibrated_sensor_token'])
sensor_record = nusc.get('sensor', cs_record['sensor_token'])

print(channel == sensor_record['channel'])
# True

2.3.2 数据可视化 (Data Visualizations)

我们提供了列表和呈现方法。这些方法既可以作为开发过程中的方便方法,也可以作为构建您自己的可视化方法的教程。它们是在NuScenesExplorer类中实现的,带有通过NuScenes类本身的快捷方式

List methods

  • list_categories()列出所有类别,以米为单位计算和统计宽/长/高。
nusc.list_categories()

在这里插入图片描述

  • list_attributes()列出所有属性并进行计数。
nusc.list_attributes()

在这里插入图片描述

  • list_scenes()列出加载的DB中的所有场景。
nusc.list_scenes()

在这里插入图片描述

Render

首先,让我们在图像中绘制一个激光雷达点云。激光雷达使我们能够精确地绘制周围环境的三维地图。

my_sample = nusc.sample[10]
nusc.render_pointcloud_in_image(my_sample['token'], pointsensor_channel='LIDAR_TOP')

在这里插入图片描述
在前面的图像中,颜色表示从自我车辆到每个激光雷达点的距离。我们也可以渲染激光雷达的强度。在下面的图像中,我们前面的交通标志具有很强的反射率(黄色),而右边的黑色车辆具有较低的反射率(紫色)。

nusc.render_pointcloud_in_image(my_sample['token'], pointsensor_channel='LIDAR_TOP', render_intensity=True)

在这里插入图片描述
其次,让我们为同一图像绘制雷达点云。雷达的密度比激光雷达小,但范围大得多。

nusc.render_pointcloud_in_image(my_sample['token'], pointsensor_channel='RADAR_FRONT')

在这里插入图片描述
我们还可以在该样本的所有样本数据上绘制所有注释。注意,对于雷达,我们也绘制运动物体的速度矢量。一些速度向量是异常值,可以使用RadarPointCloud.from_file()中的设置进行过滤

my_sample = nusc.sample[20]

# The rendering command below is commented out because it may crash in notebooks
# nusc.render_sample(my_sample['token'])

或者如果我们只想渲染一个特定的传感器,我们可以指定。

nusc.render_sample_data(my_sample['data']['CAM_FRONT'])

在这里插入图片描述
此外,我们还可以从多次扫描中聚合点云以获得更密集的点云。

nusc.render_sample_data(my_sample['data']['LIDAR_TOP'], nsweeps=5, underlay_map=True)
nusc.render_sample_data(my_sample['data']['RADAR_FRONT'], nsweeps=5, underlay_map=True)

在这里插入图片描述
在上面的雷达图中,我们只看到了两辆车的雷达回波。这是由于nuscenes/utils/data_classes.py文件中定义的过滤器设置。如果我们希望禁用所有过滤器并呈现所有返回值,则可以使用disable_filters()函数。这将返回一个密度更大的点云,但有许多来自背景对象的返回值。要返回默认设置,只需调用default_filters()。

from nuscenes.utils.data_classes import RadarPointCloud
RadarPointCloud.disable_filters()
nusc.render_sample_data(my_sample['data']['RADAR_FRONT'], nsweeps=5, underlay_map=True)
RadarPointCloud.default_filters()

在这里插入图片描述
我们甚至可以呈现特定的注释。

nusc.render_annotation(my_sample['anns'][22])

在这里插入图片描述
最后,我们可以渲染一个完整的场景作为视频。这里有两个选项:

  1. render_scene_channel()渲染特定频道的视频。(按ESC退出)
  2. nusc.render_scene()渲染所有摄像机通道的视频。
    注意:这些方法使用OpenCV进行渲染,这在IPython notebook上并不总是很好。如果遇到任何问题,请从命令行运行这些行。

让我们提取场景0061,它很密集。

my_scene_token = nusc.field2token('scene', 'name', 'scene-0061')[0]
# The rendering command below is commented out because it may crash in notebooks
# nusc.render_scene_channel(my_scene_token, 'CAM_FRONT')

还有一个方法nusc.render_scene(),它为所有摄像机通道呈现视频。这需要一个高分辨率的显示器,而且最好在笔记本电脑之外运行。

# The rendering command below is commented out because it may crash in notebooks
# nusc.render_scene(my_scene_token)

最后,让我们在地图上可视化一个特定位置的所有场景。

nusc.render_egoposes_on_map(log_location='singapore-onenorth')

在这里插入图片描述

参考

nuScenes: A multimodal dataset for autonomous driving

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/84400.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

安装包UI美化之路-升级安装与静默安装一键打包

在实际应用中&#xff0c;除了产品安装外&#xff0c;还需要能够持续升级到新的版本&#xff0c;这时候升级方案就显得比较重要&#xff1b;而还有一些使用场景&#xff0c;需要咱们的安装包在安装时&#xff0c;不要显示安装界面&#xff0c;直接在后台进行安装&#xff01; …

测试开发之前端篇-Web前端简介

自从九十年代初&#xff0c;人类创造出网页和浏览器后&#xff0c;Web取得了长足的发展&#xff0c;如今越来越多的企业级应用也选择使用Web技术来构建。 前面给大家介绍网络协议时讲到&#xff0c;您在阅读这篇文章时&#xff0c;浏览器是通过HTTP/HTTPS协议向服务器发送请求…

Python+Django的高考志愿填报辅助系统 计算机毕业设计

在各学校的教学过程中&#xff0c;学生的高考志愿填报辅助是一项非常重要的事情。随着计算机多媒体技术的发展和网络的普及&#xff0c;“基于网络的学习模式”正悄无声息的改变着传统的教室学习模式&#xff0c;“基于网络的教学平台”的研究和设计也成为教育技术领域的热点课…

音频转文字怎么转?三个方法教你音频转文字

昨天&#xff0c;朋友给我发了一条信息&#xff0c;大概的内容是“今天上班的时候&#xff0c;领导突然发了一段音频&#xff0c;说是会议的录音&#xff0c;让我朋友在下班之前整理成会议纪要发给他。无奈&#xff0c;我的朋友只能打开录音开始整理”。听到他还在听录音手动整…

Stata中的治疗效果:RA:回归调整、 IPW:逆概率加权、 IPWRA、 AIPW

今天的主题是Stata中的治疗效果。最近我们被客户要求撰写关于治疗效果的研究报告&#xff0c;包括一些图形和统计输出。 治疗效果估算器根据观察数据估算治疗对结果的因果关系。 我们将讨论四种治疗效果估计量&#xff1a; RA&#xff1a;回归调整IPW&#xff1a;逆概率加权I…

【卡尔曼滤波器】递归算法

大家好&#xff0c;我是小政。最近在学习卡尔曼滤波&#xff0c;本篇文章记录一下我学习的卡尔曼滤波器中的递归算法&#xff0c;通过举例子让大家更加清晰理解递归到底是什么&#xff1f;希望与同是卡尔曼滤波研究方向的同学进行一些交流。 递归算法1.为什么要用卡尔曼滤波器&…

zookeeper3.6.3升级jetty9.4.47解决安全漏洞CVE-2022-2048和CVE-2021-28169

客户扫描到zookeeper有CVE-2022-2048和CVE-2021-28169安全漏洞要求修复。 漏洞和官方解决办法如下&#xff1a; 一、# CVE-2022-2048 Jetty升级到这几个修复版本9.4.47. 10.0.10, 11.0.10 Eclipse Jetty 存在安全漏洞&#xff0c;该漏洞源于无效的 HTTP/2 请求可能占用连接导致…

视频配音怎么制作?手把手教你配音视频制作

相信很多短视频的创作者都知道&#xff0c;每个视频的好坏大多数取决于配音的效果&#xff0c;好的配音才能给观众留下一个深刻的印象&#xff0c;如果你想要制作一个好的视频&#xff0c;那肯定是离不开配音制作的。那你们知道视频配音怎么制作吗&#xff1f;不知道也没关系&a…

java计算机毕业设计ssm在线实验室器材设备借用管理系统42c93(附源码、数据库)

java计算机毕业设计ssm在线实验室器材设备借用管理系统42c93&#xff08;附源码、数据库&#xff09; 项目运行 环境配置&#xff1a; Jdk1.8 Tomcat8.5 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都…

“为什么同样是跳槽,有些人薪资就能翻2倍?“是我在软件测试路上走错了方向?

“为什么同样是跳槽&#xff0c;有些人薪资能翻两三倍&#xff1f;” 最近遇到一个朋友跟我吐槽如上&#xff0c;其实类似这样的问题我也听到过很多次&#xff0c;身边也不乏有认识的同事、朋友们通过跳槽拿下高薪&#xff0c;这里我先说一个我身边真实的例子&#xff1a; 学…

Java基于springboot高考填报志愿综合参考系统 vue+elementUI

高考填报志愿综合参考系统是针对目前高考填报志愿管理的实际需求&#xff0c;从实际工作出发&#xff0c;对过去的高考填报志愿综合参考系统存在的问题进行分析&#xff0c;完善用户的使用体会。采用计算机系统来管理信息&#xff0c;取代人工管理模式&#xff0c;查询便利&…

(十一)数据归一化方法BN/LN/GN/IN

文章目录0. Introduction1.Batch Normalization3.Layer Normalization4.Group Normalization6.Instance Normalization参考资料欢迎访问个人网络日志&#x1f339;&#x1f339;知行空间&#x1f339;&#x1f339; 0. Introduction 在神经网络的训练过程中&#xff0c;网络的…

机器学习分类算法之逻辑回归

1、基础知识&#xff1a; 逻辑回归&#xff1a;logistic regression二分类&#xff1a;binary classification 类别一类别二noysefalsetrue01negative classpositive class 线性回归模型用于分类&#xff0c;效果一般&#xff1b;逻辑回归是最广泛使用的分类算法&#xff1b;…

main入口函数分析

在开始讲解之前&#xff0c;分享一些阅读 项目代码的经验。无论学习哪方面的知识&#xff0c;都是需要正反馈才能继续学下去。在学习开源项目的时候&#xff0c;如果不掌握一些比较好的方法&#xff0c;会比较难拿到正反馈&#xff0c;或者要坚持学习很久才能拿到正反馈。 我个…

JAVA毕业设计——基于Springboot的动漫论坛系统(源代码+数据库+ppt文档)

github代码地址 https://github.com/ynwynw/cartoonForum-public 毕业设计所有选题地址 https://github.com/ynwynw/allProject #动漫论坛系统 #java web #java #毕业设计 #课程设计 #JPa #Springboot #mysql #源代码 基于Springboot的动漫论坛系统(源代码数据库ppt文档)040 …

Python文件操作注意事项

今天继续给大家介绍Python相关知识&#xff0c;本文主要内容是Python文件操作注意事项。 一、文件操作流程注意事项 在文章Python文件操作详解&#xff08;一&#xff09;中&#xff0c;我们讲解过&#xff0c;文件操作的流程是打开文件——操作文件——关闭文件。如果我们在…

设计用于汽车和车身SPC58NH92C3RMI0X\SPC560B50L1B4E0X微控制器

SPC560B50x系列 32 位微控制器是集成汽车应用控制器的最新成就。它属于一个不断扩大的以汽车为中心的产品家族&#xff0c;旨在解决下一波汽车内部的车身电子应用。该汽车控制器系列的先进且经济高效的主机处理器核心符合 Power Architecture 嵌入式类别&#xff0c;仅实现 VLE…

Qt扫盲-QRadioButton理论总结

QRadioButton理论总结1. 简介2. 自动排外3. 信号槽4. 外观&快捷键1. 简介 QRadioButton是一个选项按钮&#xff0c;可以打开&#xff08;选中&#xff09;或关闭&#xff08;未选中&#xff09;。单选按钮通常为用户提供”众多”选项之一。在一组单选按钮中&#xff0c;一…

黑客隔空盗密码,你的账户安全吗?

一、NFC卡防互动&#xff0c;怎样才能更安全&#xff1f; 想知道黑客如何破解你的设备&#xff0c;盗取你的信息吗&#xff1f;这一黑科技设备将向你展示黑客是如何隔空盗取你银行卡的账号密码的。 模拟黑客使用一张RFID读卡器&#xff0c;近距离靠近你的银行卡时&#xff0c;…

java毕设_第172期ssm高校毕业生就业满意度调查统计系统_计算机毕业设计

java毕设_第172期ssm高校毕业生就业满意度调查统计系统_计算机毕业设计 【源码请到下载专栏下载】 今天分享的项目是《ssm高校毕业生就业满意度调查统计系统》 该项目分为2个角色&#xff0c;管理员和用户。 用户可以浏览前台,包含功能有:进行问卷提交、 就业咨询、试题列表进行…