目录
1.论文摘要解读
1.1 原论文内容
1.2 个人理解
2.1 原论文内容
3.论文SYSTEM DESCRIPTION部分
3.1 使用Mask R-CNN对潜在的动态内容进行分割
3.2 低成本追踪
3.3 使用Mask R-CNN和多视角几何对动态内容进行分割
3.4 跟踪线程与建图线程
3.5 Background Inpainting
1.论文摘要解读
1.1 原论文内容
场景刚性的假设是SLAM算法中的典型。这样一个强有力的假设限制了大多数视觉SLAM系统在人口密集的真实世界环境中的应用,而这些环境是一些相关应用的目标,如服务机器人或自动驾驶汽车。
在本文中,我们提出了DynaSLAM,一个视觉SLAM系统,在ORBSLAM2的基础上,增加了动态物体检测和背景绘画的能力。DynaSLAM在单目、双目和RGB-D配置的动态场景中是ROBUST的。我们能够通过多视角几何学、深度学习或两者兼而有之的方式检测移动物体。有了静态的场景地图,就可以对被这些动态物体遮挡的画面背景进行涂抹。我们在公共单目、双目和RGB-D数据集中评估了我们的系统。我们研究了几个准确性/速度权衡的影响,以评估所提出方法的局限性。DynaSLAM在高动态情况下的准确性优于标准视觉SLAM基线。而且,它还能估计出场景的静态部分的地图,这对于现实世界环境中的长期应用是必须的。
1.2 个人理解
场景刚性的假设:传统的SLAM算法认为输入到SLAM系统内的图片是静态的,即输入的图片中没有动态物体,这会存在一个什么问题呢?我们建图时希望去除动态物体(比如你想做一个你家的三维实景构建,肯定不希望有人吧!),并且有动态物体会导致特征点匹配出问题(ORB-SLAM2中特征点的匹配是利用投影法,如果动态物体干扰,可能匹配不上特征点),我们也不希望提取出动态的特征点。因此,在现实环境中应用会很差。
因此,要解决以下问题:
1)如何检测图像中的这种动态物体以防止跟踪算法使用属于动态物体的匹配和映射算法将移动物体作为三维地图的一部分。即如何防止动态物体进行特征点匹配与建图。
2) 如何完成三维地图中被移动物体在时间上遮挡的部分。即剔除动态物体后如何恢复遮挡静态物体的动态物体。
作者的做法:
在单目和双目情况下是使用CNN对帧中的先验动态物体(如人和车)进行像素化分割,这样SLAM算法就不会提取它们的特征。
在RGB-D情况下使用多视图几何模型和基于深度学习的算法来检测动态物体,并在将它们从图像中移除后,用场景的正确信息来涂抹被遮挡的背景。
2.论文discusses related work部分
2.1 原论文内容
在大多数SLAM系统中,动态物体被归类为假数据,因此既不包括在地图中也不用于摄像机跟踪。
最典型的离群点剔除算法是RANSAC(例如在ORB-SLAM2中)和稳健成本函数(例如在PTAM中)。有几个SLAM系统更具体地处理动态场景内容。在基于特征的SLAM方法中,一些最相关的是:
Tan等人通过将地图特征投射到当前帧中进行外观和结构验证,检测场景中发生的变化。
Wangsiripitak和Murray追踪场景中已知的三维动态物体。
Riazuelo等人[11]通过检测和跟踪人处理人类活动。
Li和Lee的工作使用了深度边缘点,这些边缘点有一个相关的权重,表明其属于动态物体的概率。
一般来说,直接方法对场景中的动态物体更加敏感。专门为动态场景设计的最相关的方法是:
Alcantarilla等人通过双目摄像机的场景流表示法来检测移动物体。
Wang和Huang使用RGB光流分割场景中的动态物体。
Kim等人提出通过计算投射在同一平面上的连续深度图像的差异来获得场景的静态部分。
Sun等人计算连续RGB图像之间的强度差异。像素分类是通过量化的深度图像的分割来完成的。
所有的方法--包括基于特征的和直接的--只从序列中包含的信息来映射静态场景部分,当一个先验的动态物体保持静态,如停放的汽车或坐着的人,就不能估计出终身的模型。另一方面,Wangsiripitak和Murray以及Riazuelo等人会检测到那些先验的动态物体,但无法检测到静态物体产生的变化,例如,一个人正在推的椅子,或者一个人扔的球。也就是说,前者成功地检测到了移动物体,而后者则检测到了几个可移动物体。我们的建议,DynaSLAM,结合了多视角几何学和深度学习,以解决这两种情况。同样地,Anrus等人通过结合动态分类器和多视角几何学来分割动态物体。
3.论文SYSTEM DESCRIPTION部分
首先,RGB通道通过一个CNN,该CNN将所有先验的动态内容,如人或车辆,按像素分割出来。在RGB-D情况下,我们使用多视图几何学,以两种方式改进动态内容的分割。首先,我们对CNN之前获得的动态物体的分割进行细化。第二,我们将大部分时间都是静态的新物体实例标记为动态的(即检测在CNN阶段没有设置为可移动的移动物体)。为此,有必要知道摄像机的姿势,为此,我们实施了一个低成本的跟踪模块,在已经创建的场景图中对摄像机进行定位。这些分割的帧是用来获得摄像机轨迹和场景地图的。请注意,如果场景中的移动物体不在CNN类内,多视图几何阶段仍然会检测到动态内容,但准确度可能会下降。一旦完成了这个完整的动态物体检测和摄像机的定位,我们的目标是用以前的视图的静态信息重建当前帧的遮挡背景。这些合成帧与增强现实和虚拟现实等应用有关,也与终身制地图中的地点识别有关。
在单目和双目的情况下,图像被CNN分割,因此属于先验动态物体的关键点既不被追踪也不被映射。
3.1 使用Mask R-CNN对潜在的动态内容进行分割
DynaSLAM-2 DynaSLAM中Mask R-CNN部分源码解析(Ⅰ)https://blog.csdn.net/qq_41694024/article/details/128797090 在DynaSLAM中使用Mask R-CNN实例分割方法。Mask R-CNN可以同时获得像素化的语义分割和实例标签。在这项工作中,我们使用像素化的语义分割信息,但实例标签在未来的工作中可能对不同移动物体的跟踪很有用。
Mask R-CNN的输入是RGB原始图像。我们的想法是将那些可能是动态或可移动的类别(人、自行车、汽车、摩托车、飞机、公共汽车、火车、卡车、船、鸟、猫、狗、马、羊、牛、大象、熊、斑马和长颈鹿)进行分割。我们认为,对于大多数环境来说,可能出现的动态物体都包含在这个列表中。如果需要其他类别,在MS COCO上训练的网络可以用新的训练数据进行微调。假设输入是一幅大小为的RGB图像,网络的输出是一个大小为的矩阵,其中是图像中物体的数量。对于每个输出通道,都会得到一个二进制掩码。通过将所有通道合二为一,我们可以得到场景中一个图像中出现的所有动态物体的分割。
3.2 低成本追踪
在潜在的动态内容被分割后,使用图像的静态部分来跟踪摄像机的位姿。由于分割的轮廓线通常成为高梯度区域,突出的点特征往往会出现。我们不考虑这种轮廓区域的特征。在这个阶段实现的跟踪算法是ORB-SLAM2中的一个更简单的版本,因此计算量更小。它将地图特征投射到图像帧中,在图像的静态区域中寻找对应关系,并使重投误差最小,以优化摄像机的姿势。
3.3 使用Mask R-CNN和多视角几何对动态内容进行分割
通过使用Mask R-CNN,大部分的动态物体可以被分割开来,不用于跟踪和建图。
然而,有些物体不能用这种方法检测,因为它们不是先验的动态,而是可移动的。比如某人携带的书,某人正在移动的椅子,甚至是长期建图中的家具变化。
本节将详细介绍处理这些情况所利用的方法。对于每个输入帧,我们选择重叠度最高的先前关键帧。这是通过考虑新帧和每个关键帧之间的距离和旋转来完成的,与Tan等人类似。在我们的实验中,重叠的关键帧的数量被设定为5个,作为计算成本和动态物体检测的准确性之间的折衷。
我们计算每个关键点从以前的关键帧到当前帧的投影,得到关键点,以及它们的投影深度,由相机运动计算得出。请注意,关键点来自ORB-SLAM2中使用的特征提取器算法。对于每个关键点,其对应的三维点是,我们计算和的背投影之间的角度,即它们的视差角。如果这个角度大于,该点可能被遮挡,并从那时起被忽略。我们观察到,在TUM的数据集中,对于视差角大于的静态物体,由于它们的视点不同,被认为是动态的。考虑到重投误差,我们得到了当前帧中剩余关键点的深度(直接来自深度测量),并将其与进行比较。如果差值超过阈值,关键点就被认为是属于一个动态物体。
这个想法如图3所示。为了设定阈值,我们对TUM数据集中的30幅图像的动态对象进行了手工标记,并评估了不同阈值下我们方法的精确度和召回率。
通过最大化表达式,我们得出结论, = 0.4m是一个合理的选择。
一些被标记为动态的关键点位于移动物体的边界上,可能会造成问题。为了避免这种情况,我们使用深度图像所提供的信息。如果一个关键点被设定为动态的,但在深度图中它周围的斑块有很高的差异,我们就把标签改为静态。
到目前为止,我们知道哪些关键点属于动态物体,而哪些不属于。为了对所有属于动态物体的像素进行分类,我们在深度图中扩大动态像素周围的区域。图4a中可以看到一个RGB帧及其相应的动态遮罩的例子。CNN的结果图4b可以与这种几何方法的结果结合起来,进行全面的动态物体检测图4c。我们可以发现这两种方法的优点和局限性,因此有动机将它们结合使用。对于几何方法来说,主要的问题是,由于其多视图的性质,初始化并不简单。学习方法和他们使用单一视图的令人印象深刻的性能,没有这样的初始化问题。但它们的主要局限性是,本应是静态的物体可以被移动,而该方法却无法识别它们。这最后一种情况可以用多视图一致性测试来解决。
图4说明了面对移动物体检测问题的这两种方式。在图4a中,我们看到后面的人,可能是一个动态物体,没有被检测到。这有两个原因。首先,RGB-D相机在测量远处物体的深度时面临的困难。其次,可靠的特征位于确定的、因而也是附近的图像部分的事实。尽管,这个人是由深度学习方法检测出来的(图4b)。除此之外,一方面,我们在图4a中看到,不仅检测到了图像前面的人,而且还检测到了他所拿的书和他所坐的椅子。另一方面,在图4b中,两个人是唯一被检测到的动态物体,而且他们的分割也不太准确。如果只使用深度学习方法,图像中会留下一本漂浮的书,并且会错误地成为3D地图的一部分。由于这两种方法的优点和缺点,我们认为它们是互补的,因此它们的结合使用是实现精确跟踪和绘图的有效途径。为了实现这一目标,如果一个物体已经被两种方法检测到,那么分割掩码应该是几何方法的掩码。如果一个物体只被基于学习的方法检测到,分割遮罩也应该包含这一信息。上一段中的例子的最终分割图像可以在图4c中看到。被分割的动态部分被从当前帧和地图中移除。
由于这两种方法的优点和缺点,我们认为它们是互补的,因此它们的结合使用是实现精确跟踪和映射的有效途径。为了实现这一目标,如果一个物体已经被两种方法检测到,那么分割掩码应该是几何方法的掩码。如果一个物体只被基于学习的方法检测到,分割遮罩也应该包含这一信息。上一段中的例子的最终分割图像可以在图4c中看到。被分割的动态部分被从当前帧和地图中移除。
3.4 跟踪线程与建图线程
这个阶段的系统输入包含RGB和深度图像,以及它们的分割掩码。我们在分类为静态的图像段中提取ORB特征。由于片段的轮廓是高梯度的区域,落在这个交叉点的关键点必须被删除。
3.5 Background Inpainting
对于每一个被移除的动态物体,我们的目标是用以前的视图中的静态信息对被遮挡的背景进行涂抹,这样我们就可以合成一个没有移动内容的现实图像。
我们相信,这种包含环境静态结构的合成帧对于虚拟和增强现实等应用是非常有用的,也可以在地图创建后进行重新定位和摄像机跟踪。由于我们知道之前和当前帧的位置,我们将之前所有关键帧(我们实验中的最后20个)的RGB和深度通道投射到当前帧的动态段。有些空隙没有对应关系,被留为空白:有些区域不能被涂抹,因为它们对应的场景部分到目前为止还没有出现在关键帧中,或者,如果它出现了,它没有有效的深度信息。这些空隙不能用几何方法来重建,而需要一种更复杂的涂抹技术。
图5显示了来自TUM基准的不同序列的三个输入帧的合成图像。请注意动态内容是如何被成功分割和去除的。另外,大部分被分割的部分已经用静态背景的信息进行了适当的涂抹。这些合成帧的另一个应用是:如果帧的动态区域被涂上静态内容,该系统可以作为静态假设下的SLAM系统使用涂上的图像工作。