精华内容
下载资源
问答
  • 深度视觉惯性里程表 基于深度学习的视觉惯性里程计项目。 优点: 轻巧的CNN结构。 没有RNN->更轻。 使用指数映射将图像与惯性数据一起训练。 旋转来自外部姿态估计。 没有RNN,只有卡尔曼滤波器:用于帧到帧位移...
  • matlab匹配滤波代码视觉里程表 概述 视觉测距法是一种根据摄像头图像估算摄像头运动的算法。 该项目的目标是对场景几何进行基于特征的重构,并从行车记录中分析汽车的行驶路径。 首先,我们进行图像处理以恢复图像...
  • Visual Odometry Part I: The First 30 Years and Fundamentals
  • visual Inertial odometry

    2018-09-25 19:35:41
    VINS-MONO integrate with IMU bundle adjustment

    VINS-MONO

    • integrate with IMU

    bundle adjustment

    展开全文
  • Abstract: Current approaches for visual-inertial odometry (VIO) are able to attain highly accurate state estimation via nonlinear optimization. However, real-time optimization quickly becomes ...
  • Abstract— In this paper, we present a monocular visual-inertial odometry algorithm which, by directly using pixel intensity errors of image patches, achieves accurate tracking performance while ...
  • offer complementary characteristics that make them the ideal choice for accurate Visual-Inertial Odometry or Simultaneous Localization and Mapping (SLAM). While historically the problem has been ...
  • Accurate Direct Visual-Laser Odometry with Explicit Occlusion Handling and Plane Detection, 论文解读分享。
  • VSO:Visual Semantic Odometry(ECCV 2018) 推荐另外三篇视觉语义里程计论文: . 《Probabilistic Data Association for Semantic SLAM》 ICRA 2017 宾夕法尼亚大学 . 《Stereo Vision-based Semantic 3D Object ...

    VSO:Visual Semantic Odometry(ECCV 2018)

    推荐另外三篇视觉语义里程计论文:

    . 《Probabilistic Data Association for Semantic SLAM》 ICRA 2017 宾夕法尼亚大学
    . 《Stereo Vision-based Semantic 3D Object and Ego-motion Tracking for Autonomous Driving》 ECCV 2018 港科大
    . 《Long-term Visual Localization using Semantically Segmented Images》ICRA 2018
    vso- 苏黎世联邦理工;svo-苏黎世大学;slam++, SemanticFusion-英国帝国理工学院。
    摘要
        该篇论文提出了一种用语义信息实现中期连续点跟踪的方法。可以被简单地融合进已有的直接或间接视觉里程计框架中。在自动驾驶下应用该方法实现了巨大改善。

    1. Introduction
            为了减小积累的误差,相关观测图像之间的关联用于联合估计姿态和地图。有两种正交方法:
            第一种使用图像之间的短期关联来获得暂时的漂移校正,通过过渡性地建立连续相机帧之间的约束。这种方法在车辆长期在直线公路上前进时非常有效。
        第二种通过回环检测在远帧之间建立长距离约束。这种情况适用于相机重复访问之前的位置,或者基于建立好的地图定位的情况。
             本文提出利用语义信息来改善第一种漂移校正策略,建立点的中期连续跟踪。目前自动驾驶领域的一流方案中都缺少不变量的呈现:无论是基于特征的ORB-SLAM还是直接法的LSD-SLAM或者DSO,不能连续跟踪一个点持续很长距离。因为它们的呈现对视角和光照变化并不鲁棒。


    Fig.1. 追上前面的车辆过程中,跟踪的Patch由于尺度变化后跟踪失效,但语义信息一直保持一致。

            由于图1中的问题,该场景下的沿着路走的车辆无法实现中期跟踪。
            论文的主要思想为使用语义作为不变的场景呈现元素。潜在假设为视角、尺度、光照的变化仅仅影响低等级的物体表观,而不影响它们的语义含义。本文提出独特的visual semantic odometry (VSO) 来整合语义约束到姿态和地图优化中。
            论文的贡献如下:
            1) 推导一种独特的最小化语义投影误差的损耗函数,而且发现可以使用期望最大化(EM)法最小化。可以与任何语义分割算法结合。
            2) 将语义误差项整合到VO算法中显著改善自动驾驶场景的平移漂移问题。
            3) 我们做了实验分析什么条件下有改善,并讨论当前限制。

    2. Related Work
            视觉里程计系统可以这样分类:滤波或非滤波优化,稀疏或稠密,直接或间接。论文旨在提出应用语义误差项改善数据关联。因此,论文提出的方法和现有的VO方法不太一样,它们大部分使用语义来做VO或者做图像-模型关联。
            直接法 最小化相邻帧相关像素的光度误差。由于能量函数基于图像梯度,因此很需要好的相机初始化姿态和场景结构来收敛。作者一再强调光度误差度量对小的视角和光照变化不鲁棒。大部分直接法都只能短时间内跟踪,引入语义使得跟踪范围加大。
            间接法 最小化3D地图点到观测图像中的投影误差。间接VO一般使用特征匹配建立稀疏的联系,因此对视角和光照变化更加鲁棒。由于其局部性质,特征检测和描述子对大的变化并不能适应。因此和直接法的局限性差不多。
            语义建图 基于已知姿态从图像中建立语义3D地图。地图通过固定相机位置来联合推断语义和几何信息来建立,论文的方法也建立了语义标注的3D地图作为副产品。但论文专注于联合优化语义、几何和相机姿态。
            语义视觉里程计方法 使用更高等级特征,如线、平面或物体来改善VO鲁棒性或获得更丰富的地图呈现。该部分详细论述了一下,Bowman 的《probabilistic data association for semantic slam》提出概率关联模型来避免硬决策,与之对比,作者的论文不需要离散数据关联,它通过考虑物体边界的连续距离来获得,而不是仅仅是独立的物体检测。(In contrast, our approach does not need a discrete data association by considering continuous distances to object boundaries rather than individual object detections)
            通过聚焦于语义物体边界,我们可以处理很多语义物体。比如,我们既可以利用凸物体,还有不能被矩形框描述的物体,如街道、天空、建筑。
            语义图像-模型匹配 有人分割三维物体,通过将物体投影到2d分割图像中。同时期作品中,有将语义标注的3d点投影到语义分割图像中的。它们需要一个事先建立并标记的3d模型,作为对比,文中是为VO设计。

    3. Visual Semantic Odometry
    3.1. Visual Semantic Odometry Framework
            一些基本的符号定义:
            . 输入图像
    在这里插入图片描述
            . 相机姿态
    在这里插入图片描述
    ,其中​ T k ∈ S E ( 3 ) T_k∈SE(3) TkSE(3).
            . 地图点
    在这里插入图片描述
            首先基本的里程计目标函数为:
    在这里插入图片描述
            其中​ e b e_b eb a _a a s _s s e ( k , i ) _e(k,i) e(k,i)表示在第 k k k个相机下看到的第 i i i个点的cost。要么被定义为光度差异(直接法)或者几何差异(间接法)。由于作者表示提出的语义方法可以基于原来的方法改善,所以该公式即为原本算法的误差模型。重点在于接下来的语义模型。
            对于输入图像,进行语义分割,得到稠密的,每个点都有类别的分类图像。因而每个地图点除了3d位置,也包含了分类信息。
             定义 w i ( w_i^( wi( c ^c c ) ^) )来表示点 P i P_i Pi属于分类 c c c的概率,该参数将在后面详细论述。
    在这里插入图片描述
            定义语义cost function,每一项联系了相机姿态Tk和地图点 P i P_i Pi
    在这里插入图片描述
            因此构造了优化对象,结合基础算法的目标函数和新增的语义项目标函数:
    在这里插入图片描述
            而​ λ \lambda λ则作为权重,与语义的可信度有关。而语义的可信度取决于分类器的效果和场景影响,在后文详细论述。
    3.2. Semantic Cost Function
            首先,该部分的核心思想其实很简单,即我们要衡量该姿态的相机观测得到的语义分类和地图的语义关系能多好地匹配。匹配方式则是将地图的点,按照当前相机的姿态,投影到成像平面中(类似BA,只是BA比较的是RGB而已)。对应成像平面的位置如果分类就是地图中点的分类,那就概率取高,那么如果不是呢?便定义一个方法以最近正确分类来表示这个概率,即下文将描述的DT。
    在这里插入图片描述
            定义观测似然,该公式表示将地图点投影到图像 S k S_k Sk中,对应的位置标签为 c c c的概率。投影与最近标记为c的点距离越远则概率越低。这里定义了一个 D i s t a n c e t r a n s f o r m − D T Distance transform - DT DistancetransformDT.
    D T B ( p ) DT_B(p) DTB(p) R 2 — — > R R^2——>R R2>R,其中 p p p是像素位置, B B B是二值图像。
    在这里插入图片描述

            根据Fig.2. 语义似然推断的阐述。输入语义分割图(a),取出分类为车辆的部分到图(b),语义似然( σ = 10 \sigma=10 σ=10​)和( σ = 10 \sigma=10 σ=10​)的情况分别见图(c),(d)。红色代表1,蓝色代表0.
            即公式用高斯分布的方式来将距离转化成了概率。
    在这里插入图片描述
        几个细节:1) σ \sigma σ ​表示语义图像分类的不确定度。 2) 公式4的详细推导可见附加材料。

            该部分可以参考激光模型中的似然域模型。

            结合Eq.4,我们可以定义语义误差项:
    在这里插入图片描述
            其中​ π ( T k , X i ) \pi(T_k,X_i) π(Tk,Xi)用相机姿态 T k T_k Tk将点 P i P_i Pi投影到语义分割图像 S k S_k Sk中。
             w i ( w_i^( wi( c ^c c ) ^) )表示​ P i P_i Pi是类别 c c c的概率,而且会随着观测实时更新。论文中说“直观上该公式是2D距离的权重平均”。2D距离,即到最近正确分类点 P i P_i Pi的2D像素距离。又举了个例子说:如果点​ P i P_i Pi分类为人行道和马路的概率相同,那么它的误差项将在二者的分界上取得最小值。
             w i ( w_i^( wi( c ^c c ) ^) ) 的实时随观测更新表现在哪呢。具体来说,点的标签概率向量​ w i w_i wi​联合考虑所有观测来计算。如果点 P i P_i Pi被一组观测量观测,那么:
    在这里插入图片描述
            常量用于确保:
    在这里插入图片描述
            所以每次能看到 P i P_i Pi的观测,得到的其分类为 c c c的概率将被乘上去来改变 w i ( w_i^( wi( c ^c c ) ^) ),规则允许通过积累观测数据增量式更新标签向量​ w i w_i wi。而如果大部分观测值们对于同一个分类有最大值,那么该类别 c c c整体的乘积也将相对于其他错误分类收敛到一个尖峰值去。
            最后解释一下Eq.5中的参数​ σ \sigma σ非常重要,假设一个地图点投影到了Fig2中car分类的外面,我们假设只有两个分类:car和no_car。这个点在 c c c=car的时候的​ w i ( w_i^( wi( c ^c c a ^a a r ^r r ) = 1 ^)=1 )=1 。那么根据公式5,剩余部分将与​的值成反比(怎么不是负反比)。而且如果 σ \sigma σ大的话,Eq.4中分类似然几乎会是单调的(因为是个高斯分布,方差大的时候分布非常宽),于是导致语义项对点分类的影响无效了。比如与物体边界相近???
    3.3 Optimization
            该部分论述如何求解上述模型。使用expectation maximization (EM) 法,分E、M两步分别求解。
            E-step : 对每个点P_i计算权重向量,同时保持点位置和相机姿态固定。
            M-step :反过来优化点的位置和姿态,但固定权重。
            由于E_sem含有稀疏结构,M-step使用Levenberg-Marquardt算法求解

            给出的优化框架能够通过将点标签 Z i Z_i Zi作为潜在变量并最大化似然推导出。
            仅仅使用语义信息会使得约束过少,公式四(DT)在物体内部是均匀分布。
    在这里插入图片描述
            如左图所示,语义的解有很多。为了避免这种情况,作者提了四点:
            1) 语义优化联合基本视觉里程计功能一起
            2) 使用多个点和语义约束优化单独相机姿态
            3) 仅仅提供语义约束而不提供基本约束的点,如不会再被基本系统优化的点,将被固定并且仅仅相关的相机姿态会被优化来减小漂移。这个过程不光限制了优化变量的数量,并且提供了点之间的结构关联,因而约束了姿态解。如右图。
            4) 通过高频的语义优化,我们减少了将点匹配到错误物体情况的概率,由于优化基于DT的梯度,我们假设点会在正确标记区域附近,所以会把点拉向正确区域。
    3.4 Obtaining Semantic Constraints & System Integration
            除了语义系统外还有基本的视觉里程计系统。可选用直接法或间接法。对每帧生成一张可视点V(k),其中每个点可建立可优化的相机-点约束。每一帧还生成语义可见列表V_sem(k),如果点i的投影足够接近该点的语义区域,那么将被插入到V_sem(k)中。
            VO方法有active window来用一部分帧优化轨迹,我们也定义了active semantic window存放语义关键帧。一旦一帧离开AW,就将其加入到ASW。ASW中帧的姿态不再被优化,因为它们缺少与当前帧的光照/尺度约束。
            补充材料更加详细地描述了如何从存在的VO框架中获得语义关系,以及整合论文方法到已存在系统中。

    4. Experimental Evaluation
            该部分中,我们实验性地证明了整合语义中期约束到state-of-the-art的VO方法中,显著减少了平移漂移。
    4.1. Experimental Setup
            对于segmentation,使用的是现成分类器(Multi-Scale Context Aggregation by Dilated Convolutions)在Cityscapes的预训练集。由于其在KITTI效果不是那么好,如图5。我们将不确定性用​和​来建模。分别代表了语义项的权重和分割的不确定性。
    在这里插入图片描述
            基于每个数据集序列,我们经验性地挑选值。作者表示如上图所示的极端错误分类也能通过合理调整误差参数来让系统工作正常。
            对于P4B作者使用ground truth语义数据,展现了系统潜力的上限。
    ORB-SLAM2 做间接法;PhotoBundle 做直接法。
            评价标准:
            RMSE: 均方根误差
            RPE: 相对姿态误差。测量估计量相对ground truth的固定长度间隔帧内的平均偏差。
            ATE: 绝对轨迹误差。测量两条轨迹之间点的绝对距离差。
            对于立体实验,文中测量 Relative RPE in % 来衡量漂移在语义约束引入后的相对减少。对于平移误差,相对RPE: t r t_r tr e _e e l ( _l^( l( % ^\% % ) ^) )定义为:
    在这里插入图片描述
            其中 b a s e base base j o i n t joint joint分别是没有我们的约束和有我们的约束下的RPE值。(平移量的改善百分比)
    4.2. Results
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    5. 感想

            整体理论并不是非常复杂,将语义当rgb图投影过来做匹配。而匹配过程生成了一个DT变换图。
            文章与另一篇《Long-term Visual Localization using Semantically Segmented Images》很像,区别在于:
            (1)它提出的模型是直接覆盖和原地点的点做比较,这个点的概率来自于建图的时候周围7*7的格子。
            (2)它使用粒子滤波而非优化方法。

    展开全文
  • visual and inertial sensors.We term this estimation task visual-inertial odometry (VIO), in analogy to the well-known visual-odometry problem. We present a detailed study of EKF-based VIO algorithms, ...
  • [54].Helmick, D., Cheng, Y., Clouse, D., Matthies, L., Roumeliotis, S.: Path following using visual odometry for a Mars Rover in high-slip environments. In: Proceedings of 2004 IEEE Aerospace ...

    摘要(Abstract)

    本文旨在为研究机器人和自动化系统特别是那些对机器人定位和建图(localization and mapping)感兴趣的研究人员铺平道路( pave the way )。我们讨论了机器人导航要求的基本原理,并且回顾了最先进的技术,这些技术构成了现存的关于移动机器人localization and mapping解决方案的基础。我们讨论的主题包括基本的定位技术例如wheel odometry(车轮(编码器)里程计)和 dead reckoning(航迹推演),以及更加先进的Visual Odometry(VO 视觉里程计)和SLAM 技术。我们使用特征匹配/跟踪和光流技术讨论单目和双目视觉系统中的VO。我们讨论并且比较了最常见的SLAM方法的基础知识,例如扩展卡尔曼滤波器SLAM(EKF-SLAM),粒子滤波器和最新的RGBD-SLAM。我们还提供构成这些技术的方法,例如特征提取(i.e. SIFT,SURF, FAST),特征匹配,异常值去除(outlier removal)和 数据关联技术(data association techniques)。

    介绍(introduction)

    在过去的几十年里,移动机器人和自主系统(autonomous systems)引起了全世界研究人员的极大关注,取得了重大进展和突破。目前移动机器人能够自主的执行复杂的任务,而在过去,人类的输入和交互还是需要迫切解决的问题。在这些应用中,移动机器人需要执行复杂的任务,这些任务需要在复杂和动态的室内和室外环境中进行导航而不需要人类的干预。为了高效安全的实现自动导航和路径规划,机器人需要能够在其环境进行本地化(localize itself)。最后,我们详细的研究了定位问题并且提供了各种技术来解决问题。

    img_528f010552c8cc6b4ccee5cc31bd042a.gif
    A block diagram showing the main components of a: a VO and b filter based SLAM system

    图一:A block diagram showing the main components of a: a VO and b filter based SLAM system

    最简单的定位方法是使用wheel odometry依靠车轮的编码器来测量机器人的车轮旋转量。轮子旋转量的测量和机器人的运动模型相结合,以找到机器人相对于全局参考系的当前位置。
    wheel odometry有一些主要的局限性。首先他仅局限于地面的车辆,然后由于定位是递增的(incremental)(基于先前估计的位置),测量误差会随着时间累积,导致估计的机器人姿态偏离其实际位置。wheel odometry有许多误差来源,最主要的由于不平坦的地面和湿滑地面上车轮打滑。

    为了克服这些限制,已经提出了其他定位策略,例如使用惯性测量单元(IMU),GPS,激光测距仪和最近的VO[88]以及同时定位和建图(SLAM)[36,38]方法。VO 是仅使用连接的一个或者多个相机的输入来估计一个agent(例如,车辆,人和机器人)的运动的过程[101]。SLAM是一个过程,在这个过程中,机器人需要在未知环境中进行本地化(localize itself ),并在外部传感器(或单个传感器)的帮助下,在没有任何先验信息的情况下同时构建该环境的地图。虽然VO并没有解决漂移问题,但研究人员已经证明VO方法的表现明显优于车轮里程计和航位推算技术[54],并且相机的成本与精确的IMU和激光扫描仪相比要低得多。VO和SLAM之间的主要区别在于VO主要关注局部一致性,旨在逐步估计姿势后相机/机器人姿势的路径,并可能执行局部优化(local optimization)。而SLAM旨在获得相机/机器人轨迹和地图的全局一致估计。通过重新访问先前已经mapping的区域(loop closure)用于减少估计的漂移来实现全局的一致性。图一现实了VO和SLAM系统的概述。这篇论文扩展了过去的visual odometry[45,101]。本文与前面提到的教程之间的主要区别在于,除了VO实现之外,我们还旨在提供用于可视SLAM的基本框架和方法。该论文还包括Visual SLAM领域的重大发展,例如那些将RGB-D传感器用于环境的密集3D重建的领域。

    在下一节中,我们将讨论该领域的相关工作。在LocalizationMapping中,我们将分别讨论他们。在“RGB-D SLAM”部分,我们将介绍用于解决V-SLAM问题的RGB-D SLAM方法。 最后,我们将在“结论”部分结束本文。

    原文地址

    https://link.springer.com/article/10.1007/s40903-015-0032-7

    参考文献

    [36].Durrant-Whyte, H., Bailey, T.: Simultaneous localization and mapping: part I. IEEE Robot. Autom. Mag. 13(2), 99–110 (2006)

    [38].Durrant-Whyte, H., Rye, D., Nebot, E.: Localization of autonomous guided vehicles. In: Proceedings of the IEEE International Conference on Robotics and Automation, vol. 7, pp. 613–625 (1996)

    [45].Fraundorfer, F., Scaramuzza, D.: Visual odometry: part II: matching, robustness, optimization, and applications. IEEE Robot. Autom. Mag. 19(2), 78–90 (2012)

    [54].Helmick, D., Cheng, Y., Clouse, D., Matthies, L., Roumeliotis, S.: Path following using visual odometry for a Mars Rover in high-slip environments. In: Proceedings of 2004 IEEE Aerospace Conference, vol. 2, pp. 772–789 (2004). doi: 10.1109/AERO.2004.1367679

    [88].Nistér, D., Naroditsky, O., Bergen, J.: Visual odometry. In: Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2004), vol. 1, pp. I–652 (2004)

    [101].Scaramuzza, D., Fraundorfer, F.: Visual odometry: part I—the first 30 years and fundamentals. IEEE Robot. Autom. Mag. 18(4), 80–92 (2011)

    展开全文
  • visual_odometry.7z

    2020-05-18 22:38:18
    包含SLAM 视觉里程计部分完整实现,使用数据集为TUM的RGB-D数据集。主要包含计算并将相机位姿输出到文件的函数与匹配计算的相机位姿与地面真值的函数。
  • 该代码是基于深度图像和里程计实现的slam源代码,使用C++程序,非常有助于学习slam的朋友学习。
  • Abstract— In this paper, we develop a low-cost stereo visualinertial localization system, which leverages efficient multistate constraint Kalman filter (MSCKF)-based visual-inertial odometry (VIO) ...
  • 大牛Davide Scaramuzza的两篇文章Visual Odometry: Part I[1],Visual Odometry: Part II,值得我们学习。这是完整两篇:Visual Odometry: Part I[1][2]
  • IROS2018的论文 本文提出了LIMO SLAM框架,主要工作是融合了LiDAR和Monocular。 ... 前端 ...本文使用的是viso2特征,它能 non-maimum suppression, outlier rejection 和 subpixel refinement. ...首先把LiDAR点投影到图...

    IROS2018的论文

    本文提出了LIMO SLAM框架,主要工作是融合了LiDAR和Monocular。

    https://github.com/johannes-graeter/limo

     

    前端

    特征

    本文使用的是viso2特征,它能 non-maimum suppression, outlier rejection 和 subpixel refinement.

    30-40ms能提取2000个特征。

    深度

    正常特征

    单目没有深度信息,通过LiDAR获取。

    首先把LiDAR点投影到图像平面:

    • 在特征点f附近选取投影过来的LiDAR点集F,不要取一条线上的激光点(右图)。

    • 在3D LiDAR空间把F分割前后景(深度不同),取前景点集F_f(因为特征点一般在边缘,打过去的激光点有些在特征点所在平面上,有些其实打在背景上了。)

    • 把F_f拟合一个平面,这个平面不能太小
    • 特征点的射线跟这个平面相交,获得特侦点的深度
    • 平面的法线和特征点的射线的夹角大于某个阈值,或者深度超过30米会被拒绝

    地面特征点

    地面上的特征点会特殊处理,因为(垂直方向)地面上雷达点更稀疏。

    • 首先RANSAC提取出地面平面
    • 跟之前一样我们围绕f逆和一个local平面,这个平面面积阈值比之前大一些

    帧间运动量

    除了常用的PnP估计外,

    引入了Fundamental matrix的pFp约束。

    另外用了Cauchy function包裹这个新引入的约束。

    后端

    关键帧的选择

    mean optical flow 小于某个阈值的时候认为机器人没有在运动,此时不记录关键帧。

    时间间隔是0.3s

    路标点的选择

    前端的时候所有的特征都会被计算,路标的选择在后端进行。

    所有的特征点被分为远中近三组。

    近处的特征对位移估计好

    中间的点都好

    远处的点对旋转估计好。

    用了voxel filter with median filtering 来减少trees bushes对BA的影响(把局部地区富集到一起的信息离散化了?)

    BA的lost function

    lost function包括三部分:

    投影误差和深度估计误差

    以及

    这个误差我没看懂,说是

    优化窗口内最古老的motion包含最多的信息所以最准确。

    因此我们增加了cost functor v that punishes deviations from the length of its translation vector.

    P0 P1是优化窗口中最近的两个pose。

    s is a constant with the value of before optimization.

    In that way changes in scale are regularized and the estimate is smoother and more robust outliers.

     

    另外他们的BA会定期剔除一些误差项以跳出局部最优。

     

    实验感想

    我在改ORBSLAM2的时候尝试用这个办法找到Monocular跟LiDAR的比率

    在特征点附近找LiDAR point拟合平面看起来很美好。用Kitti数据集,街边一些非墙面和地面的地区就很麻烦。

    特征点附近的激光点云肉眼一看就是个非垂直非水平的倾斜平面,拟合出来的平面跟射线的相交点经常离群,距离特征点附近的激光点云很远。

    很容易被30米或者平面法线射线夹角的阈值给干掉。

    最后感觉没有一个平面-射线交点是可靠的。

    (可能还不如像其他方法用最近LiDAR点的深度替代)

     

    展开全文
  • Visual Odometry Part II: Matching, Robustness, Optimization, and Applications
  • Python和OpenCV中的KITTI Odometry-计算机视觉入门指南 该存储库包含一个Jupyter Notebook教程,该指南用于指导中级Python程序员,他们是通过执行视觉测距的过程,是计算机视觉和自动。 还有一个了本教程中的内容。 ...
  • Robust Visual Inertial Odometry Using a Direct EKF-Based Approach
  • 3.DF-VO: Depth and Flow for Visual Odometry 本节,使用传统位姿估计方法(对极几何、PNP),如Alg.1 算法: 1. 初始化T为单位矩阵;2. 遍历所有图像;3. 估计 深度及前后光流;4.计算前后光流不一致性;5.从光流...
  • 本文详细分析了基于滑动窗口的视觉slam或者视觉里程计方案的一致性问题
  • Dealing with the Structured Scene in Visual Odometry(VO): Incomplete SURF
  • 神经网络 | DeepVO:Towards End-to-End Visual Odometry-附件资源
  • A review of visual inertial odometry from fltering and optimisation perspectives
  • visual_odometry_pipeline:MATLAB中的单目视觉测距管道
  • 【ipaper】 An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics 第五部分 Localization Stereo Vision Versus Monocular Vision Stereo V...
  • Visual Odometry

    2018-11-27 11:02:00
    http://www.cvlibs.net/datasets/kitti/eval_odometry.php 转载于:https://www.cnblogs.com/wongyi/p/10025169.html
  • Iterative Closest Point (ICP) algorithm:Besl, P., McKay, N.: A method for registration of 3-D shapes. IEEE Trans. Pattern Anal. Mach. Intell. 14(2), 239–256 (1992...  Sparse Bundle Adjustment (SB...
  • Direct Semi-Dense Stereo Odometry 我们基于Stereo LSD-SLAM进行视觉跟踪[5]: 我们跟踪摄像机朝向地图中的参考关键帧的运动。 如果相机距离现有关键帧太远,我们会创建新的关键帧。 我们根据静态和时间双目...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,859
精华内容 1,143
关键字:

odometryvisual