【ipaper】 Visual Odometry 和Visual SLAM概述: 第二部分

简介: Related Work(相关工作)Visual Odometry (视觉里程计)VO 的定义是通过环境中的一系列图像来估计机器人的运动(相对于参考坐标系的平移和旋转)的过程。

Related Work(相关工作)

Visual Odometry (视觉里程计)

VO 的定义是通过环境中的一系列图像来估计机器人的运动(相对于参考坐标系的平移和旋转)的过程。VO是 运动恢复结构(SFM)技术的一种特殊情况,其解决了环境结构和来自有序或者无序图像集的相机姿态的3D重建问题[101]。SFM对相机姿态和结构的最终改进和全局优化步骤在计算上是昂贵的并且通常是离线执行的。然而我们需要实时的进行VO中的相机姿态估计。近几年,许多关于单目[19]和双目相机[79]的VO方法。这些方法之后进一步被划分为feature matching(在多个帧上的匹配特征)[108],feature tracking [31](相邻帧的匹配技术)和flow techniques[118](光流技术,基于所有或连续图像的特定区域的像素强弱)。

通过观察一系列图像估计机器人的自我运动的问题始于20世纪80年代由斯坦福大学的Moravec [82]开始。Moravec使用一种立体视觉形式(在轨道上滑动的单个摄像机)以移动和停止方式,机器人将停止在第一个图像中提取图像特征(角点(corners)),然后摄像机将在轨道上垂直滑动相对于机器人运动的方向,并重复该过程,直到捕获总共9个图像。在9个图像之间使用归一化交叉相关(NCC)并且使用他们来重建3D结构。然后通过对准从不同位置观察到的重建3D点来获得相机运动变换。Matthies和Shafer [79]后来通过使用3D高斯分布导出误差模型而不是Moravec方法中使用的标量模型来扩展上述工作。其他与stereo VO相关的值得注意的作品也出现在文献中。例如,在[90]中,提出了一种用于对误差进行建模的最大似然自我运动方法,用于长距离漫游车的精确定位,而[73]描述了一种依靠原始图像数据而不是几何数据的户外漫游车定位方法用于运动估计。

Nister等人首次提出术语“Visual Odometry”,[88] 因为它和车轮里程计的概念相似。他们提出了在单目和双目立体系统中通过视觉输入获取相机的运动的开创性方法。他们专注于在存在异常值(假特征匹配)的情况下估计相机运动的问题,并且提出了使用RANSAC[44]的异常值的去除方案。也是第一个在所有帧中跟踪特征而不是在连续帧中匹配特征的方案。这具有避免在基于互相关的跟踪期间的特征漂移的益处[101]。他们还提出了使用3D到2D重投影误差的基于RANSAC的运动估计(参见“运动估计”部分),而不是使用3D点之间的欧几里德距离误差。与3D到3D误差相比,使用3D到2D重新投影误差可以提供更好的估计[56]。

VO最著名的应用是正在进行的火星机器人的探索任务[22],该任务开始于2003年,涉及两个探测器,用于探测火星表面和地质学。其他涉及VO的研究由 Scaramuzza和Siegwart [102]进行,他们在室外环境中使用单目全向摄像机关注地面车辆的VO,并融合通过以下两种方法获得的运动估计。在第一种方法中,他们提取了SIFT[77]特征并且使用RANSAC进行异常值去除,而在第二种方法中使用一种基于外观的方法,它最初由[27]提出,已经用于小车姿态的估计。

Kaess [67]提出一种用于室外导航的stereo VO系统,通过特征·匹配获得稀疏流,并且被分成基于近距离和远距离特征的流(flow)。分离的基本原理是相机平移的微小变化不会明显影响远处的点。远点用于恢复旋转变换(使用两点RANSAC(two-point RANSAC)),而近点用于使用单点RANSAC(one-point RANSAC)恢复平移[67]。Alcantarilla等将从流动分离法(flow separation method)得到的视觉里程计的方法整合到他们的EKF-SLAM系统的运动模型中,以提高定位和绘图的准确性。

到目前为止,我们已经讨论了VO问题的历史,并提到了该领域的一些开创性工作,主要集中在单目VO,双目VO,运动估计,误差建模,基于外观(appearance based)和基于特征的技术上。 在下一节中,我们将介绍视觉SLAM问题的简要历史和相关工作。

参考文献

[3].Alcantarilla, P., Bergasa, L., Dellaert, F.: Visual odometry priors for robust ekf-slam. In: IEEE International Conference on Robotics and Automation (ICRA), pp. 3501–3506 (2010)

[19].Campbell, J., Sukthankar, R., Nourbakhsh, I., Pahwa, A.: A robust visual odometry and precipice detection system using consumergrade monocular vision. In: Proceedings of the 2005 IEEE International Conference on Robotics and Automation (ICRA 2005), pp. 3421–3427 (2005)

[31].Dornhege, C., Kleiner, A.: Visual odometry for tracked vehicles. In: Proceedings of the IEEE International Workshop on Safety, Security and Rescue Robotics (SSRR) (2006)

[44].Fischler, M., Bolles, R.: Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography. Commun. ACM 24(6), 381–395 (1981)

[56].Henry, P., Krainin, M., Herbst, E., Ren, X., Fox, D.: RGB-D mapping: using kinect-style depth cameras for dense 3D modeling of indoor environments. Int. J. Robot. Res. 31(5), 647–663 (2012)

[67].Kaess, M., Ni, K., Dellaert, F.: Flow separation for fast and robust stereo odometry. In: IEEE International Conference on Robotics and Automation, 2009 (ICRA’09), pp. 3539–3544 (2009)

[73].Lacroix, S., Mallet, A., Chatila, R., Gallo, L.: Rover self localization in planetary-like environments. In: Artificial Intelligence, Robotics and Automation in Space, pp. 440–433 (1999)

[79].Matthies, L.: Error modeling in stereo navigation. IEEE J. Robot. Autom. 3, 239–250 (1987)

[82].Moravec, H.: Obstacle avoidance and navigation in the real world by a seeing robot rover. In: Technical Report. CMU-RI-TR-80-03, Robotics Institute, Carnegie Mellon University & Doctoral Dissertation, Stanford University, CMU-RI-TR-80-03 (1980)

[88].Nistér, D., Naroditsky, O., Bergen, J.: Visual odometry. In: Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2004), vol. 1, pp. I–652 (2004)

[90].Olson, C., Matthies, L., Schoppers, M., Maimone, M.: Rover navigation using stereo ego-motion. Robot. Auton. Syst. 43(4), 215–229 (2003)

[101].Scaramuzza, D., Fraundorfer, F.: Visual odometry: part I—the first 30 years and fundamentals. IEEE Robot. Autom. Mag. 18(4), 80–92 (2011)

[108].Talukder, A., Goldberg, S., Matthies, L., Ansar, A.: Real-time detection of moving objects in a dynamic scene from moving robotic vehicles. In: 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2003 (IROS 2003), Proceedings, vol. 2, pp. 1308–1313 (2003). doi: 10.1109/IROS.2003.1248826

[118].Zhang, T., Liu, X., Kühnlenz, K., Buss, M.: Visual odometry for the autonomous city explorer. In: Proceedings of the 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS’09), pp. 3513–3518. IEEE Press, Piscataway (2009). http://dl.acm.org/citation.cfm?id=1733023.1733309

原文链接

https://link.springer.com/article/10.1007/s40903-015-0032-7

目录
相关文章
|
6月前
|
定位技术 计算机视觉 C++
C++计算机视觉库OpenCV在Visual Studio 2022的配置方法
C++计算机视觉库OpenCV在Visual Studio 2022的配置方法
194 1
Visual Studio(VS2017/VS2019) C++ 配置 CPLEX 教程
Visual Studio(VS2017/VS2019) C++ 配置 CPLEX 教程
Visual Studio(VS2017/VS2019) C++ 配置 CPLEX 教程
|
C++ 计算机视觉
图像处理ITK与Visual Studio2017的配置教程!
VS2017配置ITK 本次教程中的环境配置如下: Visual Studio2017,cmake 3.9.4,ITK 4.13;
|
算法 机器人 定位技术
【ipaper】Visual Odometry 和 Visual SLAM概述:第六部分
【ipaper】 Mapping | An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics 第六部分 Mapping 在大多数现实世界的机器人应用中,没有用于移动机器人定位和导航的地图。
1516 0
|
算法 定位技术
【ipaper】Visual Odometry 和 Visual SLAM概述:第五部分
【ipaper】 An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics 第五部分 Localization Stereo Vision Versus Monocular Vision Stereo Visual Odometry 在双目视觉中,在单个时间步长(single time-step)中通过三角测量重建3D信息,同时观察在空间上被已知基线距离分开的左右图像的特征。
1444 0
|
定位技术
【ipaper】Visual Odometry 和 Visual SLAM概述:第四部分
Localization Fig2 Fig2 一个单目VO系统的例子,通过匹配2D图像中的对应点来计算在空间中观测相同3D点的相机之间的相对姿态Tnm。
1563 0
|
传感器 算法 定位技术
【ipaper】Visual Odometry 和 Visual SLAM概述:第三部分
【ipaper】 An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics 第三部分 Related Work(相关工作) Visual SLAM 正如我们在介绍部分中所描述的那样,SLAM是机器人在未知环境中localize并且同步构建其周围环境的一种方式。
1475 0
|
传感器 机器人 定位技术
【ipaper】Visual Odometry 和 Visual SLAM概述:第一部分
摘要(Abstract) 本文旨在为研究机器人和自动化系统特别是那些对机器人定位和建图(localization and mapping)感兴趣的研究人员铺平道路( pave the way )。
1373 0
|
Web App开发 C++
HSmartWindowControl之安装篇 (Visual Studio 2013 & Halcon 18)
原文:HSmartWindowControl之安装篇 (Visual Studio 2013 & Halcon 18) 1、环境简介 Visual Studio 2013社区版 Halcon18.05 2、使用Nuget在VS工程中安装Halcon插件 搜索栏输入关键字halcon,出现两个插件,分别是halcon语言的接口和halcon引擎,全部安装即可。
3264 0