大牛讲堂|SLAM最终话:视觉里程计

简介:
+关注继续查看

雷锋网按:本文作者高翔博士。Simultaneous Localization and Mapping,即时定位与地图构建技术。无论在室内、野外、空中还是水下,SLAM是机器人进入未知环境遇到的第一个问题。本期将给大家介绍SLAM的视觉里程计。

大牛讲堂|SLAM最终话:视觉里程计

本讲主要关注视觉里程计。为了讲清楚它的来龙去脉,我们会进行一些公式的推导。视觉里程计算法需要大量的几何知识,我们将在必要的时候,以Tips的形式介绍一些背景知识。

一、里程计

在里程计问题中,我们希望测量一个运动物体的轨迹。这可以通过许多不同的手段来实现。例如,我们在汽车轮胎上安装计数码盘,就可以得到轮胎转动的距离,从而得到汽车的估计。或者,也可以测量汽车的速度、加速度,通过时间积分来计算它的位移。完成这种运动估计的装置(包括硬件和算法)叫做里程计(Odometry)。

里程计一个很重要的特性,是它只关心局部时间上的运动,多数时候是指两个时刻间的运动。当我们以某种间隔对时间进行采样时,就可估计运动物体在各时间间隔之内的运动。由于这个估计受噪声影响,先前时刻的估计误差,会累加到后面时间的运动之上,这种现象称为漂移(Drift)。

大牛讲堂|SLAM最终话:视觉里程计

漂移是我们不希望看到的,它们扰乱全局轨迹的估计。但是,如果没有其他校正机制,而只有局部运动的情况下,这也是所有里程计都不可避免的现象之一。

二、视觉里程计

如果一个里程计主要依靠视觉传感器,比如单目、双目相机,我们就叫它视觉里程计。

和传统里程计一样,视觉里程计最主要的问题是如何从几个相邻图像中,估计相机的运动。

大牛讲堂|SLAM最终话:视觉里程计

相邻图像间的相似性,为我们估计相机运动提供了依据。目前,视觉里程计的主要方法分为基于特征点的方法和不使用特征点的直接法两种。特征点方法也叫稀疏方法,而使用特征点描述的也叫稠密方法

Tips

我们知道,相机能够把三维空间中的信息变成一张二维的照片。这件事情是怎么做到的呢?我们需要一个数学模型来清楚地描述它,也就是相机模型。其中,针孔模型是最常用,也是最简单的相机模型。

在这个模型中,我们考虑一个空间点X=[x,y,z],它投影在相机平面,并产生了一个像素p,位于照片中的[u,v]位置。假设相机光圈中心对准z轴,成像平面位于z=1处,那么根据下图描述的关系,投影方程即为:

大牛讲堂|SLAM最终话:视觉里程计

大牛讲堂|SLAM最终话:视觉里程计

写成惯用的矩阵形式,则有:

大牛讲堂|SLAM最终话:视觉里程计

把z写在左边,写成zp的形式,表示z为p的深度值。我们可以看到,投影公式的形式是相当简单的。实际当中,每个相机的焦距、光圈中心都有所不同,这些称为它们的内参,一般用C表示。于是投影方程变为:

大牛讲堂|SLAM最终话:视觉里程计

又,因为相机本身相对外部世界存在着一个运动。这个运动包括三维空间里的旋转和位移,由一个旋转矩阵R和平移向量T描述,所以最后的投影关系为:

大牛讲堂|SLAM最终话:视觉里程计

这个方程描述了相机内参、位姿和像素之间的关系。其中内参可以通过标定相机求取,p可以在图像中观察到,而z,X,R,T则是待估计的变量。

三、特征匹配

基于特征的方法是当前视觉里程计的主流方式,有很长时间的研究历史。特征方法认为,对于两张图像,应该首先选取一些具有代表性的点,称为特征点。之后,仅针对这些特征点估计相机的运动,同时估计特征点的空间位置。图像里其他非特征点的信息,则被丢弃了。

特征点方法把一个对图像的运动估计转换为对两组点之间的运动估计。于是,它的主要问题为:

  1. 我们如何获取图像特征点?如何匹配它们?


  2. 如何根据已知特征点,计算相机的运动?

1、计算特征点

第一个问题属于计算机视觉的研究范围,和几何关系不大,我们在此简单地加以介绍。过去的研究中,人们设计了很多特征点提取方法,包括图像中的角点、色块等。近年来流行的特征点计算则更为复杂,主要的目的是,在图像发生一定的改变后,特征点提取算法仍能提取出相同的点,并能判别它们之间的相关性。
常用的特征点有Harris角点、SIFT、SURF、ORB等。它们能够标识出,计算机认为图像里哪些点比较特殊,具有较重要的意义。

大牛讲堂|SLAM最终话:视觉里程计

一张图像中的Sift特征点

对于每一个特征点,为了说明它与其他点的区别,人们还使用“描述子”(Descriptor)对它们加以描述。描述子通常是一个向量,含有特征点和周围区域的信息。如果两个特征点的描述子相似,我们就可以认为它们是同一个点。根据特征点和描述子的信息,我们可以计算出两张图像中的匹配点。

大牛讲堂|SLAM最终话:视觉里程计

匹配点的示意图

2、根据匹配好的特征点估计相机运动

在匹配好特征点后,我们可以得到两个一一对应的像素点集。接下来要做的,就是根据两组匹配好的点集,计算相机的运动了。在普通的单目成像中,我们只知道这两组点的像素坐标。而在双目和RGBD配置中,我们还知道该特征点离相机的距离。因此,该问题就出现了多种形式:

· 2D-2D形式:通过两个图像的像素位置来估计相机的运动。


· 3D-2D形式:假设已知其中一组点的3D坐标,以及另一组点的2D坐标,求相机运动。


· 3D-3D形式:两组点的3D坐标均已知,估计相机的运动。

那么问题就来了:是否需要为这三种情况设计不同的计算方法呢?答案是:既可以单独做,也可以统一到一个大框架里去做。

  • 单独做的时候,2D-2D使用对极几何的方法,3D-2D使用PnP求解算法,而3D-3D则称为ICP方法(准确地说,ICP不需要各点的配对关系)。

  • 统一的框架,就是指把所有未知变量均作为优化变量,而几何关系则是优化变量之间的约束。由于噪声的存在,几何约束通常无法完美满足。于是,我们把与约束不一致的地方写进误差函数。通过最小化误差函数,来求得各个变量的估计值。这种思路也称为Bundle Adjustment(BA,中文亦称捆集优化或光束法平差)。

代数方法简洁优美,但是它们对于噪声的容忍性较差。存在误匹配,或者像素坐标存在较大误差时,它给出的解会不可靠。而在优化方法中,我们先猜测一个初始值,然后根据梯度方向进行迭代,使误差下降。Bundle Adjustment非常通用,适用于任意可以建模的模型。但是,由于优化问题本身非凸、非线性,使得迭代方法往往只能求出局部最优解,而无法获得全局最优解。也就是说,只有在初始值足够好的情况下,我们才能希望得到一个满意的解。

因此,在实际的VO中,我们会结合这两种方法的优点。先使用代数方法估计一个粗略的运动,然后再用Bundle Adjustment进行优化,求得可精确的值。

3、重建

在2D-2D情形下,我们通过两个图像的像素位置,估计了相机的运动。在此过程中,并没有用到这些像素点的3D空间位置信息(而且我们也不知道)。不过,在得到相机运动之后,就可以根据这个运动信息,计算各个特征点的空间位置,该问题也称为三角化(Triangularization)。在原理上,只要我们在空间中的不同位置拍摄到了同一个点,就可以通过照片中的像素位置,来估计这个点在真实空间中的位置。

大牛讲堂|SLAM最终话:视觉里程计

(图片来自Wikipedia)

在SLAM中,三角化的结果,可以视为一种地图。这样,我们建立了对地图的一种点云描述:即通过大量的空间点,来估计整个地图的样貌。这虽然是一种较粗略的描述,但我们也能看出地图里究竟有些什么东西。在特征点方法中,因为我们只重构特征点的空间位置,这种方法也常常被称为稀疏重构。

四、直接法(Direct Methods)

除了使用特征点以外,直接法为我们提供了另一种思路。直接法认为,对图像提取特征点的过程中,丢弃了图像里大量有用的信息。因为之后的运动估计、重建过程并未使用除特征点以外的信息。举例来说,对于一张640x480的图像,原本有30万左右的像素,但是我们只用了其中几百个特征点而已。此外,由于特征点的设计缺陷,我们无法保证对于每个图,都能提以足够的、有效的特征点。经验告诉我们,这只是在大部分时候是可行的。

直接法跳过了提取特征点的步骤。它构建一个优化问题,直接根据像素信息(通常是亮度),来估计相机的运动。这种方法省去了提特征的时间,然而代价则是,利用了所有信息之后,使得优化问题规模远远大于使用特征点的规模。因此,基于直接法的VO,多数需要GPU加速,才能做到实时化。此外,直接方法没有提特征点,它假设相机运动是连续的、缓慢的。只有在图像足够相似时才有效。而特征点方法在图像差异较大时也能工作。

因为利用了图像中所有的信息,直接法重构的地图是稠密的,这与基于稀疏特征点的VO有很大不同。在稠密地图里,你可以看到每处的细节,而不是离散的点。

大牛讲堂|SLAM最终话:视觉里程计

五、小结

本节介绍了VO的基本原理。

VO的目标是根据拍摄的图像估计相机的运动。它的主要方式分为特征点法直接方法。其中,特征点方法目前占据主流,能够在噪声较大、相机运动较快时工作,但地图则是稀疏特征点;直接方法不需要提特征,能够建立稠密地图,但存在着计算量大、鲁棒性不好的缺陷。

敬请期待下一期地平线大牛讲堂!

雷锋网注:本文由大牛讲堂授权雷锋网(公众号:雷锋网)发布,如需转载请联系原作者并注明作者和出处,不得删减内容。如有兴趣可关注公号“地平线机器人技术”,了解最新消息。


本文作者:大牛讲堂


本文转自雷锋网禁止二次转载,原文链接

相关文章
|
4月前
|
机器学习/深度学习 算法
谷歌大脑阿尔伯塔联合发表:离线强化学习的优化视角【附代码】
谷歌大脑阿尔伯塔联合发表:离线强化学习的优化视角【附代码】
|
5月前
运筹学学习笔记关键点纪要
运筹学学习笔记关键点纪要
26 0
|
7月前
|
机器学习/深度学习 运维 固态存储
AI-无损检测方向速读:基于深度学习的表面缺陷检测方法综述
在真实复杂的工业环境下,表面缺陷检测往往面临诸多挑战,例如存在缺陷成像与背景差异小、对比度低、缺陷尺度变化大且类型多样,缺陷图像中存在大量噪声,甚至缺陷在自然环境下成像存在大量干扰等情形,如图1所示,此时经典方法往往显得束手无策,难以取得较好的效果。
411 0
|
8月前
|
人工智能
AI视觉实战2:实时头发染色
在实时视频编辑领域,头发变色、修改发型是很流行和受欢迎的场景。这种功能除了音视频相关的技术,还离不开AI能力的支持。而且这种场景本身对实时性要求高,很适合在端侧应用落地。上一篇文章我们基于谷歌的MediaPipe项目实现了本地实时人脸检测功能,本文我们再来一步一步跑通端侧实时染色功能。
190 0
|
11月前
|
机器学习/深度学习 编解码 人工智能
首篇!无相机参数BEV感知!(北航、地平线)
CFT在nuScenes检测任务排行榜上实现了49.7%的NDS,与其他几何引导方法相比,这是第一个去除相机参数的工作。在没有时间输入和其他模态信息的情况下,CFT以较小的图像输入(1600×640)实现了第二高的性能。由于view-attention的变体,CFT将普通注意力的内存和transformer FLOPs分别减少了约12%和60%,NDS提高了1.0%。此外,它对噪声相机参数的天然鲁棒性使CFT更具竞争力!!
首篇!无相机参数BEV感知!(北航、地平线)
|
12月前
|
机器学习/深度学习 数据采集 计算机视觉
你是谁家的小猫咪--基于深度学习框架MegEngine 的猫咪识别
你是谁家的小猫咪--基于深度学习框架MegEngine 的猫咪识别
71 0
你是谁家的小猫咪--基于深度学习框架MegEngine 的猫咪识别
|
自然语言处理 算法 定位技术
Nature封面:神经科学家成功绘制大脑语义地图,解读人类思想迈出关键一步
科学家使用大脑成像技术绘制了一幅地图,让我们清楚看到大脑不同区域如何表征 958 个常见英语词汇及其含义。揭开这个谜题会有意想不到的回报:通过观察大脑活动,就能知道你在想什么。
419 0
Nature封面:神经科学家成功绘制大脑语义地图,解读人类思想迈出关键一步
|
机器学习/深度学习 人工智能 自然语言处理
一周AI最火论文 | 拟合力学模型,谷歌教机器人用5分钟的数据get多种运动技能
一周AI最火论文 | 拟合力学模型,谷歌教机器人用5分钟的数据get多种运动技能
120 0
|
存储 人工智能 API
ai视觉能有多强?第四章-车辆保险应用
使用阿里云实现车辆保险应用开发
682 0
ai视觉能有多强?第四章-车辆保险应用
|
机器学习/深度学习 传感器 人工智能
将全景分割用到养猪场,AI养猪到底靠不靠谱?
全景分割将实例分割与语义分割统一起来,自提出之后一直被用于分割街景等图像。但最近,有人把这项技术用到了养猪场。
推荐文章
更多