0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

简单的V-SLAM介绍

新机器视觉 来源:知乎 作者:黄浴 2020-08-28 15:15 次阅读

【导读】SLAM是“Simultaneous Localization And Mapping”的缩写,可译为同步定位与建图。最早,SLAM 主要用在机器人领域,是为了在没有任何先验知识的情况下,根据传感器数据实时构建周围环境地图,同时根据这个地图推测自身的定位。因此本文以简单清晰的文字为大家介绍了视觉V-SLAM。

简单的V-SLAM介绍,就当入门:)。

首先,从双目立体几何(stereo geometry)原理开始来定义外极(epipolar)约束:两个摄像头光心分别是 c0 和 c1,3-D 空间点 p 在两个图像平面的投影点分别是 x0 和 x1,那么直线 c0c1 和两个图像平面的交点即外极点(epipole)e0 和 e1,pc0c1 平面称为外极平面(epipolar plane),它和两个图像平面的交线 l0 和 l1 即外极线(epipolar line);可以看到两个摄像头坐标系之间的转换满足(R,t),同时说明摄像头 c0 的图像点 x0 在摄像头 c1 的图像对应点 x1 一定落在其外极线 l1,反之依然;

(a)对应一条光线的外极线 (b)对应的外极线集合和外极平面 外极线约束

这里需要定义一个本质矩阵(essential matrix)E 和一个基础矩阵(fundamental matrix)F:E = [t]×R,其中 [t]× 是反对称矩阵,即定义向量

那么

而 F = A−TEA−1,其中 A 是摄像头内参数矩阵;对矩阵 E 和矩阵 F 来说,均满足外极约束方程x1TEx0 =0,x1TFx0 =0

前者是摄像头已标定情况下图像特征点的对应关系,后者是摄像头未标定情况下图像特征点的对应关系;

其次,得到外极线约束(以F矩阵为例,E矩阵同样)如下

l1=Fx0,l0=x1F,

以及,外极点约束(以F矩阵为例,E矩阵同样)如下

Fe0=0,FTe1=0;

根据上面图像特征点的外极约束方程,有8 点算法求解 F 和 E,以 F 为例,给定一组匹配特征点(n> 7)

定义F矩阵元素fij(i=1~3,j=1~3),那么线性齐次方程组为

简记为

Qf = 0

做SVD得到Q = USVT,而最终F的解是V最右的奇异向量(singular vector);

另外,因为E矩阵完全由摄像头外参数(R和t共6个未知参数,但有一个不确定平移尺度量)决定,所以存在5 点算法求解E矩阵;

可以分解E得到摄像头外参数,其步骤如下:

i. 同样对E矩阵做奇异值分解(SVD):

ii. 那么第一个摄像头投影矩阵简单设为

而第二个摄像头矩阵P2有四种可能情况,如图(a)-(d)所示:

其中

从E矩阵分解得到R和t

根据视图方向与摄像头中心到3-D点的方向之间夹角可以发现,四个可能中只有情况(a)是合理的解;

确定两个视角的姿态之后,匹配的特征点 x,x’可以重建其 3-D 坐标X,即三角化(triangulation)理论;首先存在一个线性解:设两个摄像头投影矩阵为 P 和 P’,相应的它们列向量为pi,pi’,i=1~3,则有方程组:AX= 0

其中

但一些误差干扰的存在,上述线性解是不存在的;所以需要一个非线性的解,这里采用F 矩阵定义的外极约束方程xTFx’= 0,得到最小化误差函数为

下面采用外极线 l, l’的来约束定义误差,如图所示,将目标函数重写为

外极线定义的误差

另外,在已知重建的 3-D 点集,如何和新视角的 2-D 图像特征点匹配呢?这个问题解法称为PnP(Perspective n Points),算法如下:

i. 首先,3D 点表示为 4 个控制点的加权和;

ii. 控制点坐标是求解的(12)未知数;

iii. 3D点投影到图像上以控制点坐标建立线性方程;

iv. 控制点坐标表达为零特征向量(null eigenvectors)线性组合;

v. 上面组合的权重(bi)是新未知数(<4);

vi. 增加刚体(rigidity)约束以得到bi二次方程;

vii. 根据bi数目(无论线性化,或重新线性化)求解。

(注:有时候3-D-2-D匹配比3-D之间匹配的精度高)

PnP求解的示意图

这里需要补充两个概念,一是鲁棒估计的随机样本共识法(RANSAC,RANdom SAmple Consensus),另一个是全局优化的集束修正法(BA,bundle adjustment):

i. RANSAC的目的是在包含异常点(outlier)的数据集上鲁棒地拟合一个模型,如图 2-12 所示:

1. 随机选择(最小)数据点子集并实例化(instantiate)模型;

2. 基于此模型,将所有数据点分类为内点(inlier)或异常点;

3. 迭代重复 1-2 步;

4. 选择最大的内地集,以此重新估计最终模型。

RANSAC示意图

ii. BA的目的是优化全局参数估计,对 SLAM 来说,结构重建的 3-D 点X和其对应的 2-D 特征点x,还有估计的视角变换参数(甚至包括摄像头内参数)P,位于一个重投影(reprojection)误差函数 D 最小化框架下(如图所示),即

BA示意图

这里集束(Bundle)指2-D点和3-D点之间的光线集,而修正(Adjustment)是指全局优化过程;其解法是非线性迭代的梯度下降法,如Gauss-Newton 方法和其修正 Levenberg-Marquardt 方法,因为问题自身的特性,这里的雅可比矩阵是非常稀疏的;另外,只取重建 3-D 点修正的话,称为 structure only BA,而只取视角变换修正的话,称为 motion-only BA;

在以上基础之上,再重新审视SLAM过程:

i. 首先要提到概念 VO,即视觉里程计(visual odometry);VO 是 SLAM 的一部分,VO 主要是估计视角之间的变换,或者运动参数,它不需要输出制图(mapping)的结果,而且 BA 就是 motion-only 的模式;

ii. SLAM 方法分两种途径,一种是递推滤波器方法,另一种是批处理估计方法;

a)滤波器方法,比如卡尔曼滤波递推估计,实际上建立一个状态空间的观测模型和状态转换(运动)模型;观察模型描述当摄像头姿态和地标位置(来自于地图)已知时观测(地标)的概率; 运动模型是系统状态(摄像头姿态)转换的概率分布,即马尔可夫过程; 那么在递归贝叶斯估计中,同时更新系统状态和建立的地图,其中融合来自不同视角的观测来完成制图,而估计系统状态可计算摄像头的姿态,即定位问题;

b)批处理估计方法,也称“关键帧”方法,其步骤是:

1)首先通过选择的头两(关键)帧,采用双目几何的特征点匹配得到初始的3-D点云重建;

2)正常模式:假设 3D 地图可用,并且估计出摄像头增量运动,跟踪特征点并使用 PnP 进行摄像头姿态估计;

3)恢复模式:假设 3D 地图可用,但跟踪失败故没有增量运动,可相对于先前重建的地图重新定位(re-localize)摄像头姿势;

4)关键帧 BA:保持一个“关键帧”子集,状态向量是所有关键帧的 3D 地标和对应摄像头姿势,BA 可以在与跟踪模块并列的线程中调整状态估计;

(注意:关键帧的选择策略是算法性能很重要的一个因素)

SLAM 中的闭环(loop closure)问题:当摄像头又回到原来位置,称为闭环,需要检测闭环,并以此在 BA 框架下优化结构和运动估计;闭环检测和重定位是类似的,可以基于图像特征的匹配实现,俗称“基于图像的重定位(image-based re-localization),当关键帧子集较大的时候,需要对特征匹配进行压缩和加速,比如词包(bag of words)法和K维-树(KD-tree)数据结构等等;

SLAM 中的传感器可以是单目、双目、深度传感器(RGB-D)甚至激光雷达,也可以和 IMU 融合,称为 VINS(visual inertial navigation system)。

附录:G-N 和 L-M 的非线性最小二乘算法

假设有观测向量 zi’,其预测模型为 zi = zi(x),其中x为模型参数;那么最小二乘(LS)法就是最小化如下代价函数:平方误差加权和(weighted Sum of Squared Error,SSE)

其中 Wi 是一个任意对称正定(symmetric positive definite,SPD) 矩阵,特征误差函数为

雅可比矩阵J和黑森(Hessian)矩阵H的计算为

那么 H 近似为

H≈J⊤WJ

作为梯度下降法,其 G-N 迭代的步进量即 z → z + delta z,由下面方程组计算

对于上面 G-N 的迭代步进量计算,可能左边的矩阵不可逆。为此,一种改进的方法是在对角线元素中加入阻尼因子(Damped factor),即 L-M 迭代的步进量计算变成如下方程组

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器人
    +关注

    关注

    206

    文章

    27004

    浏览量

    201353
  • 摄像头
    +关注

    关注

    59

    文章

    4605

    浏览量

    92861
  • SLAM
    +关注

    关注

    22

    文章

    389

    浏览量

    31588

原文标题:简单明了,一文入门视觉SLAM

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    步进电机的简单介绍

    步进电机的命名,参数,转速简单介绍
    的头像 发表于 04-17 21:40 73次阅读

    什么是SLAMSLAM算法涉及的4要素

    SLAM技术可以应用在无人驾驶汽车、无人机、机器人、虚拟现实等领域中,为这些领域的发展提供了支持。SLAM技术的发展已经逐渐从单纯的定位和地图构建转向了基于场景理解的功能。
    发表于 04-04 11:50 201次阅读

    从基本原理到应用的SLAM技术深度解析

    LSD-SLAM 即 Large-Scale Direct SLAM,兼容单目相机和双目相机。LSD-SLAM是一种基于光流跟踪的直接法SLAM,但是实现了半稠密建图,建图规模大,可以
    发表于 02-26 09:41 1430次阅读
    从基本原理到应用的<b class='flag-5'>SLAM</b>技术深度解析

    什么是激光雷达3D SLAM技术?

    什么是激光雷达3DSLAM?在了解这个概念之前,我们首先需要弄懂什么是“SLAM”。SLAM,英文是SimultaneousLocalizationandMapping,意思是即时定位与建图。通俗
    的头像 发表于 11-25 08:23 1064次阅读
    什么是激光雷达3D <b class='flag-5'>SLAM</b>技术?

    探讨目前主流3D激光SLAM算法方案

     激光SLAM局部定位精度高但全局定位能力差且对环境特征不敏感,而视觉SLAM全局定位能力好但局部定位相对激光雷达较差,两者融合可以提高SLAM系统的精度和鲁棒性。
    发表于 10-23 11:01 804次阅读
    探讨目前主流3D激光<b class='flag-5'>SLAM</b>算法方案

    3D重建的SLAM方案算法解析

    GO-SLAM主要还是基于NeRF进行稠密重建,可以发现相较于NICE-SLAM这些SOTA方案,GO-SLAM重建场景的全局一致性更好,这主要是因为它引入了回环和全局BA来优化累计误差。
    发表于 09-11 10:03 778次阅读
    3D重建的<b class='flag-5'>SLAM</b>方案算法解析

    视觉SLAM是什么?视觉SLAM的工作原理 视觉SLAM框架解读

    近年来,SLAM技术取得了惊人的发展,领先一步的激光SLAM已成熟的应用于各大场景中,视觉SLAM虽在落地应用上不及激光SLAM,但也是目前研究的一大热点,今天我们就来详细聊聊视觉
    的头像 发表于 09-05 09:31 1714次阅读
    视觉<b class='flag-5'>SLAM</b>是什么?视觉<b class='flag-5'>SLAM</b>的工作原理 视觉<b class='flag-5'>SLAM</b>框架解读

    什么是SLAM?视觉SLAM怎么实现?

    上周的组会上,我给研一的萌新们讲解什么是SLAM,为了能让他们在没有任何基础的情况下大致听懂,PPT只能多图少字没公式,这里我就把上周的组会汇报总结一下。 这次汇报的题目我定为“视觉SLAM:一直在
    的头像 发表于 08-21 10:02 2056次阅读
    什么是<b class='flag-5'>SLAM</b>?视觉<b class='flag-5'>SLAM</b>怎么实现?

    什么是SLAM SLAM技术目前主要应用在哪些领域?

    激光雷达是最古老,研究也最多的SLAM传感器。它们提供机器人本体与周围环境障碍物间的距离信息。常见的激光雷达,例如SICK、Velodyne还有我们国产的rplidar等,都可以拿来做SLAM。激光雷达能以很高精度测出机器人周围障碍点的角度和距离,从而很方便地实现
    发表于 08-16 10:31 2033次阅读
    什么是<b class='flag-5'>SLAM</b> <b class='flag-5'>SLAM</b>技术目前主要应用在哪些领域?

    视觉SLAM开源方案汇总 视觉SLAM设备选型

    SLAM至今已历经三十多年的研究,这里给出经典视觉SLAM框架,这个框架本身及其包含的算法已经基本定型,并且已经在许多视觉程序库和机器人程序库中提供。
    发表于 08-10 14:15 453次阅读
    视觉<b class='flag-5'>SLAM</b>开源方案汇总 视觉<b class='flag-5'>SLAM</b>设备选型

    slam技术研究现状 SLAM技术开发和应用挑战

    近日,全国SLAM技术论坛于厦门大学举办。本次论坛聚焦SLAM和相关技术的前沿发展以及在应用领域的行业机会,旨在为SLAM技术和应用领域搭建全方位展示与交流平台,推动国内SLAM技术的
    的头像 发表于 08-01 09:37 575次阅读

    ORB-SLAM3整体流程详解

    与ORB-SLAM2相比,ORB-SLAM3在处理大视差和长时间未观测到的场景时效果更好。它还提供了更准确的帧间运动估计和更快的处理速度。
    的头像 发表于 06-19 09:28 2116次阅读
    ORB-<b class='flag-5'>SLAM</b>3整体流程详解

    使用Bittle和Raspberry Pi 4的ROS SLAM

    电子发烧友网站提供《使用Bittle和Raspberry Pi 4的ROS SLAM.zip》资料免费下载
    发表于 06-14 15:23 0次下载
    使用Bittle和Raspberry Pi 4的ROS <b class='flag-5'>SLAM</b>

    自动驾驶中的SLAM

    二十余年来,同时定位与建图(Simultaneous LocalizationAnd Mapping,SLAM)在移动机器人技术社区中一直是一个非常受欢迎 的话题。SLAM有很多应用,例如空间探索
    发表于 06-02 14:25 2次下载
    自动驾驶中的<b class='flag-5'>SLAM</b>

    一文看尽SLAM创新点的前世今生

    很多同学都觉得Slam方向难以入门,也难以学深。但其实相对来讲,不像其他很多方向,很多的东西大家都已经做了,并且做的很不错,要想发论文或者找创意突破比较吃力。slam方向还有很多深层次的多领域结合应用的内容还比较少,并且slam
    的头像 发表于 05-09 14:25 675次阅读
    一文看尽<b class='flag-5'>SLAM</b>创新点的前世今生