0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

教你们视觉SLAM如何去提高定位精度

新机器视觉 来源:计算机视觉life 作者:计算机视觉life 2021-07-06 10:57 次阅读

EpsAvlc:

这个事情的回答需要基于你的动机。

如果你想改进已有的算法以获得在数据集上的视觉里程计定位精度上的提升,那么我的判断是比较难。

如果你是在实际场景中发现已有的框架(例如ORB-SLAM)的定位精度不能达到论文中,或者你预想的精度,那么这个事情是可以根据实际场景讨论的。

排名6, 11, 12, 14, 15的方案是基于视觉的,或者至少融合了视觉。其漂移误差大都低于1%。这是什么概念?我本科时参加的机器人竞赛里,经过仔细标定的轮式里程计,精度也不过1%。当然,视觉里程计的最终漂移误差一般都是回环后再算的,直接使用的话根据前端的调教程度,大概可以看做1%左右。不过无论怎样,对于增量式的定位方案,1%的误差应该都可以算是差强人意了。想要再有提升还是挺困难的,要么就加入许多Trick(过拟合数据集),但是感觉意义不大。

如果是在一些复杂场景下需要提升定位精度,那么还是有许多事情可以做的。像之前答主提到的,用语义分割,将动态物体上的特征点滤去,以提升BA精度。我认为有一些场景,是目前已有的框架力所不能逮的:

1.Long-term场景。如何保证夏天建的室外地图,在冬天也能用?这涉及到季节不变的路标的设计与提取。语义分割天然就有long-term特性,将语义分割考虑进去是一个较好的方法。

2.高度动态的场景。比如走在去菜市场的路上,来往人群很多。人是可以精确定位的,但是SLAM可能就要抓瞎了。

3.纹理缺失的场景。这算是室内SLAM时经常需要面对的事情了。

这三个问题,其实都有许多工作已经在做了。谷歌学术上搜索相关关键字就有。

就像综述《Past, Present, and Future of SimultaneousLocalization And Mapping: Towards theRobust-Perception Age》标题所述,目前鲁棒才是SLAM的关键命题。发布于 06-27

郑纯然:

可以做一些深度学习辅助提取路标的工作,比如:如果已经知道图像中某个物体属于一个既定的类别,然后再提角点,就会比针对全图提角点鲁棒性高很多。

刘宴诚:

具体细节太多了,ORBSLAM2这个框架基本上所有的代码都在围绕如何提高特征点的质量。其实想想特征点法提高定位精度无非就是如何保证特征点匹配的准确以及特征点选取的准确,可问题就出在无法保证百分百绝对精确,所以通过很多骚操作把这个事情做到极致,就可以提高定位精度了。

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • SLAM
    +关注

    关注

    22

    文章

    376

    浏览量

    31569
  • 数据集
    +关注

    关注

    4

    文章

    1174

    浏览量

    24288
  • 深度学习
    +关注

    关注

    73

    文章

    5204

    浏览量

    119804

原文标题:视觉SLAM怎么去提高定位精度?

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    怎么去处理视觉SLAM长期定位中的外观变化和轨迹漂移呢?

    服务机器人、巡检机器人、自动驾驶车辆等SLAM应用,需要进行长时间的定位和导航,但是可能会遇到很多光照变化(甚至天气季节变化)、不同视角提取的不同特征、原先场景的目标已经移除等等很多的环境变化问题,如果处理不好的话很容易引发轨迹漂移甚至跟踪丢失。
    的头像 发表于 12-04 10:01 269次阅读
    怎么去处理<b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>长期<b class='flag-5'>定位</b>中的外观变化和轨迹漂移呢?

    基于视觉SLAM的研究现状

    目前视觉SLAM系统可以在微型个人计算机(PC)和嵌入式设备中运行,甚至可以在智能手机等移动设备中运行(Klein和Murray,2009)。与室内或室外移动机器人不同,自动驾驶车辆具有更复杂的参数,尤其是当车辆在城市环境中自动驾驶时。
    发表于 12-04 09:22 589次阅读
    基于<b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>的研究现状

    基于ST STA1385的高精度组合定位系统 P-Box 方案

    精度定位可分为三个级别:亚米级、厘米级和毫米级,而定位技术的发展路线是结合RTK、机器视觉、IMU和高精度地图,以实现全场景、多频、多源融
    的头像 发表于 11-21 08:26 301次阅读
    基于ST STA1385的高<b class='flag-5'>精度</b>组合<b class='flag-5'>定位</b>系统 P-Box 方案

    探讨目前主流3D激光SLAM算法方案

     激光SLAM局部定位精度高但全局定位能力差且对环境特征不敏感,而视觉SLAM全局
    发表于 10-23 11:01 696次阅读
    探讨目前主流3D激光<b class='flag-5'>SLAM</b>算法方案

    一文详解SLAM关键技术

    SLAM(Simultaneous Localization and Mapping)同步定位与地图构建,一种同时实现设备自身定位和环境地图构建的技术。
    的头像 发表于 09-20 10:59 1088次阅读
    一文详解<b class='flag-5'>SLAM</b>关键技术

    基于英特尔开发套件使用ORB-SLAM3实现无人机实时定位

    工业建模对于精度有着高要求,这意味着无人机的 SLAM 算法要提供可靠的实时位姿估计。ORB-SLAM3 是目前融合双目视觉与 IMU 的优秀算法,其前端是针对实时性优化的 ORB 描
    的头像 发表于 09-18 10:12 457次阅读
    基于英特尔开发套件使用ORB-<b class='flag-5'>SLAM</b>3实现无人机实时<b class='flag-5'>定位</b>

    SLAM领域中的VIO(视觉惯性里程计)

    IMU测量可以提高视觉SLAM在某些复杂场景的鲁棒性,在于相机快速运动、动态障碍物、光线明暗变化明显、环境中纹理缺失等导致图像信息质量较差的情况下,利用IMU信息仍能得到有效的定位结果
    的头像 发表于 09-07 16:57 1145次阅读
    <b class='flag-5'>SLAM</b>领域中的VIO(<b class='flag-5'>视觉</b>惯性里程计)

    视觉SLAM是什么?视觉SLAM的工作原理 视觉SLAM框架解读

    近年来,SLAM技术取得了惊人的发展,领先一步的激光SLAM已成熟的应用于各大场景中,视觉SLAM虽在落地应用上不及激光SLAM,但也是目前
    的头像 发表于 09-05 09:31 1469次阅读
    <b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>是什么?<b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>的工作原理 <b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>框架解读

    什么是SLAM视觉SLAM怎么实现?

    上周的组会上,我给研一的萌新们讲解什么是SLAM,为了能让他们在没有任何基础的情况下大致听懂,PPT只能多图少字没公式,这里我就把上周的组会汇报总结一下。 这次汇报的题目我定为“视觉SLAM:一直在
    的头像 发表于 08-21 10:02 1652次阅读
    什么是<b class='flag-5'>SLAM</b>?<b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>怎么实现?

    视觉SLAM开源方案汇总 视觉SLAM设备选型

    SLAM至今已历经三十多年的研究,这里给出经典视觉SLAM框架,这个框架本身及其包含的算法已经基本定型,并且已经在许多视觉程序库和机器人程序库中提供。
    发表于 08-10 14:15 416次阅读
    <b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>开源方案汇总 <b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b>设备选型

    浅析基于SLAM的机器人自主定位导航

    正如图中所示,机器人自主定位导航技术中包括:定位和地图创建(SLAM)与路径规划和运动控制两个部分,而SLAM本身只是完成机器人的定位和地图
    发表于 08-03 11:12 720次阅读
    浅析基于<b class='flag-5'>SLAM</b>的机器人自主<b class='flag-5'>定位</b>导航

    CCD视觉检测—FPC柔性线路板视觉定位检测

    FPC在加工过程中,为了满足电路设计的精度,生产切割时可以增加视觉定位检测系统,提高精度定位完成切割。
    的头像 发表于 07-07 13:38 523次阅读
    CCD<b class='flag-5'>视觉</b>检测—FPC柔性线路板<b class='flag-5'>视觉</b><b class='flag-5'>定位</b>检测

    使用OptiTrack光学跟踪系统和Turtlebot机器人进行视觉SLAM定位实验

    本文旨在介绍使用OptiTrack光学跟踪系统和Turtlebot机器人进行视觉SLAM定位实验的详细流程,包括实验平台搭建过程、数据处理过程以及SLAM估计评估方法。 由于涉及知识较
    的头像 发表于 06-13 09:24 840次阅读
    使用OptiTrack光学跟踪系统和Turtlebot机器人进行<b class='flag-5'>视觉</b><b class='flag-5'>SLAM</b><b class='flag-5'>定位</b>实验

    自动驾驶中的SLAM

    )可用来解决定位问题,但并不充分,即使使用定位完美的基站, 经典GNSS解决方案的精度有所提高,可用性也
    发表于 06-02 14:25 2次下载
    自动驾驶中的<b class='flag-5'>SLAM</b>

    在FPGA开发板上实现基于立体视觉SLAM

    SLAM(同步定位和地图绘制)在自动驾驶、AGV 和无人机等各种应用中引起了人们的广泛关注。
    发表于 05-08 17:06 1008次阅读
    在FPGA开发板上实现基于立体<b class='flag-5'>视觉</b>的<b class='flag-5'>SLAM</b>