摄像机再定位中深度学习的不确定性建模

资料大小: 5.82 MB

所需积分: 1

下载次数:

用户评论: 0条评论,查看

上传日期: 2020-05-21

上 传 者: Senbon他上传的所有资料

资料介绍

标签:深度学习(2483)RGB(194)摄像机(596)

  我们提出了一个鲁棒的实时单目六自由度视觉重定位系统。利用贝叶斯卷积神经网络对单RGB图像的6自由度摄像机姿态进行回归。它以端到端的方式进行培训,不需要额外的工程或图形优化。该算法可在室内外实时运行,计算时间不超过6ms。对于非常大的室外场景,它可获得大约2米和6度的精度,而对于室内场景,它可获得0.5米和10度的精度。利用贝叶斯卷积神经网络实现方法,我们得到了模型的再定位不确定性估计,并提高了大规模户外数据集的定位精度。我们利用不确定性度量来估计度量重定位误差,并检测输入图像中场景的存在与否。结果表明,模型的不确定性是由图像在姿态和外观上与训练数据集的不一致引起的。

  现代同步定位与映射(SLAM)系统在增强现实和国内机器人等领域有着良好的应用前景〔1〕,但由于其无法应对大视角或外观的变化,在野外还没有得到广泛的应用。视觉SLAM使用的点标记,例如SIFT[2]或ORB[3],无法创建对这些具有挑战性的场景足够健壮的表示。密集SLAM系统[4]、[5]试图直接从像素估计相机的运动,但在这些情况下也是脆弱的。他们对帧之间微小变化的假设随着大视角或外观的变化而中断。除了这些缺点之外,这两种度量SLAM框架都需要良好的初始姿态估计,以便能够连续跟踪相机的姿态,并且在重新定位时无效。一个互补的系统,基于外观的SLAM,可以重新定位到一个粗略的姿态估计,但被限制在有限数量的离散位置中对场景进行分类。这是通过使用具有FAB-MAP的SIFT〔2〕特征〔6〕或使用卷积神经网络特征〔7〕来实现的。

用户评论

查看全部 条评论

发表评论请先 , 还没有账号?免费注册

发表评论

用户评论
技术交流、我要发言! 发表评论可获取积分! 请遵守相关规定。
上传电子资料