0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种360°全景定制的Transformer框架

倩倩 来源:极市平台 作者:廖康@知乎 2022-08-31 11:06 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

导读

现有的基于CNN 的全景深度估计方法侧重于消除全景失真,由于CNN中固定的接收场,无法有效地感知全景结构。本文提出了一种360°全景定制的Transformer框架,可以很容易地迁移到全景视觉其他dense prediction任务上,比如全景图像语义分割,无需改变任何网络结构便能取得SOTA性能。

342a6de0-28b9-11ed-ba43-dac502259ad0.jpg

论文链接:

https://arxiv.org/pdf/2203.09283.pdf

代码链接:

https://github.com/zhijieshen-bjtu/PanoFormer

文案:申志杰,廖康

343bf8a8-28b9-11ed-ba43-dac502259ad0.jpg

PanoFormer简介图

1. 研究背景及动机

单目全景深度估计(monocular omnidirectional depth estimation, MODE)是三维场景理解中的一个子领域,其任务设定为给定一张360°全景RGB图像,通过网络建模推理得到对应的360°深度图,相较于立体视觉而言具有更好的便利性。

MODE使用更为常见的等距柱状投影(ERP)全景图作为输入。这与正常的2D perspective图像存在较大差异:ERP全景图的360°视角增益是以畸变为代价,因此导致整幅图像存在规律性的扭曲(畸变程度由图片水平轴线向垂直边逐渐增大)。受限于CNN有限的感受野和固定的采样位置,这种畸变特性使得MODE具有独立于传统单目深度估计任务之外的挑战性。

当然,此前的一些工作提出基于CUBE和ERP投影的双分支融合结构来增强网络对于大畸变区域的特征提取和建模能力,但需要注意的是,CUBE格式的全景图在投影过程中会有25%像素的丢失,这直接导致CUBE分支深度图的模糊。如此两个分支的有限结果决定了其性能上限。为了解决像素损失这一问题,后续有工作提出基于旋转CUBE设计双分支结构,一定程度上缓和了这一矛盾。

随着Transformer网络框架的兴起,其独特的long-range建模能力为解决大畸变问题提供了一个新的思路。但“拿来主义”真能行得通吗?

2. 应用挑战

首先,我们回顾一下传统的视觉Transformer在处理图像时的步骤并分析一下其在ERP图像上的应用挑战:

划分patch

在以ERP格式作为输入的前提下会有两种划分patch的方法:(1)直接等间距划分patch;(2)将球面全景图投影成重叠的perspective视口自然地作为patch。首先,直接划分patch的方法会显著破坏大畸变区域的结构,而perspective视口可以将跨度非常大的物体投影回一个patch。这样对比来看似乎后者更有趣且合理。

Patch->Embedding->Token

视觉Transformer中做位置嵌入是通过线性层压缩特征维度实现的,那这种特征维度的压缩对于深度估计这一类像素级回归任务来说会不会造成信息的丢失,从而导致性能的下降?

位置嵌入

此前的一些工作指出,在视觉领域位置嵌入能够贡献的力量似乎并没有很大,且比较鸡肋,很多工作甚至直接摒弃了位置嵌入模块,他们认为网络中所引入的卷积结构会暗含位置信息。但考虑步骤1,如果我们采用perspective视口patch的划分方式,其真实的空间位置已经发生了改变,因此一个合适的位置嵌入策略在MODE中是迫切需要的。那么如何设计一个合理的位置嵌入方式呢?

Self-attention

自注意力模块通过压缩后的特征生成q, k, v依次查询计算全局注意力,如果我们的embedding设计成像素级,将会带来很大的计算复杂度,如何解决?

为了解决这些问题我们提出了一种360°全景定制的Transformer框架。

3. 方法

344a7464-28b9-11ed-ba43-dac502259ad0.jpg

Spherical Token Locating Model (STLM)

划分patch

如前所述,我们划分patch可以尽可能地通过投影的方式划分patch而不是直接在ERP图上划分。投影我们选择CUBE格式的perspective视口。那么问题是,我们如何选择CUBE patch的切点?以及如何确定patch的大小?不考虑计算复杂度,我们可以将每个像素点都作为一次切点,这样信息会尽可能地全部保留。至于大小,我们在前面讨论了CUBE投影的弊端之一是像素丢失,在这里我们还要讨论一种弊端:对于CUBE投影面,理想情况下仅有CUBE的中心点(即切点)不存在畸变,除此之外,其他位置会呈现出由切点向四周逐渐增大的畸变趋势。考虑一种极端的情况,当CUBE的大小收缩到极致,即每个CUBE面仅由中心切点及其周围的八个点组成,CUBE面近似贴近球面,畸变影响降至最小。我们将此时的CUBE面称为Tangent patch。

Embedding

从尽可能提高性能的角度出发,我们可以通过等价映射将每个像素点映射成一个Token。区别于传统Transformer中将每个Patch嵌入为每个Token,我们直接将每个Tangent Patch上的采样点当作Token。直观的理解,我们的patch和token都是手工划分的,patch在我们的网络中多为一种抽象的概念,我们直接的操作对象是Token(采样点),即每个切点及其周围的八个点。

位置嵌入

Tangent Patch是相对于球面而言,为了定义其空间位置属性,我们将手工划分的patch反投影到ERP图上。注意在球面全景图上每个patch由切点及其周围的八个投影点组成,而在ERP图上这种空间对应关系发生了改变,由于畸变的存在,他们在ERP上几乎不再相邻。这种位置投影对应关系恰恰提供了我们Transformer里面所需要的位置嵌入。

34580d36-28b9-11ed-ba43-dac502259ad0.jpg

Panoramic Structure-guided Transformer (PST) block

计算注意力

首先如果我们像传统Transformer那样计算注意力,其计算开销非常大,但得益于我们patch划分方式和位置嵌入策略,我们似乎找到了其最相关的位置对应关系,即切点token及与其最相关的8个token。那么我们可以仅仅通过计算切点token(或中心token)与这8个token的注意力即可。但问题如果这样做,我们会犯了一个非常大的错误,即把token的位置锁死了,使得我们的网络架构丧失了传统Transformer固有的灵活性。为了解决这一问题,我们提出了token flow的概念,即通过学习一个偏移来弥补其结构上灵活性的丧失。意外之喜是,这种流式的概念可以使网络更好地建模全景结构这一重要的深度线索。

最后,我们基于设计的PST block构建最终的PanoFormer网络框架:

346f3fba-28b9-11ed-ba43-dac502259ad0.jpg

PanoFormer网络架构图

4. 新指标

为了突出模型对于大畸变区域的建模能力,我们通过选取6个CUBE投影面的上下两个面来设计Pole-RMSE指标。(注意此指标的应用的一个前提条件是全景相机水平放置,目前的流行的数据集大都遵循这一假设。)

考虑到ERP全景图的特性,左右可以实现无缝拼接,我们提出LRCE指标来反映模型的长距离建模能力。

详细计算过程请参考论文。

5. 实验结果

我们在四个主流的MODE数据集上对我们的模型进行了评估,结果显示我们的模型取得了更有竞争力的结果。但由于Stanford2D3D以及Matterport3D数据集的固有缺陷导致我们没有办法在这两个数据集上评测我们的新指标(P-RMSE),因此我们在这两个数据集上只报道了MRE和MAE的指标性能,这两个指标的计算参照SliceNet(CVPR'21)所开源的代码执行。此外,关于数据集的一些讨论详情见gihub代码链接。

值得一提的是,PanoFormer可以很容易地迁移到全景视觉其他dense prediction任务上,比如全景图像语义分割,无需改变任何网络结构便能取得SOTA性能。

34877724-28b9-11ed-ba43-dac502259ad0.jpg

客观指标

34a098da-28b9-11ed-ba43-dac502259ad0.jpg

主观对比

34b0608a-28b9-11ed-ba43-dac502259ad0.jpg

全景语义分割客观指标

6. 局限性

关于更高分辨率的扩展计算复杂度可能是我们工作的一个待提升的点。这可以通过在encoder阶段增加下采样层,在decoder阶段增加插值操作得到缓解。此外,如果仔细观察可以发现attention计算部分存在比较多重复计算的情况,这可能是优化我们网络的一个方向。

希望我们的工作可以为该领域带来启发。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 框架
    +关注

    关注

    0

    文章

    404

    浏览量

    18491
  • 数据集
    +关注

    关注

    4

    文章

    1240

    浏览量

    26261
  • Transformer
    +关注

    关注

    0

    文章

    156

    浏览量

    6961

原文标题:首个360°全景定制的单目深度估计Transformer-PanoFormer(ECCV 2022)

文章出处:【微信号:3D视觉工坊,微信公众号:3D视觉工坊】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Transformer 入门:从零理解 AI 大模型的核心原理

    Normalization) Transformer 使用的是层归化,它在每层对数据进行标准化: 计算步骤 ini 体验AI代码助手 代码解读 复制代码 输入向量:x = [2, 4, 6, 8] Step 1
    发表于 02-10 16:33

    Transformer如何让自动驾驶大模型获得思考能力?

    在谈及自动驾驶时,Transformer直是非常关键的技术,为何Transformer在自动驾驶行业直被提及?
    的头像 发表于 02-01 09:15 4374次阅读

    一种无OS的MCU实用软件框架

    介绍一种无OS的MCU实用软件框架,包括任务轮询管理,命令管理器、低功耗管理、环形缓冲区等实用模块。系统中广泛利用自定义段技术减少各个模块间的耦合关系,大大提供程序的可维护性。 主要功能 支持模块
    发表于 01-08 06:58

    Transformer如何让自动驾驶变得更聪明?

    ]自动驾驶中常提的Transformer本质上是一种神经网络结构,最早在自然语言处理里火起来。与卷积神经网络(CNN)或循环神经网络(RNN)不同,Transformer能够自动审视所有输入信息,并动态判断哪些部分更为关键,同时
    的头像 发表于 11-19 18:17 2443次阅读

    为什么360°镜头容易“踩坑”?

    视场角来更直观地描述其视野范围。如何选择与避坑?明确你的FOV需求:全视野(360°x180°):镜头正上方的半球形全景。这是最常见的360°镜头,能次性覆盖机器
    的头像 发表于 11-18 11:29 686次阅读
    为什么<b class='flag-5'>360</b>°镜头容易“踩坑”?

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    彻底改变了自然语义处理的研究和应用。它引入了自注意机制和位置编码,能够有效的捕捉输入序列中的关联信息,实现更好的上下文理解和建模。 Transformer 模型由个编码器和个解码器组成,是
    发表于 09-12 17:30

    12 路 1080P 满负载!米尔 RK3576 补全车载 360° 全景影像视野

    对车载 360° 全景影像来说,“看得全” 是基础,“看得清、看得快” 才是核心 —— 而这切的关键,在于硬件能否扛住多路高清视频流的实时处理压力。米尔电子基于瑞芯微 RK3576 打造的开发板
    发表于 09-11 17:16

    一种适用于动态环境的自适应先验场景-对象SLAM框架

    由于传统视觉SLAM在动态场景中容易会出现严重的定位漂移,本文提出了一种新颖的基于场景-对象的可靠性评估框架,该框架通过当前帧质量指标以及相对于可靠参考帧的场景变化,全面评估SLAM的稳定性。
    的头像 发表于 08-19 14:17 993次阅读
    <b class='flag-5'>一种</b>适用于动态环境的自适应先验场景-对象SLAM<b class='flag-5'>框架</b>

    一种抗辐射加固检错纠错电路的设计

    电子发烧友网站提供《一种抗辐射加固检错纠错电路的设计.pdf》资料免费下载
    发表于 08-11 15:38 0次下载

    米尔RK3576核心板,让360环视技术开发更简单

    了专为视觉感知技术设计的RK3576核心板。这核心板兼顾性能、灵活性和易用性,旨在帮助开发人员快速实现360环视方案。 米尔RK3576核心板资源框图 ✅ 支持4路摄像头,轻松实现全景拼接
    发表于 08-06 18:13

    介绍一种直流过压保护电路

    本篇博文将详细分析一种典型的过压保护电路,探讨其工作原理、元件选择及实际应用,帮助大家深入理解如何保护电子设备。
    的头像 发表于 07-05 11:06 1672次阅读
    介绍<b class='flag-5'>一种</b>直流过压保护电路

    Transformer架构中编码器的工作流程

    编码器是Transformer体系结构的基本组件。编码器的主要功能是将输入标记转换为上下文表示。与早期独立处理token的模型不同,Transformer编码器根据整个序列捕获每个token的上下文。
    的头像 发表于 06-10 14:27 1200次阅读
    <b class='flag-5'>Transformer</b>架构中编码器的工作流程

    Transformer架构概述

    由于Transformer模型的出现和快速发展,深度学习领域正在经历场翻天覆地的变化。这些突破性的架构不仅重新定义了自然语言处理(NLP)的标准,而且拓宽了视野,彻底改变了AI的许多方面。
    的头像 发表于 06-10 14:24 1438次阅读
    <b class='flag-5'>Transformer</b>架构概述

    重量级玩家入局,全景相机越来越卷?

      电子发烧友网报道(文/黄晶晶)日前消息称,大疆首款全景相机DJI Osmo 360进入发布倒计时,方面大疆的产品版图拓宽,另方面当前全景
    的头像 发表于 06-08 07:57 6923次阅读
    这<b class='flag-5'>一</b>重量级玩家入局,<b class='flag-5'>全景</b>相机越来越卷?

    一种新型宽带鞭状套筒天线

    电子发烧友网站提供《一种新型宽带鞭状套筒天线.pdf》资料免费下载
    发表于 05-28 14:05 0次下载