0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

旷视官方首次解读2018 COCO全景分割冠军算法

电子工程师 来源:lp 2019-03-15 14:12 次阅读

前言

计算机视觉中,图像语义分割(Semantic Segmentation)的任务是预测每个像素点的语义类别;实例分割(Instance Segmentation)的任务是预测每个实例物体包含的像素区域。全景分割 (Panoptic Segmentation) [1] 最先由 FAIR 与德国海德堡大学联合提出,其任务是为图像中每个像素点赋予类别 Label 和实例 ID ,生成全局的、统一的分割图像。

ECCV 2018 最受瞩目的 COCO + Mapillary 联合挑战赛也首次加入全景分割任务,是全景分割领域中最权威与具有挑战性的国际比赛,代表着当前计算机视觉识别技术最前沿。在全景分割比赛项目中,旷视研究院 Detection 组参与了COCO 比赛项目与 Mapillary 比赛项目,并以大幅领先第二名的成绩实力夺魁,在全景分割指标 PQ 上取得了0.532的成绩,超越了 human consistency ,另外,我们的工作《An End-to-End Network for Panoptic Segmentation》也发表于 CVPR 2019 上。

接下来我们将全面解读全景分割任务,下面这张思维导图有助于大家整体把握全景分割任务特性:

全景分割解读思维导图

首先,我们将分析全景分割任务的评价指标及基本特点,并介绍目前最新的研究进展;然后介绍我们发表于 CVPR 2019 的工作 Occlusion Aware Network (OANet),以及旷视研究院 Detection 组参与的 2018 COCO Panoptic Segmentation 比赛工作介绍;最后对全景分割当前研究进行总结与分析。

任务与前沿进展解读

全景分割任务,从任务目标上可以分为 object instance segmentation 子任务与 stuff segmentation 子任务。全景分割方法通常包含三个独立的部分:object instance segmentation 部分,stuff segmentation 部分,两子分支结果融合部分;通常object instance segmentation 网络和 stuff segmentation 网络相互独立,网络之间不会共享参数或者图像特征,这种方式不仅会导致计算开销较大,也迫使算法需要使用独立的后处理程序融合两支预测结果,并导致全景分割无法应用在工业中。

因此,可以从以下几个角度分析与优化全景分割算法:

(1)网络框架搭建;

(2)子任务融合;

(3)全景输出预测;

这三个问题分别对应的是全景分割算法中的三个重要环节,下面我们将分别分析这些问题存在的难点,以及近期相关工作提出的改进方法与解决方案。

全景分割评价指标

FAIR研究团队 [1] 为全景分割定了新的评价标准 PQ (panoptic segmentation) 、SQ ( segmentation quality)、RQ (recognition quality) ,计算公式如下:

PQ 评价指标计算公式

其中,RQ是检测中应用广泛的 F1 score,用来计算全景分割中每个实例物体识别的准确性,SQ 表示匹配后的预测 segment与标注 segment 的 mIOU,如下图所示,只有当预测 segment 与标注 segment 的 IOU 严格大于 0.5 时,认为两个 segment 是匹配的。

全景分割预测结果与真实标注匹配图解 [1]

从上面的公式能够看到,在预测与标注匹配后的分割质量 SQ 计算时,评价指标PQ只关注每个实例的分割质量,而不考虑不同实例的大小,即大物体与小物体的分割结果对最终的PQ结果影响相同。Yang et al. [6] 注意到在一些应用场景中更关注大物体的分割结果,如肖像分割中大图的人像分割、自动驾驶中近距离的物体等,提出了 PC (Parsing Covering) 评价指标,计算公式如下:

PC 评价指标计算公式

其中,

分别表示对应类别的预测 segments 与真实segments,表示对应类别的实例在真实标注中像素点数量,表示类别为i的真实标注像素点总和。通过对大的实例物体赋予更大的权重,使评价指标能够更明显地反映大物体的分割指标。

网络框架搭建

由于 object instance segmentation 子任务与 stuff segmentation 子任务分别属于两个不同的视觉预测任务,其输入数据及数据增强方式、训练优化策略与方法、网络结构与方法具有较大的不同,如何将两个子任务融合并统一网络结构、训练策略,是解决该问题的关键。

FAIR 研究团队提出了一种简洁有效的网络结构 Panoptic FPN [2],在网络框架层面将语义分割的全卷积网络(FCN)[3] 和实例分割网络 Mask RCNN [4] 统一起来,设计了单一网络同时预测两个子任务,网络结构如下图所示。

Panoptic FPN网络框架图

该网络结构能够有效预测 object instance segmentation 子任务与 stuff segmentation 子任务。在 Mask RCNN 网络与 FPN [5] 的基础上,作者设计了简单而有效的 stuff segmentation 子分支:在 FPN 得到的不同层级的特征图基础上,使用不同的网络参数得到相同大小的特征图,并对特征图进行加法合并,最后使用双线性插值上采样至原图大小,并进行stuff 类别预测。

MIT与谷歌等联合提出DeeperLab [6] ,使用 bottom-to-up 的方法,同时实现 object instance segmentation 子任务与 stuff segmentation 子任务,其网络结构如下图所示:

DeeperLab 网络结构图

该网络包含了 encoder、decoder 与 prediction 三个环节,其中,encoder 和 decoder 部分对两个子任务均是共享的,为了增强 encoder 阶段的特征,在 encoder 的末尾使用了ASPP (Atrous Spatial Pyramid Pooling) 模块 [7];而在decoder阶段,首先使用 1×1 卷积对低层特征图与 encoder 输出的特征图进行降维,并使用内存消耗较少的space-to-depth [8, 9] 操作替代上采样操作对低层特征图进行处理,从而将低层特征图(大小为原图1/4)与 encoder 输出的特征图(大小为原图 1/16 )拼接起来;最后,使用两层 7×7 的大卷积核增加感受野,然后通过 depth-to-space 操作降低特征维度。

为了得到目标实例预测,作者采用类似 [10, 11, 12] 的使用基于关键点表示的方法,如下图所示,在 object instance segmentation 子分支头部,分别预测了 keypoint heatmap(图a)、long-range offset map(图b)、short-range offset map(图c)、middle-range offset map(图d)四种输出,得到像素点与每个实例关键点之间的关系,并依此融合形成类别不可知的不同实例,最后得到全景分割的结果。

object instance segmentation 子分支头部预测目标

子任务融合

虽然通过特征共享机制与网络结构设计,能够将 object instance segmentation 子任务与 stuff segmentation 子任务统一起来,但是这两个子分支之间的相互联系与影响并没有得到充分的探究,例如:两个子分支的任务是否能够达到相互增益或者单向增益的效果?或者如何设计将两个子分支的中间输出或者预测关联起来?这一部分问题我们可以统一将它称作两个子任务的相互提升与促进。

中科院自动化研究所提出了AUNet [13],文中设计了 PAM (Proposal Attention Module)与 MAM(Mask Attention Module)模块,分别基于RPN阶段的特征图与 object instance segmentation 输出的前景分割区域,为 stuff segmentation 提供了物体层级注意力与像素层级注意力,其网络结构图如下图所示:

AUNet 网络结构图

为了使 object instance segmentation 的预测输出与 stuff segmentation 预测输出保持一致性,丰田研究院设计了 TASCNet [14],其网络结构如下图所示:

TASCNet网络结构图

网络首先将 object instance segmentation 子分支得到的实例前景掩膜区域,映射到原图大小的特征图中,得到全图尺寸下的实例前景掩膜区域,并与 stuff segmentation 预测的实例前景掩膜进行对比,使用L2损失函数最小化两个掩膜的残差。

全景输出预测

Object instance segmentation 子分支与 stuff segmentation 子分支的预测结果在融合的过程中,一般通过启发式算法(heuristic algorithm)处理相冲突的像素点,例如简单地以 object instance segmentation 子分支的预测结果为准,并以 object instance segmentation 子分支的检测框得分作为不同实例的合并依据。

这种方式依据简单的先验逻辑判断,并不能较好地解决全景分割复杂的合并情况,因此,如何设计有效的模块解决 object instance segmentation 子分支与 stuff segmentation 子分支到全景分割输出的融合过程,也是全景分割任务中的重要问题。

Uber与港中文联合提出了 UPSNet [15] ,其网络结构图如下图所示:

UPSNet网络结构图

将 object instance segmentation 子分支与 stuff segmentation 子分支的输出通过映射变换,可得到全景头部输出的特征张量,该张量大小为为动态变量,表示一张图像中实例的数量,表示 stuff 类别个数,对于每张图像其数值是相同的,下文使用分别表示这两种特征张量。此外,网络对像素进行了未知类别的预测(Unknown Prediction),从而使得网络能够将部分像素点判断为未知类别并在测试的时候进行忽略,避免做出错误的类别导致 PQ 指标下降。

在得到 object instance segmentation 子分支与 stuff segmentation 子分支的输出后,经过如下图所示的变换,映射成

panoptic segmentation head示意图

可以直接从不规则类别分割的输出中提取,个实例的掩膜区域可由获得,其中表示第个实例对应的真实标注框与标注类别在 stuff segmentation 子分支输出截取的掩膜区域,表示第 个实例对应的 instance segmentation 子分支得到的掩膜区域映射到原图的掩膜区域,最后使用标准的逐像素点的交叉熵损失函数对全景头部输出的张量进行监督训练。

Occlusion Aware Network专栏解读

论文Arxiv链接:

https://arxiv.org/abs/1903.05027

Motivation

在全景分割相关实验中,我们发现,依据现有的启发式算法进行 object instance segmentation 子分支与 stuff segmentation 子分支的预测合并,会出现不同实例之间的遮挡现象。为了解决不同实例之间的遮挡问题,我们提出了 Occlusion Aware Network (OANet),并设计了空间排序模块(Spatial Ranking Module),该模块能够通过网络学习得到新的排序分数,并为全景分割的实例分割提供排序依据。

网络结构设计

我们提出的端到端的全景分割网络结构如下图所示,该网络融合 object instance segmentation 子分支与 stuff segmentation 子分支的基础网络特征,在一个网络中同时实现全景分割的训练与预测。在训练过程中,对于 stuff segmentation 我们同时进行了 object 类别与 stuff 类别的监督训练,实验表明这种设计有助于 stuff 的预测。

OANet网络结构图

采用一种类似语义分割的方法,我们提出一个简单但非常有效的算法,称作Spatial Ranking Module,能够较好地处理遮挡问题,其网络结构如下所示:

Spatial Ranking Module网络结构图

我们首先将输入的实例分割结果映射到原图大小的张量之中,该张量的维度是实例物体类别的数量,不同类别的实例分割掩膜会映射到对应的通道上。张量中所有像素点位置的初始化数值为零,实例分割掩膜映射到的位置其值设为1;在得到该张量后,使用大卷积核 [16] 进行特征提取,得到空间排序得分图;最后,我们计算出每个实例对象的空间排序得分,如下所示:

这里,表示类别为的、像素点 中的得分值,需要注意的是已被归一化为概率,是掩膜像素点指示符,表示像素点是否属于实例,每个实例的空间排序得分由预测的掩码区域所有像素点的排序分数平均得到,表示最终得到的每个实例的排序得分,并将此得分用于全景输出。

如下图所示,若使用目前通用的启发式融合算法,即仅基于实例分割的检测框的置信度作为遮挡处理依据,如图所示,行人检测框的置信度要明显高于领带检测框的置信度,当两个实例发生重叠时,领带的实例会被行人实例遮挡;当加入空间排序得分模块后,我们通过该模块可以预测得到两个实例的空间排序分数,依据空间排序分数得到的排序会更可靠,PQ 会有更大改善。

空间排序模块流程示意图

实验分析

我们对 stuff segmentation 分支的监督信号进行了剥离实验,如下表所示,实验表明,同时进行 object 类别与 stuff 类别的监督训练,能够为 stuff segmentation 提供更多的上下文信息,并改进预测结果。

为了探究object instance segmentation 子分支与 stuff segmentation 子分支的共享特征方式,我们设计了不同的共享结构并进行实验,如下表所示,实验表明,共享基础模型特征与FPN 结构的连接处特征,能够提高全景分割指标 PQ 。

为了探究我们提出的 spatial ranking module 算法的有效性,我们在不同基础模型下进行了实验,如下表所示,其中,w/ spatial ranking module 表示使用我们提出的空间排序模块得到的结果,从实验结果中可以看到,空间排序模块能够在不同的基础模型下大幅提高全景分割的评测结果。

为了测试不同卷积设置对学习处理遮挡的影响,进行了如下实验,结果表明,提高卷积的感受也可以帮助网络学习获得更多的上下文特征,并取得更好的结果。

下表是本文提出的算法与现有公开指标的比较,从结果中可以看到,本文提出的算法能够取得最优的结果。

2018 COCO 全景分割比赛冠军解读

旷视研究院 Detection 组参与的全景分割 COCO 比赛项目与 Mapillary 比赛项目中,以大幅领先第二名的成绩实力夺魁,在全景分割指标 PQ 上取得了 0.532 的成绩,超越了 human consistency 。

COCO 2018 Panoptic Leaderboard

全景分割预测可视化图例

在比赛中,我们使用了如下图所示的流程,首先分别预测 stuff semantic segmentation 与 object instance segmentation,然后通过后处理的操作得到全景分割的结果。

全景分割算法流程图

在 stuff semantic segmentation 预测阶段,首先我们对网络结构进行了部分调整以得到更好的分割效果。首先,网络最终的下采样倍数设为 8 ,保证输出结果的分辨率;然后,由于网络的 encoder 不会扩大网络的感受野, 因此我们在标准 ResNet 之后使用了若干层 Res-Block。

另外,实验发现 stuff 类别和 object 类别之间的上下文对于 stuff 分割较为重要,因此我们在网络预测中融入了上下文信息,并通过多阶段、多种监督的方式实现,网络结构如下图所示:

stuff semantic segmentation 结构图

对于 object instance segmentation,我们使用了与 Mask RCNN 相同的网络结构及训练配置。最后,通过使用更大的网络基础模型,multi scale + flip 的测试方法,以及多模型的ensemble操作,我们取得了最终的预测结果,如下图所示:

Panoptic Results on COCO test-dev Dataset

总结与分析

从上文的文献分析来看,全景分割任务的不同重要问题均得到了广泛探究,但是全景分割任务依然是有挑战性、前沿的场景理解问题,目前仍存在一些问题需要进行探究:

第一,由于全景分割可通过分别预测实例分割子任务与不规则类别分割子任务、两个子任务预测结果融合得到,整个算法流程中包含较多的细节与后处理操作,包括segments的过滤、启发式融合算法、ignore 像素点的判断等。这些细节对全景分割指标有较大的影响,在一定程度上也阻碍了不同算法的对比与评测;

第二,全景分割评测指标虽然能够较好地评测全景分割中实例物体检测准确度,以及实例物体与不规则类别的分割准确度,但是该评测指标更侧重每个实例,并没有关注每个实例之间的区别。文献 [6] 提出了对大物体有更好的评测指标PC (Parsing Covering),使得大物体的分割效果对最终的评测指标影响更大,在一些关注大物体的任务如肖像分割、自动驾驶中更为有效;

第三,全景分割中子任务的融合问题,目前研究依然较多地将全景分割看做是 object instance segmentation 与 stuff segmentation 两个子任务的合集,如何从全局、统一的分割问题出发,针对性设计符合全景分割的统一网络,具有重要的意义。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 网络结构
    +关注

    关注

    0

    文章

    48

    浏览量

    10933
  • 计算机视觉
    +关注

    关注

    8

    文章

    1598

    浏览量

    45605
  • 识别技术
    +关注

    关注

    0

    文章

    190

    浏览量

    19510

原文标题:漫谈全景分割

文章出处:【微信号:megvii,微信公众号:旷视MEGVII】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于改进遗传算法的图像分割方法

    基于改进遗传算法的图像分割方法提出一种应用于图像分割的改进遗传算法,算法中引入了优生算子、改进的变异算子和新个体,避免了局部早熟,提高了收敛
    发表于 09-19 09:36

    360°全景可视泊车/行车记录(四路全景+行车记录仪+熄火震)

    360全景可视(鸟瞰)泊车系统推出升级版了,视频效果在本网站首页,请点击观看!360°全景监控系统(四路全景+行车记录仪+熄火震动防盗)一、功能特点1、环视全景视图360°
    发表于 05-22 14:01

    【TL6748 DSP申请】360全景泊车

    申请理由:辅助开展360全景泊车系统算法研究。项目描述:360全景泊车系统算法研究。
    发表于 11-06 09:53

    ***传画面分割器方案

    ***传VS4210,四进一出无缝分割方案,支持1080P60帧,支持多种接口输入输出,方案可靠,货源充足。详情可联系邹S *** Q:1559849896***传一级代理深圳市晟泰威
    发表于 03-12 21:49

    360°全景倒车影像原理解读

    360°全景倒车影像原理解读,感兴趣的小伙伴们可以看看。
    发表于 08-03 16:28 219次下载

    基于K_means和图割的脑部MRI分割算法_田换

    基于K_means和图割的脑部MRI分割算法_田换
    发表于 01-08 11:13 1次下载

    边缘分割算法在机场识别中的应用_陈旭光

    边缘分割算法在机场识别中的应用_陈旭光
    发表于 03-19 11:28 0次下载

    车牌字符分割算法研究与实现_李志敏

    车牌字符分割算法研究与实现_李志敏
    发表于 03-19 11:28 2次下载

    一种改进的图像分割算法分析

    针对传统阈值分割算法的一些缺点,通过将数字形态学与阈值分割算法相互结合提出了一种改进的阈值分割算法
    发表于 11-03 09:47 3次下载
    一种改进的图像<b class='flag-5'>分割</b><b class='flag-5'>算法</b>分析

    基于改进的SLIC像素分割算法

    近年来,超像素算法被应用到计算机视觉的各个领域。超像素捕获图像冗余信息,降低图像后续处理的复杂度。超像素分割作为图像的预处理过程需要满足图像处理的实时性和准确性。在SLIC算法的框架下,所提
    发表于 11-22 16:34 3次下载

    基于Hadoop在超像素分割算法中应用

    针对高分辨率图像像素分割时间复杂度高的问题,提出了超像素分割算法。采用超像素代替原始的像素作为分割的处理基元,将Hadoop分布式的特点与超像素的分块相结合。在分片过程中提出了基于多任
    发表于 12-09 11:37 0次下载

    一种新的彩色图像分割算法

    本文提出一种新的结合分水岭与种子区域生成、区域合并的彩色图像分割算法。首先将RGB颜色空间转换成HSI间,应用分水岭算法对图像进行初始化分割,形成过
    发表于 12-14 14:41 1次下载
    一种新的彩色图像<b class='flag-5'>分割</b><b class='flag-5'>算法</b>

    基于双阶段网络的交互式分割算法模型SeribNer

    交互指导信息。设计骨架随机性仿真算法,实现大数据下的模拟交互操作。在传统分割模型中引入预测优化模块,形成双阶段网络结构,以充分利用交互指导信息。在COCO和 PASCAL数据集上的实验结果表明,与 DEXTR Grabcut等方
    发表于 03-11 11:48 11次下载
    基于双阶段网络的交互式<b class='flag-5'>分割</b><b class='flag-5'>算法</b>模型SeribNer

    点云分割相较图像分割的优势是啥?

    自动驾驶领域的下游任务,我认为主要包括目标检测、语义分割、实例分割全景分割。其中目标检测是指在区域中提取目标的候选框并分类,语义分割是对区
    的头像 发表于 12-14 14:25 1933次阅读

    AI算法说-图像分割

    语义分割是区分同类物体的分割任务,实例分割是区分不同实例的分割任务,而全景分割则同时达到这两个目
    的头像 发表于 05-17 14:44 876次阅读
    AI<b class='flag-5'>算法</b>说-图像<b class='flag-5'>分割</b>