0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

图像修复面临两个关键问题

OpenCV学堂 来源:机器之心 作者:机器之心 2022-08-02 10:06 次阅读

来自罗彻斯特大学和 Adobe Research 的研究者提出了一种新的生成网络 CM-GAN,很好地合成了整体结构和局部细节,在定量和定性评估方面都显著优于现有 SOTA 方法,如 CoModGAN 和 LaMa。

图像修复是指对图像缺失区域进行补全,是计算机视觉的基本任务之一。该方向有许多实际应用,例如物体移除、图像重定向、图像合成等。

早期的修复方法基于图像块合成或颜色扩散来填充图像缺失部分。为了完成更复杂的图像结构,研究人员开始转向数据驱动的方案,他们利用深度生成网络来预测视觉内容和外观。通过在大量图像上进行训练,并借助重建和对抗损失,生成式修复模型已被证明可以在包括自然图像和人脸在内的各种类型输入数据上产生更具视觉吸引力的结果。

然而,现有工作只能在完成简单的图像结构方面显示出良好的结果,生成整体结构复杂和细节高保真的图像内容仍然是一个巨大的挑战,特别是当图像空洞(hole)很大的时候。

从本质上讲,图像修复面临两个关键问题:一个是如何将全局上下文准确地传播到不完整区域,另一个是合成与全局线索一致的真实局部细节。为了解决全局上下文传播问题,现有网络利用编码器 - 解码器结构、空洞卷积、上下文注意力或傅里叶卷积来整合长程特征依赖,扩大有效感受野。此外,两阶段方法和迭代空洞填充依靠预测粗略结果来增强全局结构。然而,这些模型缺乏一种机制来捕获未掩码区域的高级语义,并有效地将它们传播到空洞中以合成一个整体的全局结构。

基于此,来自罗彻斯特大学和 Adobe Research 的研究者提出了一种新的生成网络:CM-GAN(cascaded modulation GAN),该网络可以更好地合成整体结构和局部细节。CM-GAN 中包括一个带有傅里叶卷积块的编码器,用于从带有空洞的输入图像中提取多尺度特征表征。CM-GAN 中还有一个双流解码器,该解码器在每个尺度层都设置一个新型级联的全局空间调制块。

在每个解码器块中,研究者首先应用全局调制来执行粗略和语义感知的结构合成,然后进行空间调制来进一步以空间自适应方式调整特征图。此外,该研究设计了一种物体感知训练方案,以防止空洞内产生伪影,从而满足现实场景中物体移除任务的需求。该研究进行了广泛的实验表明,CM-GAN 在定量和定性评估方面都显著优于现有方法。

eb4e7464-11a6-11ed-ba43-dac502259ad0.png

我们先来看下图像修复效果,与其他方法相比,CM-GAN 可以重建更好的纹理:

CM-GAN 可以合成更好的全局结构:

CM-GAN 具有更好的物体边界:

下面我们来看下该研究的方法和实验结果。

方法

级联调制 GAN

为了更好地建模图像补全的全局上下文,该研究提出一种将全局码调制与空间码调制级联的新机制。该机制有助于处理部分无效的特征,同时更好地将全局上下文注入空间域内。新架构 CM-GAN 可以很好地综合整体结构和局部细节,如下图 1 所示。

ec6f0872-11a6-11ed-ba43-dac502259ad0.png

如下图 2(左) 所示,CM-GAN 基于一个编码器分支和两个并行级联解码器分支来生成视觉输出。编码器以部分图像和掩码为输入,生成多尺度特征图ec9f7962-11a6-11ed-ba43-dac502259ad0.png

与大多数编码器 - 解码器方法不同,为了完成整体结构,该研究从全连接层的最高级别特征ecaec566-11a6-11ed-ba43-dac502259ad0.png中提取全局样式代码 s,然后进行ecc36192-11a6-11ed-ba43-dac502259ad0.png归一化。此外,基于 MLP 的映射网络从噪声中生成样式代码 w,以模拟图像生成的随机性。代码 w 与 s 结合产生一个全局代码 g = [s; w],用于之后的解码步骤。

全局空间级联调制。为了在解码阶段更好地连接全局上下文,该研究提出了全局空间级联调制 (CM,cascaded modulation)。如图 2(右)所示,解码阶段基于全局调制块(GB)和空间调制块(SB)两个分支,并行上采样全局特征 F_g 和局部特征 F_s。

ecd1ec94-11a6-11ed-ba43-dac502259ad0.png

与现有方法不同,CM-GAN 引入了一种将全局上下文注入空洞区域的新方法。在概念层面上,它由每个尺度的特征之间的级联全局和空间调制组成,并且自然地集成了全局上下文建模的三种补偿机制:1)特征上采样;2) 全局调制;3)空间调制。

ecf79534-11a6-11ed-ba43-dac502259ad0.png

物体感知训练

为训练生成掩码的算法至关重要。本质上,采样的掩码应该类似于在实际用例中绘制的掩码,并且掩码应避免覆盖整个物体或任何新物体的大部分。过度简化的掩码方案可能会导致伪影。

为了更好地支持真实的物体移除用例,同时防止模型在空洞内合成新物体,该研究提出了一种物体感知训练方案,在训练期间生成了更真实的掩码,如下图 4 所示。

ed1dd5c8-11a6-11ed-ba43-dac502259ad0.png

具体来说,该研究首先将训练图像传递给 全景分割网络 PanopticFCN 以生成高度准确的实例级分割注释,然后对自由空洞和物体空洞的混合进行采样作为初始掩码,最后计算空洞和图像中每个实例之间的重叠率。如果重叠率大于阈值,该方法将前景实例从空洞中排除;否则,空洞不变并模拟物体完成,其中阈值设为 0.5。该研究随机扩展和平移物体掩码以避免过度拟合。此外,该研究还扩大了实例分割边界上的空洞,以避免将空洞附近的背景像素泄漏到修复区域中。

训练目标与 Masked-R_1 正则化

该模型结合对抗性损失和基于分割的感知损失进行训练。实验表明,该方法在纯粹使用对抗性损失时也能取得很好的效果,但加入感知损失可以进一步提高性能。

此外,该研究还提出了一种专门用于稳定修复任务的对抗性训练的 masked-R_1 正则化,其中利用掩码 m 来避免计算掩码外的梯度惩罚。

实验

该研究在 Places2 数据集上以 512 × 512 分辨率进行了图像修复实验,并给出了模型的定量和定性评估结果。

定量评估:下表 1 为 CM-GAN 与其他掩码方法的比较。结果表明,CM-GAN 在 FID、LPIPS、U-IDS 和 P-IDS 方面明显优于其他方法。在感知损失的帮助下,LaMa、CM-GAN 比 CoModGAN 和其他方法获得了明显更好的 LPIPS 分数,这归功于预训练感知模型提供的额外语义指导。与 LaMa/CoModGAN 相比,CM-GAN 将 FID 从 3.864/3.724 降低到 1.628。

ed4300a0-11a6-11ed-ba43-dac502259ad0.png

如下表 3 所示,在有无微调的情况下,CM-GAN 在 LaMa 和 CoModGAN 掩码上都取得了明显优于 LaMa 和 CoModGAN 的性能增益,表明该模型具有泛化能力。值得注意的是,在 CoModGAN 掩码,物体感知掩码上训练的 CM-GAN 性能依然优于 CoModGAN 掩码,证实了 CM-GAN 具有更好的生成能力。

ed64a85e-11a6-11ed-ba43-dac502259ad0.png

定性评估:图 5、图 6、图 8 展示了 CM-GAN 与 SOTA 方法在合成掩码方面的可视化比较结果。ProFill 能够生成不连贯的全局结构,CoModGAN 产生结构伪影和颜色斑点,LaMa 在自然场景上容易产生较大的图像模糊。相比之下,CM-GAN 方法产生了更连贯的语义结构、纹理更清晰,可适用于不同场景。

ed84b0d6-11a6-11ed-ba43-dac502259ad0.png

edc1fa9a-11a6-11ed-ba43-dac502259ad0.png

ede8ae1a-11a6-11ed-ba43-dac502259ad0.jpg

为了验证模型中每个组件的重要性,该研究进行了一组消融实验,所有模型都在 Places2 数据集上进行训练和评估。消融实验结果如下表 2 和图 7 所示。

edf9a03a-11a6-11ed-ba43-dac502259ad0.png

该研究还进行了用户研究,以更好地评估 CM-GAN 方法的视觉生成质量,结果如下表 5 所示。此外,附录提供了更多的视觉比较和实验分析以供读者参阅。

ee4b8bde-11a6-11ed-ba43-dac502259ad0.png

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据驱动
    +关注

    关注

    0

    文章

    118

    浏览量

    12248
  • 计算机视觉
    +关注

    关注

    8

    文章

    1598

    浏览量

    45613
  • 图像修复
    +关注

    关注

    0

    文章

    11

    浏览量

    2246

原文标题:图像大面积缺失,也能逼真修复,新模型CM-GAN兼顾全局结构和纹理细节

文章出处:【微信号:CVSCHOOL,微信公众号:OpenCV学堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    STM32MP157两个A7核能跑两个系统吗?

    请问STM32MP157的两个A7核,能像其它双核CPU一样运行AMP模式:一核跑Linux、一核跑RTOS(或禅机)吗?虽然有一M4核可以跑RTOS,但计算能力有点弱,不能满足
    发表于 03-21 06:50

    请问CX3是否可以实现两个camera的图像拼接?

    CX3 是否可以实现两个camera的图像拼接?
    发表于 02-29 08:20

    Vision Pro 发售只是开始,这两个问题才是决定行业成败的关键

    ,大多数软件厂商已经开始应用的积极开发适配。 AVP 的发售的确并没有从根本上改变产业发展面临两个问题——硬件普及和软件生态,但是它为这大问题的解决提供了可行思路,带来了不容忽视的正向
    发表于 02-22 13:53

    ADXRS453能同时检测两个方向吗?

    ADXRS453的介绍中说可以检测两个方向X或Y,但是手册中只提供了一套速率寄存器RATE0和RATE1,只能用于一方向。我的问题是ADXRS453能否同时检测两个方向的速率?如何读取这两个
    发表于 12-29 06:30

    AD9269在AD两个通道的入口输入峰值相同的差分信号,为什么AD两个通道的输出不同?

    在AD两个通道的入口输入峰值相同的差分信号,为什么AD两个通道的输出不同,最高位的符号位为什么不同
    发表于 12-12 06:55

    通过两个不同的定时器控制PWM的输出,如何让者同步?

    通过两个不同的定时器控制PWM的输出,希望两个PWM可以同步,该如何处理?
    发表于 11-06 06:47

    LED灯具散热建模仿真关键问题研究(一)

    电子发烧友网站提供《LED灯具散热建模仿真关键问题研究(一).doc》资料免费下载
    发表于 11-01 11:34 0次下载
    LED灯具散热建模仿真<b class='flag-5'>关键问题</b>研究(一)

    LED灯具散热建模仿真关键问题研究(二)

    电子发烧友网站提供《LED灯具散热建模仿真关键问题研究(二).doc》资料免费下载
    发表于 11-01 09:33 0次下载
    LED灯具散热建模仿真<b class='flag-5'>关键问题</b>研究(二)

    如何判别两个信号波形的相似度?

    获得两个波形,即组数据,如何判别它们之间的相似度呢
    发表于 10-18 06:49

    SG6服务器有两个网卡,但是有一电口和两个光口具体应该怎么连接?

    SG6服务器有两个网卡,但是有一电口和两个光口,具体应该怎么连接
    发表于 09-19 07:25

    使用NUC472的两个USB与PC连接

    应用程序: 本代码使用两个 USB 接口执行 USB 中心 。 BSP 版本: NUC472系列 BSP CMSIS V3.03.000 硬件: Nu-LB-NUC472 本示例代码
    发表于 08-22 08:30

    如何在OpenVINO trade工具包中推断两个图像

    无法在OpenVINO™工具包中对两个输入图像运行推理。
    发表于 08-15 08:24

    微美全息(NASDAQ:WIMI)突破技术壁垒,并行GANs图像修复网络助力高效恢复

    ,它能够自动学习和恢复图像中的缺失或损坏部分。然而,深度学习方法在图像修复领域也面临着一些挑战。其中之一是内存和计算成本的问题。由于图像的高
    的头像 发表于 08-14 17:19 256次阅读
    微美全息(NASDAQ:WIMI)突破技术壁垒,并行GANs<b class='flag-5'>图像</b><b class='flag-5'>修复</b>网络助力高效恢复

    如何做到一USB仿真两个CPU的?

    请问一下是如何做到一USB仿真两个CPU的? 编译从核的工程, 它的固件怎么就能直接写入到主核的工程里去的?
    发表于 05-26 06:10

    在PCB中两个不同电压的电源层可以共用一地层吗?

    1.PCB中,两个不同电压的电源层可以共用一地层吗? 2.如果可以共用地层的话,对于两个不同电压的电源层是各自用一地层好,还是共用一
    发表于 05-06 10:12