0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

DDFM:首个使用扩散模型进行多模态图像融合的方法

CVer 来源:CVer 2023-09-19 16:02 次阅读

本文是西安交通大学&苏黎世联邦理工学院的赵子祥博士在ICCV2023上关于多模态图像融合的最新工作,题目为:DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion。本文首次在多模态图像融合领域采用了扩散模型,很精彩的一篇工作,就是数学推导难住了我这个工科生。本文提出的模型DDFM的完整流程是通过图1的c来实现,而具体到每一步从fT到fT−1的过程是通过图3的流程实现,也就是本文的核心之一:传统vanilla DDPM模型中有ft→f~0|t→ft−1的过程,而本文会在f~0|t到ft−1之间通过EM算法增加一个中间量f^0|t来解决最大化似然问题(即解决下文中公式13),整个过程变为ft→f~0|t→f^0|t→ft−1。而这个过程是为了解决本文另一个核心,即条件生成问题。具体则是将图像融合损失函数优化问题转化为最大似然问题。综上所述,可以这样理解本文DDFM的融合思想:首先通过自然图像预训练的DDPM模型进行无条件生成,得到初步结果(目的使融合结果符合自然图像的生成先验)。随后对初步生成结果进行条件生成(似然修正)。通过将融合问题转化为一个含隐变量的极大似然估计问题(公式8转换为公式13),再通过EM算法来解决该极大似然估计问题,完成条件生成。以上两步,构成ft→ft−1的单次迭代,而最终经过T次迭代后,得到融合图像f0。

本文:https://https://arxiv.org/abs/2303.06840
代码:https://github.com/Zhaozixiang1228/MMIF-DDFM

文章题目与作者信息

DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion

b82a60a8-56aa-11ee-939d-92fbcf53809c.png

在CVer微信公众号后台回复:DDFM,可以下载本论文pdf、代码

下面是正文部分。

多模态图像融合目的在于组合不同模态下的图像并保留互补信息,为了避免GAN模型诸如训练不稳定和缺少解释性这类问题,同时利用好强大的生成先验,本文提出了基于去噪扩散概率模型 Denoising diffusion probabilistic model (DDPM) 的融合算法。融合任务会在DDPM采样框架下设计为条件生成问题,并被分成无条件生成子问题和最大似然子问题。其中最大似然子问题通过具有隐变量的分层贝叶斯方式建模,并使用期望最大化算法进行推理。通过将推理解决方法整合进扩散采样迭代中,本文方法可以生成高质量的融合图像,使其具备自然的图像生成先验和来自源图像的跨模态信息。需要注意的是本文方法需要无条件预训练生成模型,不过不需要fine-tune。实验表明本文在红外-可见光融合以及医学影像融合中效果很好。

红外-可见光融合IVF就是要避免融合图像对可见光的光照敏感,避免对红外的噪声和低分辨率敏感。基于GAN的融合方法如下图a,会有一个生成器得到融合图像,然后判别器来决定融合图像和哪个模态的源图像更接近。基于GAN的方法容易出现训练不稳定的问题,同时有缺少解释性等问题。另外由于基于GAN的方法是一个黑箱,很难理解GAN的内在机制和行为,让可控的融合变得困难。

b8477486-56aa-11ee-939d-92fbcf53809c.png

近来去噪扩散概率模型 Denoising diffusion probabilistic model (DDPM)在图像生成中获得很多进步,通过对一张noise-corrupted图像恢复为干净图像的扩散过程进行建模, 可以生成质量很好的图像。基于Langevin扩散过程的DDPM利用一系列逆扩散步骤来生成效果很好的合成图像。对比GAN的方法,DDPM不需要判别器,因此缓解了基于GAN方法诸如训练不稳定和模式崩溃等问题。另外,由于这类方法是基于扩散过程的,所以基于DDPM的生成过程具有可解释性,可以更好地理解图像生成过程。

因此本文提出了 Denoising Diffusion image Fusion Model (DDFM),其结构如上图的c,本文将条件生成任务设计为基于DDPM的后验采样模型,进一步可以被分为无条件生成扩散问题和最大似然估计问题,第一个问题可以满足自然图像先验,第二个问题通过似然矫正来限制生成图像和源图像之间的相似性。和判别式方法相比,用DDPM对自然图像先验建模可以得到更好的细节生成,这点很难通过损失函数的设计来达到。作为生成模型,DDFM效果稳定,生成效果可控。综合来说本文贡献如下:1.引入基于DDPM的后验采样模型来进行多模态图像法融合任务,包含无条件生成模块和条件似然矫正模块,采样的图像只通过一个预训练的DDPM完成,不需要fine-tune;2.似然矫正中,由于显式获得似然不可行,因此将优化损失表示为包含隐变量的概率推理问题,可以通过 EM 算法来解决,然后这个方法整合进DDPM回路中完成条件图像生成;3.实验表明本文方法在IVF和医学影像融合中都可以获得很好的结果。

Score-based扩散模型:首先看score SDE 方程。扩散模型目标是通过反转一个预定义的前向过程来生成样本,这个前向过程就是将干净的样本x0通过多个加噪过程,逐步转换成接近高斯信号的样本xT,其过程可以用随机微分方程表示,如下式。

b8724148-56aa-11ee-939d-92fbcf53809c.png

其中dw是标准Wiener过程,β(t)是有利于variance-preserving SDE 的预定义噪声表。

该前向过程可以被反转并保持SDE的形式,如下式。

b87b4de2-56aa-11ee-939d-92fbcf53809c.png

b889caf2-56aa-11ee-939d-92fbcf53809c.png

b898739a-56aa-11ee-939d-92fbcf53809c.png

b8a38ffa-56aa-11ee-939d-92fbcf53809c.png

下来是使用扩散模型采样。无条件扩散生成过程从一个随机噪声向量xT开始,根据式2的离散化形式进行更新。也可以将DDIM的方式理解采样过程,即score函数可以被看做一个去噪器,在迭代t中,从状态xt预测去噪结果x~0|t,如下式。

b8b2218c-56aa-11ee-939d-92fbcf53809c.png

这样x~0|t就可以表示给定xt时,x0的估计。

具体更新的方式如下。

b8ca3772-56aa-11ee-939d-92fbcf53809c.png

使用上面的方式,直到x0被生成。

本文基于DDPM和以往方法的对比:传统基于优化的方法主要是收到人工设计损失函数的限制,这可能会让这类方法在数据分布发生改变时融合效果不佳。虽然整合自然图像先验可以提供额外的知识,但是只用损失函数来建模是远远不足的。和GAN方法相比,本文的扩散模型方法可以避免不稳定的训练和模式坍塌,通过每次迭代过程中对源图像生成过程的矫正和基于似然的优化就可以得到稳定的训练和可控融合了。

模型结构

通过扩散后验采样来融合图像:使用i、v、f分别表示红外、可见光、融合图像,其中融合图像与可见光图像均为RGB彩图。期望f的后验分布可以通过i和v建模,这样f就可以通过后验分布中采样得到了。受到式2的启发,扩散过程的逆SDE可以用下式表示。

b8d94b18-56aa-11ee-939d-92fbcf53809c.png

score函数可以通过下式计算。

b8f8ba66-56aa-11ee-939d-92fbcf53809c.png

其中f~0|t是给定ft后,从无条件DDPM中对f0的估计。上式来源于贝叶斯理论,其近似方程可以看原文引用的文献。上式中的第一项表示无条件扩散采样的score函数,可以通过预先训练的 DDPM 轻松推到出来。下一节将解释第二项的获得方式。

图像融合的似然矫正:传统图像退化反转问题,如下式。

b9061102-56aa-11ee-939d-92fbcf53809c.png

x是groundtruth,y是测量方法,A是已知的,可以显式地获得其后验分布,然后在图像融合问题中,想要在给定ft或者f~0|t情况下,获得i和v的后验分布是不可能的。为了解决这个问题,首先需要建立优化函数和概率模型的似然之间的关系。下面使用 f 来表示f~0|t。

图像融合通常使用的损失函数如下式。

b91e447a-56aa-11ee-939d-92fbcf53809c.png

使用x=f-v和y=i-v来替换变量,可以得到下式。

b9298bfa-56aa-11ee-939d-92fbcf53809c.png

由于y已知,而x未知,那么上式中的第一项就对应于下式k恒为1的回归模型。

b9357e06-56aa-11ee-939d-92fbcf53809c.png

而根据正则项和噪声先验分布之间的关系,ϵ必须是拉普拉斯噪声,x则是服从拉普拉斯分布。那么根据贝叶斯准则,有下式。

b9581006-56aa-11ee-939d-92fbcf53809c.png

b96796c0-56aa-11ee-939d-92fbcf53809c.png

b976de00-56aa-11ee-939d-92fbcf53809c.png

因此式10中的p(x)和p(y|x)可以被写为下面的分层贝叶斯框架。

b981892c-56aa-11ee-939d-92fbcf53809c.png

其中i和j分别表示图像的高和宽。通过上式,就可以将式9中的优化问题转换为一个最大似然推理问题。

另外,全变分惩罚项也可以加到融合图像f中,以更好地从可见光图像v中保留纹理信息,其形式如下,先对x求梯度后再计算L2范数。

b998781c-56aa-11ee-939d-92fbcf53809c.png

最终,概率推理问题的对数似然函数用下式表示。

b9a5353e-56aa-11ee-939d-92fbcf53809c.png

这个分层贝叶斯模型的概率图即为图1的b形式。

这里将式8的优化问题转换为了式13最大似然问题的概率模型。另外和传统方法中人工调整参数惩罚项参数ϕ不同,本文方法可以通过推理隐变量,自适应地更新参数ϕ,让模型可以更好地拟合不同数据分布。

下面是通过EM算法推理似然模型。为了解决式13的最大对数似然问题,也就是可以被看做包含隐变量的优化问题,本文使用Expectation Maximization, EM算法来获得x。EM步骤如下。

b9b4832c-56aa-11ee-939d-92fbcf53809c.png

在E步骤中,由下面的命题2来计算隐变量条件期望的计算结果,并得到Q方程的推导。

命题2:隐变量1/m和1/n的条件期望计算如下式,证明过程可以看原文。

b9c73864-56aa-11ee-939d-92fbcf53809c.png

然后,可以通过贝叶斯理论得到m的后验概率,如下。

b9dc6e3c-56aa-11ee-939d-92fbcf53809c.png

同时m的后验概率可以通过下式计算。

b9e96d58-56aa-11ee-939d-92fbcf53809c.png

其中IN是逆高斯分布。

对于n也可以用式17相同的方式计算,如下式。

b9f3c370-56aa-11ee-939d-92fbcf53809c.png

那么n也可以转换为使用逆高斯分布计算的方式,如下式。

ba0d93a4-56aa-11ee-939d-92fbcf53809c.png

最终,1/m和1/n的条件期望就是式18和20中逆高斯分布的平均参数。

那么Q方程就可以通过下式推到得到。

ba18882c-56aa-11ee-939d-92fbcf53809c.png

M步骤中,需要最小化关于 x 的负 Q 函数,用half-quadratic splitting算法来处理该问题,如下式。

ba271554-56aa-11ee-939d-92fbcf53809c.png

可以进一步转化为如下无约束优化问题。

ba398f68-56aa-11ee-939d-92fbcf53809c.png

式中的未知变量k、u、 x 可以通过坐标下降方式迭代求解。

k的更新是反卷积过程,如下式。

ba4985d0-56aa-11ee-939d-92fbcf53809c.png

可以采用快速傅里叶变换及其逆变换算子来得到,如下式。

ba55036a-56aa-11ee-939d-92fbcf53809c.png

u的更新是L2范数惩罚回归问题,如下式。

ba654d06-56aa-11ee-939d-92fbcf53809c.png

其计算方式如下。

ba7ecdbc-56aa-11ee-939d-92fbcf53809c.png

x的更新是最小二乘问题,如下式。

ba8ad5a8-56aa-11ee-939d-92fbcf53809c.png

其计算方式如下。

ba97e842-56aa-11ee-939d-92fbcf53809c.png

baa97760-56aa-11ee-939d-92fbcf53809c.png

DDFM:前面部分描述是从已有损失函数中获得分层贝叶斯模型,通过EM算法来进行推理。下面讲述本文DDFM将推理方法和扩散采样整合到同一个框架内,根据输入v和i获得融合图像f,算法流程如下。

babc1cb2-56aa-11ee-939d-92fbcf53809c.png

bacf2190-56aa-11ee-939d-92fbcf53809c.png

DDFM中包含两个模块,一个是无条件扩散采样模块unconditional diffusion sampling (UDS) ,一个是似然矫正,也就是EM模块。UDS模块用来提供自然图像先验,给融合图像提供较好的视觉效果。EM模块通过似然来保护源图像的更多信息,用于对UDS输出进行矫正。

bae4a0c4-56aa-11ee-939d-92fbcf53809c.png

bafa7a20-56aa-11ee-939d-92fbcf53809c.png

EM模块用来将f~0|t更新为f^0|t,在上图算法中对应蓝色和黄色部分。使用DDPM采样(第五行)得到的f~0|t作为EM的起始输入,获得f^0|t(第6到13行),是经过似然校正的融合图像的估计。总体来说,EM模块就是将f~0|t更新为f^0|t来满足似然。

为什么单步EM可以work:本文DDFM和传统EM算法最大不同就是传统方法需要多部迭代来获得x,也就是上图算法中的第6到13行需要多次循环。本文的DDFM只需要单阶段EM迭代,可以直接嵌入到DDPM框架中完成采样。下面给出命题3来解释这种合理性。

命题3:单步无条件扩散采样结合了单步EM迭代等价于单步有条件扩散采样。下面是证明过程结论。

bb0b0ca0-56aa-11ee-939d-92fbcf53809c.png

也就是说,条件采样可以被分为无条件扩散采样和单步EM算法,这就对应了本文的UDS模块和EM模块。

实验部分

首先是IVF的实验结果。实验在TNO、RoadScene、MSRS、M3FD四个数据集上进行验证,需要注意的是由于本文方法不需要针对特定任务进行fine-tune,所以不需要训练集,直接使用预训练过的DDPM方法即可。本文采用的是在imagenet上预训练的模型。对比实验结果如下。

bb217990-56aa-11ee-939d-92fbcf53809c.png

bb463de8-56aa-11ee-939d-92fbcf53809c.png

消融实验一个针对UDS模块,一个针对EM模块。对于UDS模块,去掉去噪扩散生成网络,只用EM算法来解决式8的优化问题来获得融合结果(实验I)。为了公平对比,将总体的迭代次数设置的和DDFM相同。EM模块是去除了式13中的总变分惩罚项,然后再去除贝叶斯推理模型(实验II)。而前文也说过式8中的参数ϕ可以在分层贝叶斯模型中推理,因此这里将参数ϕ分别设置为0.1和1(实验III和IV),使用ADMM来推理模型。以上设置的实验结果如下表。

bb6054bc-56aa-11ee-939d-92fbcf53809c.png

下一组实验是医学影像融合的结果,在 Harvard Medical Image Dataset 上进行测试,包含MRI-CT、MRI-PET、MRI-SPECT三种,实验结果如下图。

bb78306e-56aa-11ee-939d-92fbcf53809c.png

bb8f109a-56aa-11ee-939d-92fbcf53809c.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4458

    浏览量

    90762
  • 图像
    +关注

    关注

    2

    文章

    1064

    浏览量

    40042
  • 生成器
    +关注

    关注

    7

    文章

    302

    浏览量

    20237

原文标题:ICCV 2023 Oral | DDFM:首个使用扩散模型进行多模态图像融合的方法

文章出处:【微信号:CVer,微信公众号:CVer】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于扩散模型图像生成过程

    近年来,扩散模型在文本到图像生成方面取得了巨大的成功,实现了更高图像生成质量,提高了推理性能,也可以激发扩展创作灵感。 不过仅凭文本来控制图像
    的头像 发表于 07-17 11:00 2112次阅读
    基于<b class='flag-5'>扩散</b><b class='flag-5'>模型</b>的<b class='flag-5'>图像</b>生成过程

    如何在PyTorch中使用扩散模型生成图像

    除了顶尖的图像质量,扩散模型还带来了许多其他好处,包括不需要对抗性训练。对抗训练的困难是有据可查的。在训练效率的话题上,扩散模型还具有可伸缩
    发表于 11-22 15:51 337次阅读
    如何在PyTorch中使用<b class='flag-5'>扩散</b><b class='flag-5'>模型</b>生成<b class='flag-5'>图像</b>

    未来已来,传感器融合感知是自动驾驶破局的关键

    的信息,将感知系统的感知维度扩展以实现多维度(模态)感知目标的完整信息。如下图示例,芯片将摄像头图像数据,和雷达探测目标的距离、速度、散射截面R的感知数据,以及红外传感器探测的热辐射图像
    发表于 04-11 10:26

    简单的模型进行流固耦合的模态分析

      本次分享,对一个简单的模型进行流固耦合的模态分析,有限元科技小编主要给大家演示如何使用Hypermesh与Nastran对流固耦合的结构进行模态
    发表于 07-07 17:15

    模态中NLP与CV融合的方式有哪些?

    从a/b test 看文本部分在其中起到的作用为0... ( )   现在看来还是wide and deep这种方式太粗暴了(对于复杂信息的融合),本文写写多模态扫盲基础和最近大家精巧的一些图像文本
    的头像 发表于 12-31 10:12 4637次阅读
    多<b class='flag-5'>模态</b>中NLP与CV<b class='flag-5'>融合</b>的方式有哪些?

    通过多模态特征融合来设计三维点云分类模型

    针对点云数据本身信息量不足导致现有三维点云分类方法分类精度较低的问题,结合多模态特征融合,设计一种三维点云分类模型。通过引入投影图对点云数据信息进行
    发表于 03-11 14:09 3次下载
    通过多<b class='flag-5'>模态</b>特征<b class='flag-5'>融合</b>来设计三维点云分类<b class='flag-5'>模型</b>

    基于双残差超密集网络的多模态医学图像融合方法

    Networks, DRHDNS)的多模态医学图像融合方法。 DRHDNS分为特征提取和特征融合两部分。特征提取部分通过将超密集连接与残差
    发表于 04-14 11:18 19次下载
    基于双残差超密集网络的多<b class='flag-5'>模态</b>医学<b class='flag-5'>图像</b><b class='flag-5'>融合</b><b class='flag-5'>方法</b>

    基于联合压缩感知的多模态目标统一跟踪方法

    针对多模态目标跟踪中大多仅考虑单个图像的异种特征融合或不同模态图像的同种特征融合,为了使得这两者
    发表于 04-27 15:59 0次下载
    基于联合压缩感知的多<b class='flag-5'>模态</b>目标统一跟踪<b class='flag-5'>方法</b>

    基于波域调和滤波扩散模型图像去噪算法

    滤波后的三维数组进行逆变换,得到图像的预估计数据。其次,通过小波分解变换提取预估计图像中的高频部分进行滤波,为避免边缘模糊,引用拉普拉斯高斯算法构建新算子并将其代入
    发表于 05-18 15:39 4次下载

    简述文本与图像领域的多模态学习有关问题

    模型中的几个分支角度,简述文本与图像领域的多模态学习有关问题。 1. 引言 近年来,计算机视觉和自然语言处理方向均取得了很大进展。而融合二者的多模态
    的头像 发表于 08-26 16:29 6413次阅读

    如何改进和加速扩散模型采样的方法2

      事实上,扩散模型已经在深层生成性学习方面取得了重大进展。我们预计,它们可能会在图像和视频处理、 3D 内容生成和数字艺术以及语音和语言建模等领域得到实际应用。它们还将用于药物发现和材料设计等领域,以及其他各种重要应用。我们认
    的头像 发表于 05-07 14:38 2693次阅读
    如何改进和加速<b class='flag-5'>扩散</b><b class='flag-5'>模型</b>采样的<b class='flag-5'>方法</b>2

    模态图像合成与编辑方法

    本篇综述通过对现有的多模态图像合成与编辑方法的归纳总结,对该领域目前的挑战和未来方向进行了探讨和分析。
    的头像 发表于 08-23 09:12 1024次阅读

    蒸馏无分类器指导扩散模型方法

    去噪扩散概率模型(DDPM)在图像生成、音频合成、分子生成和似然估计领域都已经实现了 SOTA 性能。同时无分类器(classifier-free)指导进一步提升了扩散
    的头像 发表于 10-13 10:35 864次阅读

    图像对齐所有模态,Meta开源多感官AI基础模型,实现大一统

    最近,很多方法学习与文本、音频等对齐的图像特征。这些方法使用单对模态或者最多几种视觉模态。最终嵌入仅限于用于训练的
    的头像 发表于 05-26 15:45 572次阅读
    用<b class='flag-5'>图像</b>对齐所有<b class='flag-5'>模态</b>,Meta开源多感官AI基础<b class='flag-5'>模型</b>,实现大一统

    模型+多模态的3种实现方法

    我们知道,预训练LLM已经取得了诸多惊人的成就, 然而其明显的劣势是不支持其他模态(包括图像、语音、视频模态)的输入和输出,那么如何在预训练LLM的基础上引入跨模态的信息,让其变得更强
    的头像 发表于 12-13 13:55 732次阅读
    大<b class='flag-5'>模型</b>+多<b class='flag-5'>模态</b>的3种实现<b class='flag-5'>方法</b>