0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

文本图片编辑新范式:单个模型实现多文本引导图像编辑

深度学习自然语言处理 来源:机器之心 2023-01-10 16:08 次阅读

最近用文本来引导图像编辑取得了非常大的进展以及关注度,特别是基于去噪扩散模型如 StableDiffusion 或者 DALLE 等。但是基于 GAN 的文本 - 图像编辑依旧有一些问题等待解决,例如经典的 StyleCILP 中针对每一个文本必须要训练一个模型,这种单文本对单模型的方式在实际应用中是不方便的。

本文我们提出 FFCLIP 并解决了这个问题,针对灵活的不同文本输入,FFCLIP 只需要一个模型就能够对图片进行相应的编辑,无需针对每个文本重新训练模型,并且在多个数据集上都取得了非常不错的效果。

论文简要概述

利用文本对图像进行编辑的相关研究非常火热,最近许多研究都基于去噪扩散模型来提升效果而少有学者继续关注 GAN 的相关研究。本文基于经典的 StyleGAN 和 CLIP 并提出语义调制模块,从而对不同的文本仅需要单个模型就可以进行文本 - 图像编辑。

本文首先利用已有的编码器将需要编辑的图像转换到 StyleGAN 的 语义空间中的潜在编码 w,再通过提出的语义调制模块对该隐编码进行自适应的调制。该语义调制模块包括语义对齐和语义注入模块,首先通过注意力机制对齐文本编码和 GAN 的隐编码之间的语义,再将文本信息注入到对齐后的隐编码中,从而保证该隐编码拥有文本信息从而达到利用文本编辑图像能力。 不同于经典的 StyleCLIP 模型,我们的模型无需对每个文本单独训练一个模型,一个模型就可以响应多个文本从而对图像做有效的编辑,所以我们的模型成为 FFCLIP-Free Form Text-Driven Image Manipulation。同时我们的模型在经典的教堂,人脸以及汽车数据集上都取得了非常不错的效果。

9ce3a3d2-9011-11ed-bfe3-dac502259ad0.png

论文链接:

https://arxiv.org/pdf/2210.07883.pdf

代码链接:

https://github.com/KumapowerLIU/FFCLIP

背景和启示最近,描述用户意图的自由文本提示已被用于编辑 StyleGAN 潜在空间以进行图像编辑操作 [1、2]。一句话(例如,‘Blue’)或短语(例如,‘Man aged 10’)作为输入,这些方法通过调制 StyleGAN 潜在空间中的潜在编码来相应地编辑所描述的图像属性。 精确的文本 - 图像编辑依赖于 StyleGAN 的视觉语义空间与 CLIP 的文本语义空间之间的精确潜在映射。比如当文本提示是 “惊喜”,我们首先在视觉语义空间中识别其相关的语义子空间(即 “表情”,因为惊喜属于表情这个属性)。找到与文本相对应的语义子空间后,文本会告诉我们隐编码的变化方向,从让隐编码从当前的表情变化到惊喜的表情。 TediGAN [1] 和 StyleCLIP [2] 等开创性研究凭经验预先定义了哪个潜在视觉子空间对应于目标文本提示嵌入(即 TediGAN 中的特定属性选择和 StyleCLIP 中的分组映射)。这种经验识别限制了给定一个文本提示,他们必须训练相应的编辑模型。 不同的文本提示需要不同的模型来调制 StyleGAN 的潜在视觉子空间中的潜在代码。虽然 StyleCLIP 中的全局方向方法没有采用这样的过程,但参数调整和编辑方向是手动预定义的。为此,我们有理由来探索如何通过显性的文本自动的找到隐性的视觉语义子空间,从而达到单个模型就可以应对多个文本。 在这篇论文中,我们提出了 FFCLIP-Free Form CLIP,它可以针对不同的文本自动找到相对应视觉子空间。FFCLIP 由几个语义调制模块组成,这些语义调制模块把 StyleGAN 潜在空间 中的潜在编码 和文本编码 e 作为输入。 语义调制模块由一个语义对齐模块和一个语义注入模块组成。语义对齐模块将文本编码 e 作为 query,将潜在编码 w 作为 key 和 Value。然后我们分别在 position 和 channel 维度上计算交叉注意力,从而得到两个注意力图。 接着我们使用线性变换将当前的视觉空间转换到与文本对应的子空间,其中线性变换参数(即平移和缩放参数)是基于这两个注意力图计算的。通过这种对齐方式,我们可以自动的为每个文本找到相应的视觉子空间。最后,语义注入模块 [3] 通过之后的另一个线性变换修改子空间中的潜在代码。 从 FFCLIP 的角度来看,[1, 2] 中子空间经验选择是我们在语义对齐模块中线性变换的一种特殊形式。他们的组选择操作类似于我们的缩放参数的二进制值,以指示 w 的每个位置维度的用法。另一方面,我们观察到 空间的语义仍然存在纠缠的现象,经验设计无法找到 StyleGAN 的潜在空间和 CLIP 的文本语义空间之间的精确映射。 相反,我们的语义对齐模块中的缩放参数自适应地修改潜在代码 w 以映射不同的文本提示嵌入。然后通过我们的平移参数进一步改进对齐方式。我们在基准数据集上评估我们的方法,并将 FFCLIP 与最先进的方法进行比较。结果表明,FFCLIP 在传达用户意图的同时能够生成更加合理的内容。

FFCLIP

图 1 所展示的就是我们的整体框架。FFCLIP 首先通过预训练好的 GAN inversion 编码器和文本编码器得到图像和文本的潜在编码,其中图像的潜在编码则是之前提到的 StyleGAN 视觉语义空间 中的 w,而文本编码则是 。我们和 StyleCLIP 一样采用 e4e GAN inversion 编码器 [4] 和 CLIP 中的文本编码器来分别得到相应的潜在编码。接着我们将 和 w 作为调制模块的输入并输出得到 w 的偏移量 ,最后将 与原始的 w 相加并放入预训练好的 StyleGAN 中得到相应的结果。

9d2d681e-9011-11ed-bfe3-dac502259ad0.png

▲图1. 整体框架图

下图二就是我们的语义调制模块。在语义对齐模块中(Semantic Alignment),我们可以清晰地看到我们将 设置为 Key 和 Value 并将 设置为 Query 来计算两个注意力图,这两个注意力图的大小分别是 18×1 以及 512×512。接着我们将 18×1 的注意力图当作线性变换中缩放系数 S,我们计算该注意力图的过程如下:

9d3e66dc-9011-11ed-bfe3-dac502259ad0.png

同时我们将 512×512 的注意力图与 Value 相乘以后再经过 Pooling 操作得到显性变换中的平移系数 T。我们计算该注意力图的过程如下:

9d4fe48e-9011-11ed-bfe3-dac502259ad0.png

拥有了平移和缩放系数后,我们就可以通过线性变换为当前文本找到相对应的视觉子空间,计算步骤如下:

9d619c38-9011-11ed-bfe3-dac502259ad0.png

其中 是我们第 i 个语义调制模块的输出结果。由于 的大小是 18×512,所以 18×1 和 512×512 的注意力图分别是在 的 position 和 channel 两个维度上进行注意力图的计算,这个操作类似于 Dual Attention [5]。

9d76c3d8-9011-11ed-bfe3-dac502259ad0.png

▲图2. 语义调制模块 我们通过以上的操作可以得到与文本对应的视觉子空间,紧接着我们采用类似 AdaIN 的方式,将文本信息注入到这个空间中,从而得到最后的结果,我们称这个操作为语义注入模块(Semantic Injection)。整个模块的实现步骤如下:

9d9f82a0-9011-11ed-bfe3-dac502259ad0.png

最终我们的 FFCLIP 中一共堆叠了 4 个语义调制模块,并最终得到最后的偏移量 。

实验结果

9dcb6f14-9011-11ed-bfe3-dac502259ad0.png

9f940180-9011-11ed-bfe3-dac502259ad0.png

▲图3. 视觉对比图

如图 3 所示,我们与 StyleCLIP [1],TediGAN [2] 以及 HairCLIP [3] 进行了视觉上的对比:可以看到 FFCLIP 能够更好的反应文本的语义,并且生成更加真实的编辑图像。同时相对应的数值对比结果如下表所示,我们的方法无论是在客观数值还是在主观数值上都能取得最好的效果。

9ffe6a8e-9011-11ed-bfe3-dac502259ad0.png

▲表1.数值对比

同时我们的方法还展现出了非好的鲁棒性,FFCLIP 在训练中并未见过词的组合而是用单个的单词进行训练,但是在测试中能够很好的针对词组的语义对图像进行编辑,视觉效果如图 4 所示。

a0181970-9011-11ed-bfe3-dac502259ad0.png

▲图4. 词组编辑

更多的实验结果和消融实验请看原文。

总结我们在本文中提出了 FFCLIP,一种可以针对不同文本但只需要单个模型就能进行有效图像编辑的新方法。本文动机是现有方法是根据已有的经验来匹配当前文本和 GAN 的语义子空间,因此一个编辑模型只能处理一个文本提示。我们通过对齐和注入的语义调制来改进潜在映射。它有利于一个编辑模型来处理多个文本提示。多个数据集的实验表明我们的 FFCLIP 有效地产生语义相关和视觉逼真的结果。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 图像
    +关注

    关注

    2

    文章

    1063

    浏览量

    40041
  • 模型
    +关注

    关注

    1

    文章

    2704

    浏览量

    47689
  • 文本
    +关注

    关注

    0

    文章

    118

    浏览量

    16922

原文标题:NIPS 2022 | 文本图片编辑新范式:单个模型实现多文本引导图像编辑

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    HarmonyOS开发案例:【图片编辑

    基于ArkTS的声明式开发范式的样例,主要介绍了图片编辑实现过程。
    的头像 发表于 04-23 20:54 33次阅读
    HarmonyOS开发案例:【<b class='flag-5'>图片</b><b class='flag-5'>编辑</b>】

    HarmonyOS开发案例:【图片编辑

    基于canvas组件、图片编解码,介绍了图片编辑实现过程。
    的头像 发表于 04-22 16:42 361次阅读
    HarmonyOS开发案例:【<b class='flag-5'>图片</b><b class='flag-5'>编辑</b>】

    请问TouchGFX能不能实现中文文本编辑及显示?

    目前来看,TouchGFX显示的中文好像都是固定的。但是如果我串口收到一个中文unicode的编码,要将其显示出来,或者用户通过键盘,编辑任意中文文本的话,要怎么实现呢?
    发表于 04-09 08:23

    谷歌模型怎么用PS打开文件和图片

    等)或ONNX模型(.onnx)等。这些模型文件是二进制的,并且是为特定的机器学习框架设计的,而不是为图像编辑软件如PS设计的。
    的头像 发表于 02-29 18:25 878次阅读

    linux打开文本文件命令提示错误

    Linux中打开文本文件的命令通常是使用文本编辑器打开,例如常用的命令有 vi 、 vim 、 nano 等。如果在使用其中一个命令时出现错误提示,可能有以下几种原因和解决方法。 错误提示
    的头像 发表于 12-22 15:10 284次阅读

    探究编辑多模态大语言模型的可行性

    不同于单模态模型编辑,多模态模型编辑需要考虑更多的模态信息。文章出发点依然从单模态模型编辑入手,
    发表于 11-09 14:53 255次阅读
    探究<b class='flag-5'>编辑</b>多模态大语言<b class='flag-5'>模型</b>的可行性

    什么是VIM?VIM文本编辑器的三种工作模式

    Vim (Vi improved)是从 Vi 发展出来的一个文本编辑器,简单的来说,Vi 是老式的文本处理器,功能已经很齐全了,但还是有可以进步的地方。
    发表于 09-06 16:04 1729次阅读
    什么是VIM?VIM<b class='flag-5'>文本编辑</b>器的三种工作模式

    伯克利AI实验室开源图像编辑模型InstructPix2Pix,简化生成图像编辑并提供一致结果

    之前的 AI 图像编辑能力通常是进行风格转换,流行的文本图像生成模型(如 DALL-E 和 Stable Diffusion)也支持图像
    的头像 发表于 08-28 15:45 478次阅读
    伯克利AI实验室开源<b class='flag-5'>图像编辑</b><b class='flag-5'>模型</b>InstructPix2Pix,简化生成<b class='flag-5'>图像编辑</b>并提供一致结果

    Ultraedit数据库编辑器和文本编辑器的区别

    几乎每个现代软件都使用数据库。因此,需要允许数据库开发人员和管理人员有效地使用数据库、创建SQL 查询和处理表格数据的工具。不同类型的软件将使他们能够做到这一点,例如,数据库编辑器、文本编辑器和集成
    发表于 08-17 10:34 297次阅读

    生成式 AI 研究通过引导图像结构控制为创作者赋能

    新的研究正在通过一个文本引导图像编辑工具来提升生成式 AI 的创造性潜能。这项创新性的研究提出了一个使用即插即用扩散特征(PnP DFs)的框架,可引导
    的头像 发表于 07-24 19:30 364次阅读

    AI图像编辑技术DragGAN开源,拖动鼠标即可改变人物笑容

    DragGAN是一个直观的图像编辑工具PM系统(www.multiable.com.cn),用户只需要控制图像中的像素点和方向,就可以快速调整照片主体的位置、姿态、表情、大小和角度等。
    的头像 发表于 06-29 10:34 620次阅读

    OpenHarmony上实现图片编辑功能

    图片编辑是在应用中经常用到的功能,比如相机拍完照片后可以对照片进行编辑;截图后可以对截图进行编辑;可以对图库中的图片进行
    的头像 发表于 06-25 15:17 786次阅读
    OpenHarmony上<b class='flag-5'>实现</b><b class='flag-5'>图片</b><b class='flag-5'>编辑</b>功能

    基于文本图像模型的可控文本到视频生成

    1. 论文信息 2. 引言   大规模扩散模型文本图像合成方面取得了巨大的突破,并在创意应用方面取得了成功。一些工作试图在视频领域复制这个成功,即在野外世界建模高维复杂视频分布。然而,训练这样
    的头像 发表于 06-14 10:39 586次阅读
    基于<b class='flag-5'>文本</b>到<b class='flag-5'>图像</b><b class='flag-5'>模型</b>的可控<b class='flag-5'>文本</b>到视频生成

    博途V15-多语言文本的管理

    只能编辑浅灰色存放的文本
    的头像 发表于 06-10 11:32 1200次阅读
    博途V15-多语言<b class='flag-5'>文本</b>的管理

    UltraEdit文本编辑功能介绍

    UltraEdit 是一个功能强大的基于磁盘的文本编辑器、程序员编辑器和十六进制编辑器,用于编辑HTML、PHP、JavaScript、Perl、C/C++、Python和几乎任何其他
    的头像 发表于 05-22 10:52 2942次阅读
    UltraEdit<b class='flag-5'>文本编辑</b>功能介绍