0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

任意文本、视觉、音频混合生成,多模态有了强大的基础引擎CoDi-2

智能感知与物联网技术研究所 来源:未知 2023-12-03 20:20 次阅读
研究者表示,CoDi-2 标志着在开发全面的多模态基础模型领域取得了重大突破。

今年 5 月,北卡罗来纳大学教堂山分校、微软提出一种可组合扩散(Composable Diffusion,简称 CoDi)模型,让一种模型统一多种模态成为可能。CoDi 不仅支持从单模态到单模态的生成,还能接收多个条件输入以及多模态联合生成。

近日,UC 伯克利、微软 Azure AI、Zoom、北卡罗来纳大学教堂山分校等多个机构的研究者将 CoDi 升级到了 CoDi-2。

wKgaomVsc6OAeaxrAAEl2u7reAU239.png

  • 论文地址:https://arxiv.org/pdf/2311.18775.pdf

  • 项目地址:https://codi-2.github.io/

项目 demo

论文一作 Zineng Tang 表示,「CoDi-2 遵循复杂的多模态交错上下文指令,以零样本或少样本交互的方式生成任何模态(文本、视觉和音频)。」

wKgaomVsc6OAYmXrAAI_ZkWK0sY869.png

图源:https://twitter.com/ZinengTang/status/1730658941414371820

可以说,作为一种多功能、交互式的多模态大语言模型(MLLM),CoDi-2 能够以 any-to-any 输入-输出模态范式进行上下文学习、推理、聊天、编辑等任务。通过对齐编码与生成时的模态与语言,CoDi-2 使 LLM 不仅可以理解复杂的模态交错指令和上下文示例, 还能在连续的特征空间内自回归地生成合理和连贯的多模态输出。

而为了训练 CoDi-2,研究者构建了一个大规模生成数据集,包含了跨文本、视觉和音频的上下文多模态指令。CoDi-2 展示了一系列多模态生成的零样本能力,比如上下文学习、推理以及通过多轮交互对话实现的 any-to-any 模态生成组合。其中在主题驱动图像生成、视觉转换和音频编辑等任务上超越了以往领域特定的模型。

wKgaomVsc6OATom_AAWunzoj2p0816.png

人类与 CoDi-2 的多轮对话为图像编辑提供了上下文多模态指令。

模型架构

CoDi-2 在设计时旨在处理上下文中的文本、图像和音频等多模态输入,利用特定指令促进上下文学习并生成相应的文本、图像和音频输出。CoDi-2 模型架构图如下所示。

wKgaomVsc6OAdK65AAKOrejz7vs577.png

将多模态大语言模型作为基础引擎

这种 any-to-any 基础模型可以消化交错式模态输入,理解和推理复杂指令(如多轮对话、上下文示例),并与多模态扩散器交互,实现这一切的前提是需要一个强大的基础引擎。研究者提出将 MLLM 作为这个引擎,它的构建需要为仅文本的 LLM 提供多模态感知。

利用对齐的多模态编码器映射,研究者可以无缝地使 LLM 感知到模态交错的输入序列。具体地,在处理多模态输入序列时,他们首先使用多模态编码器将多模态数据映射到特征序列,然后特殊 token 被添加到特征序列的前后,比如「〈audio〉 [audio feature sequence] 〈/audio〉」。

基于 MLLM 的多模态生成

研究者提出将扩散模型(DM)集成到 MLLM 中,从而生成多模态输出,这里遵循细致入微的多模态交错指令和提示。扩散模型的训练目标如下所示:

wKgaomVsc6SAdyM-AAB6GX4e-Ac131.png

接着他们提出训练 MLLM 以生成条件式特征 c = C_y (y),该特征被馈入到扩散模型中以合成目标输出 x。这样一来,扩散模型的生成损失被用来训练 MLLM。

任务类型

本文提出的模型在以下示例任务类型中显示出强大的能力,它提供了一种独特的方法来提示模型生成或转换上下文中的多模态内容,包括本文、图像、音频、视频及其组合。

1. 零样本提示。零样本提示任务要求模型在没有任何先前示例的情况下进行推理并生成新内容。

2. 一次/少量样本提示。一次或少量样本提示为模型提供了一个或几个示例,以便在执行类似任务之前从中学习。这种方法在以下任务中很明显:模型将学习到的概念从一个图像应用到另一个图像,或者通过理解所提供示例中描述的风格来创建一个新的艺术品。

(1)范例学习在要求模型将此学习应用于新实例之前,向模型显式显示期望输出的示例。(2)概念学习涉及模型从这些给定示例的共享概念/属性中学习,例如艺术风格或模式,然后创建展示类似概念/属性的新内容。(3)主题驱动的学习侧重于根据一组提供的图像生成新的内容。

实验及结果

模型设置

本文模型的实现基于 Llama2,特别是 Llama-2-7b-chat-hf。研究者使用 ImageBind ,它具有对齐的图像、视频、音频、文本、深度、thermal 和 IMU 模式编码器。研究者使用 ImageBind 对图像和音频特征进行编码,并通过多层感知器(MLP)将其投射到 LLM(Llama-2-7b-chat-hf)的输入维度。MLP 由线性映射、激活、归一化和另一个线性映射组成。当 LLM 生成图像或音频特征时,他们通过另一个 MLP 将其投射回 ImageBind 特征维度。本文图像扩散模型基于 StableDiffusion2.1 (stabilityai/stable-diffusion-2-1-unclip)、AudioLDM2 和 zeroscope v2。

对于需要更高保真原始输入的图像或音频,研究者还将原始图像或音频输入到扩散模型中,同时通过连接扩散噪声生成特征。这种方法在保留输入内容的最大感知特征方面尤为有效,添加新内容或改变风格等指令编辑也是如此。

图像生成评估

下图展示了 Dreambench 上主题驱动图像生成的评估结果和 MSCOCO 上的 FID 分数。本文方法实现了极具竞争力的零样本性能,显示了其对未知新任务的泛化能力。

wKgaomVsc6SAdPG5AAGrw4P79Wg155.png

音频生成评估

表 5 展示了音频处理任务的评估结果,即添加、删除和替换音轨中的元素。从表中可以明显看出,与之前的方法相比,本文方法表现出了卓越的性能。值得注意的是,在所有三个编辑任务中,它在所有指标 — 对数谱距离(LSD)、Kullback-Leibler(KL)发散和 Fréchet Dis- tance(FD)上都取得了最低得分。

wKgaomVsc6SAfoACAAIrPGvX02A094.png


原文标题:任意文本、视觉、音频混合生成,多模态有了强大的基础引擎CoDi-2

文章出处:【微信公众号:智能感知与物联网技术研究所】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 物联网
    +关注

    关注

    2870

    文章

    41671

    浏览量

    358497

原文标题:任意文本、视觉、音频混合生成,多模态有了强大的基础引擎CoDi-2

文章出处:【微信号:tyutcsplab,微信公众号:智能感知与物联网技术研究所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    李未可科技正式推出WAKE-AI多模态AI大模型

    文本生成、语言理解、图像识别及视频生成等多模态交互能力。   该大模型围绕 GPS 轨迹+视觉+语音打造新一代 LLM-Based的自然交互,同时多
    发表于 04-18 17:01 289次阅读
    李未可科技正式推出WAKE-AI多<b class='flag-5'>模态</b>AI大模型

    NVIDIA Edify多模态架构升级,引领视觉生成式AI新纪元

    NVIDIA近日宣布,其用于视觉生成式AI的多模态架构Edify迎来重大更新,为开发者和视觉内容提供商带来前所未有的新功能。其中,3D资产生成
    的头像 发表于 03-27 10:22 135次阅读

    NVIDIA Edify为视觉内容提供商带来3D生成式AI和全新图像控件

    用于视觉生成式 AI 的多模态架构 NVIDIA Edify 正在迈入全新维度。
    的头像 发表于 03-26 09:49 326次阅读

    什么是多模态?多模态的难题是什么?

    模态大模型,通常大于100M~1B参数。具有较强的通用性,比如对图片中任意物体进行分割,或者生成任意内容的图片或声音。极大降低了场景的定制成本。
    的头像 发表于 01-17 10:03 656次阅读
    什么是多<b class='flag-5'>模态</b>?多<b class='flag-5'>模态</b>的难题是什么?

    北大&amp;华为提出:多模态基础大模型的高效微调

    深度学习的大模型时代已经来临,越来越多的大规模预训练模型在文本视觉和多模态领域展示出杰出的生成和推理能力。然而大模型巨大的参数量有两个明显缺点
    的头像 发表于 11-08 16:20 319次阅读
    北大&amp;华为提出:多<b class='flag-5'>模态</b>基础大模型的高效微调

    Stability AI推出Stable audio的文本音频生成人工智能平台

    Stability AI是一家主要以人工智能生成视觉效果而闻名的公司,它推出了一个名为Stable audio的文本音频生成人工智能平台。 Stable Audio使用扩散模型,与
    的头像 发表于 09-20 10:20 949次阅读

    适用于任意数据模态的自监督学习数据增强技术

    本文提出了一种适用于任意数据模态的自监督学习数据增强技术。   自监督学习算法在自然语言处理、计算机视觉等领域取得了重大进展。这些自监督学习算法尽管在概念上是通用的,但是在具体操作上是基于特定的数据
    的头像 发表于 09-04 10:07 790次阅读
    适用于<b class='flag-5'>任意</b>数据<b class='flag-5'>模态</b>的自监督学习数据增强技术

    更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」

    热度。Flamingo 具备强大的多模态上下文少样本学习能力。 Flamingo 走的技术路线是将大语言模型与一个预训练视觉编码器结合,并插入可学习的层来捕捉跨模态依赖,其采用图文对、
    的头像 发表于 07-16 20:45 406次阅读
    更强更通用:智源「悟道3.0」Emu多<b class='flag-5'>模态</b>大模型开源,在多<b class='flag-5'>模态</b>序列中「补全一切」

    VisCPM:迈向多语言多模态大模型时代

    随着 GPT-4 和 Stable Diffusion 等模型多模态能力的突飞猛进,多模态大模型已经成为大模型迈向通用人工智能(AGI)目标的下一个前沿焦点。总体而言,面向图像和文本的多模态
    的头像 发表于 07-10 10:05 465次阅读
    VisCPM:迈向多语言多<b class='flag-5'>模态</b>大模型时代

    Macaw-LLM:具有图像、音频、视频和文本集成的多模态语言建模

    尽管指令调整的大型语言模型 (LLM) 在各种 NLP 任务中表现出卓越的能力,但它们在文本以外的其他数据模式上的有效性尚未得到充分研究。在这项工作中,我们提出了 Macaw-LLM,一种新颖的多模式 LLM,它无缝集成了视觉音频
    的头像 发表于 06-19 10:35 962次阅读
    Macaw-LLM:具有图像、<b class='flag-5'>音频</b>、视频和<b class='flag-5'>文本</b>集成的多<b class='flag-5'>模态</b>语言建模

    开源了!UniControl:可控视觉生成的统一扩散模型

    现有的可控图片生成模型都是针对单一的模态进行设计,然而 Taskonomy [3] 等工作证明不同的视觉模态之间共享特征和信息,因此本文认为统一的多
    的头像 发表于 06-08 15:01 379次阅读
    开源了!UniControl:可控<b class='flag-5'>视觉</b><b class='flag-5'>生成</b>的统一扩散模型

    用图像对齐所有模态,Meta开源多感官AI基础模型,实现大一统

    最近,很多方法学习与文本音频等对齐的图像特征。这些方法使用单对模态或者最多几种视觉模态。最终嵌入仅限于用于训练的
    的头像 发表于 05-26 15:45 573次阅读
    用图像对齐所有<b class='flag-5'>模态</b>,Meta开源多感官AI基础模型,实现大一统

    Meta开源ImageBind新模型,超越GPT-4,对齐文本音频等6种模态

    这个模型与众不同之处便是可以将多个数据流连接在一起,包括文本、图像/视频和音频视觉、IMU、热数据和深度(Depth)数据。这也是业界第一个能够整合六种类型数据的模型。
    的头像 发表于 05-12 15:47 797次阅读
    Meta开源ImageBind新模型,超越GPT-4,对齐<b class='flag-5'>文本</b>、<b class='flag-5'>音频</b>等6种<b class='flag-5'>模态</b>!

    模态GPT:国内发布一款可以在线使用的多模态聊天机器人!

    基于开源多模态模型 OpenFlamingo,作者使用公开数据集创建了各种视觉指令数据,包括视觉问答、图像字幕、视觉推理、文本 OCR 和
    的头像 发表于 05-12 09:55 890次阅读
    多<b class='flag-5'>模态</b>GPT:国内发布一款可以在线使用的多<b class='flag-5'>模态</b>聊天机器人!

    ImageBind:跨模态之王,将6种模态全部绑定!

    最近,很多方法学习与文本音频等对齐的图像特征。这些方法使用单对模态或者最多几种视觉模态。最终嵌入仅限于用于训练的
    的头像 发表于 05-11 09:30 681次阅读
    ImageBind:跨<b class='flag-5'>模态</b>之王,将6种<b class='flag-5'>模态</b>全部绑定!