0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型+多模态的3种实现方法

jf_WZTOguxH 来源:AI前线 2023-12-13 13:55 次阅读

我们知道,预训练LLM已经取得了诸多惊人的成就, 然而其明显的劣势是不支持其他模态(包括图像、语音、视频模态)的输入和输出,那么如何在预训练LLM的基础上引入跨模态的信息,让其变得更强大、更通用呢?本节将介绍“大模型+多模态”的3种实现方法。

01

以LLM为核心,调用其他多模态组件

2023年5月,微软亚洲研究院(MSRA)联合浙江大学发布了HuggingGPT框架,该框架能够以LLM为核心,调用其他的多模态组件来合作完成复杂的AI任务(更多细节可参见Yongliang Shen等人发表的论文“HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace”)。HuggingGPT框架的原理示意图如图1所示。下面根据论文中提到的示例来一步一步地拆解 HuggingGPT框架的执行过程。

c61bf0c0-9979-11ee-8b88-92fbcf53809c.png

图1

假如现在你要执行这样一个复杂的AI任务:生成一张一个小女孩正在读书的照片,要求她的姿势和示例照片中的小男孩的姿势相同,然后用你的声音来描述新生成的照片。HuggingGPT框架把执行这个复杂AI任务的过程分成了4个步骤。

(1)任务规划(Task Planning)。使用LLM了解用户的意图,并将用户的意图拆分为详细的执行步骤。如图5-10左上部分所示,将输入指令拆分为6个子步骤。

子步骤1:根据小男孩的图像Image-1,生成小男孩的姿势轮廓Image-2。

子步骤 2:根据提示文本“小女孩正在读书”及小男孩的姿势轮廓Image-2生成小女孩的图像Image-3。

子步骤3:根据小女孩的图像Image-3,对图像信息进行分类。

子步骤4:根据小女孩的图像Image-3,对图像信息进行目标检测,生成带目标框的图像Image-4。

子步骤5:根据小女孩的图像Image-3,对图像信息进行描述,生成描述文本,并在Image-4中完成目标框和描述文本的配对。

子步骤6:根据描述文本生成语音Audio-1。

(2)模型选择(Model Selection)。根据步骤(1)中拆分的不同子步骤,从Hugging Face平台(一个包含多个模型的开源平台)中选取最合适的模型。对于子步骤1中的轮廓生成任务,选取OpenCV的openpose control模型;对于子步骤2中的图像生成任务,选取sd-controlnet-openpose模型;对于子步骤3中的图像分类任务,选取谷歌的vit-base-patch16-224模型;对于子步骤4中的目标检测任务,选取Facebook的detr-resnet-101模型;对于子步骤5中的图像描述任务,选取nlpconnect开源项目的vit-gpt2-Image-captioning模型;对于子步骤6中的语音生成任务,选取Facebook的fastspeech2-en- ljspeech模型。

(3)任务执行(Task Execution)。调用步骤(2)中选定的各个模型依次执行,并将执行的结果返回给LLM。

(4)响应生成(Response Generation)。使用LLM对步骤(3)中各个模型返回的结果进行整合,得到最终的结果并进行输出。

HuggingGPT框架能够以LLM为核心,并智能调用其他多模态组件来处理复杂的AI任务,原理简单,使用方便,可扩展性强。另外,其执行效率和稳定性在未来有待进一步加强。

02

基于多模态对齐数据训练多模态大模型

这种方法是直接利用多模态的对齐数据来训练多模态大模型,《多模态大模型:技术原理与实战》一书5.3节中介绍了诸多模型,例如VideoBERT、CLIP、CoCa、CoDi等都是基于这种思路实现的。

这种方法的核心理念是分别构建多个单模态编码器,得到各自的特征向量,然后基于类Transformer对各个模态的特征进行交互和融合,实现在多模态的语义空间对齐。

由此训练得到的多模态大模型具备很强的泛化能力和小样本、零样本推理能力,这得益于大规模的多模态对齐的预训练语料。与此同时,由于训练参数量较大,往往需要较多的训练资源和较长的训练时长。

03

以LLM为底座模型,训练跨模态编码器

这种方法的特色是以预训练好的LLM为底座模型,冻结LLM的大部分参数来训练跨模态编码器,既能够有效地利用LLM强大的自然语言理解和推理能力,又能完成复杂的多模态任务。这种训练方法还有一个显而易见的好处,在训练过程中对LLM的大部分参数进行了冻结,导致模型可训练的参数量远远小于真正的多模态大模型,因此其训练时长较短,对训练资源的要求也不高。下面以多模态大模型LLaVA为例介绍这种方法的主要构建流程。

2023年4月,威斯康星大学麦迪逊分校等机构联合发布了多模态大模型LLaVA。LLaVA模型在视觉问答、图像描述、物体识别、多轮对话等任务中表现得极其出色,一方面具有强大的自然语言理解和自然语言推理能力,能够准确地理解用户输入的指令和意图,支持以多轮对话的方式与用户进行交流,另一方面能够很好地理解输入图像的语义信息,准确地完成图像描述、视觉问答、物体识别等多模态任务。LLaVA模型的原理示意图如图2所示。

c62dc520-9979-11ee-8b88-92fbcf53809c.png

图2

在训练数据上,LLaVA模型使用了高质量的多模态指令数据集,并且这些数据都是通过GPT-4生成的。这个指令数据集包含基于图像的对话数据、详细描述数据和复杂推理数据,共15万条,数据的质量和多样性较高。LLaVA模型将多模态指令数据集应用到了多模态任务上,这是指令微调扩展到多模态领域的第一次尝试。

在模型架构上,LLaVA模型使用Vicuna模型作为文本编码器,使用CLIP模型作为图像编码器。

第一个阶段,基于59.5万条CC3M文本-图像对齐数据,训练跨模态编码器,以便将文本特征和图像特征进行语义对齐。这里的跨模态编码器其实是一个简单的投影映射层,在训练时冻结LLM的参数,仅仅对投影映射层的参数进行更新。

第二个阶段,基于15万条多模态指令数据,对多模态大模型进行端到端的指令微调,具体针对视觉问答和多模态推理任务进行模型训练。值得注意的是,LLaVA模型在训练的第二个阶段会对LLM和投影映射层的参数都进行相应的更新,仍然存在一定的时间开销和训练资源依赖,这也是后续研究工作的一个重要方向。

2023年5月2日,LLaVA官方发布了轻量级的LLaVA Lightning模型(可以翻译为轻量级的LLaVA模型),使用8个RTX A100型号的显卡,3小时即可完成训练,总训练成本仅为40美元。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编码器
    +关注

    关注

    41

    文章

    3360

    浏览量

    131540
  • GPT
    GPT
    +关注

    关注

    0

    文章

    301

    浏览量

    14869
  • 大模型
    +关注

    关注

    2

    文章

    1525

    浏览量

    1116
  • LLM
    LLM
    +关注

    关注

    0

    文章

    202

    浏览量

    233

原文标题:大模型+多模态的3种实现方法|文末赠书

文章出处:【微信号:AI前线,微信公众号:AI前线】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    李未可科技正式推出WAKE-AI多模态AI大模型

    文本生成、语言理解、图像识别及视频生成等多模态交互能力。   该大模型围绕 GPS 轨迹+视觉+语音打造新一代 LLM-Based的自然交互,同时多模态问答技术的加持,能实现所见即所问
    发表于 04-18 17:01 279次阅读
    李未可科技正式推出WAKE-AI多<b class='flag-5'>模态</b>AI大<b class='flag-5'>模型</b>

    苹果发布300亿参数MM1多模态模型

    近日,科技巨头苹果公司在一篇由多位专家共同撰写的论文中,正式公布了其最新的多模态模型研究成果——MM1。这款具有高达300亿参数的多模态模型系列,由密集
    的头像 发表于 03-19 11:19 299次阅读

    机器人基于开源的多模态语言视觉大模型

    ByteDance Research 基于开源的多模态语言视觉大模型 OpenFlamingo 开发了开源、易用的 RoboFlamingo 机器人操作模型,只用单机就可以训练。
    发表于 01-19 11:43 124次阅读
    机器人基于开源的多<b class='flag-5'>模态</b>语言视觉大<b class='flag-5'>模型</b>

    自动驾驶和多模态大语言模型的发展历程

    模态大语言模型(MLLM) 最近引起了广泛的关注,其将 LLM 的推理能力与图像、视频和音频数据相结合,通过多模态对齐使它们能够更高效地执行各种任务,包括图像分类、将文本与相应的视频对齐以及语音检测。
    发表于 12-28 11:45 206次阅读
    自动驾驶和多<b class='flag-5'>模态</b>大语言<b class='flag-5'>模型</b>的发展历程

    从Google多模态模型看后续大模型应该具备哪些能力

    前段时间Google推出Gemini多模态模型,展示了不凡的对话能力和多模态能力,其表现究竟如何呢?
    的头像 发表于 12-28 11:19 476次阅读
    从Google多<b class='flag-5'>模态</b>大<b class='flag-5'>模型</b>看后续大<b class='flag-5'>模型</b>应该具备哪些能力

    千亿参数多模态模型,“紫东太初”规模化应用加速

    电子发烧友网报道(文/李弯弯)过去近一年时间,国内外大模型技术越来越成熟,并逐步在不同场景中实现实现应用。在国内,作为早早布局多模态模型的科研机构,中国科学院自动化研究所自2019年
    的头像 发表于 12-08 00:09 1367次阅读

    探究编辑多模态大语言模型的可行性

    不同于单模态模型编辑,多模态模型编辑需要考虑更多的模态信息。文章出发点依然从单模态
    发表于 11-09 14:53 255次阅读
    探究编辑多<b class='flag-5'>模态</b>大语言<b class='flag-5'>模型</b>的可行性

    以四点法为例讲解模态识别方法

    导读:模态分析是研究结构动力特性一种近代方法,是系统辨别方法在工程振动领域中的应用。模态是机械结构的固有振动特性,每一个模态具有特定的固有频
    的头像 发表于 08-24 11:42 2184次阅读
    以四点法为例讲解<b class='flag-5'>模态</b>识别<b class='flag-5'>方法</b>

    耀世星辉发布多模态模型AI创作平台悦灵犀

    模态模型AI创作平台悦灵犀。悦灵犀是一款多模态模型的AGI创作平台,依托悦享人工智能大模型"北辰星悦"智能云服务,提供企业级稳定可靠的AI
    的头像 发表于 07-18 21:17 435次阅读
    耀世星辉发布多<b class='flag-5'>模态</b><b class='flag-5'>模型</b>AI创作平台悦灵犀

    更强更通用:智源「悟道3.0」Emu多模态模型开源,在多模态序列中「补全一切」

    当前学界和工业界都对多模态模型研究热情高涨。去年,谷歌的 Deepmind 发布了多模态视觉语言模型 Flamingo ,它使用单一视觉语言模型
    的头像 发表于 07-16 20:45 404次阅读
    更强更通用:智源「悟道3.0」Emu多<b class='flag-5'>模态</b>大<b class='flag-5'>模型</b>开源,在多<b class='flag-5'>模态</b>序列中「补全一切」

    VisCPM:迈向多语言多模态模型时代

    随着 GPT-4 和 Stable Diffusion 等模型模态能力的突飞猛进,多模态模型已经成为大模型迈向通用人工智能(AGI)目标
    的头像 发表于 07-10 10:05 461次阅读
    VisCPM:迈向多语言多<b class='flag-5'>模态</b>大<b class='flag-5'>模型</b>时代

    单张消费级显卡微调多模态模型

    把大模型的训练门槛打下来!我们在单张消费级显卡上实现了多模态模型(LaVIN-7B, LaVIN-13B)的适配和训练
    的头像 发表于 06-30 10:43 1364次阅读
    单张消费级显卡微调多<b class='flag-5'>模态</b>大<b class='flag-5'>模型</b>

    用图像对齐所有模态,Meta开源多感官AI基础模型实现大一统

    最近,很多方法学习与文本、音频等对齐的图像特征。这些方法使用单对模态或者最多几种视觉模态。最终嵌入仅限于用于训练的模态对。因此,视频 - 音
    的头像 发表于 05-26 15:45 569次阅读
    用图像对齐所有<b class='flag-5'>模态</b>,Meta开源多感官AI基础<b class='flag-5'>模型</b>,<b class='flag-5'>实现</b>大一统

    邱锡鹏团队提出SpeechGPT:具有内生跨模态能力的大语言模型

    虽然现有的级联方法或口语语言模型能够感知和生成语音,但仍存在一些限制。首先,在级联模型中,LLM 仅充当内容生成器。由于语音和文本的表示没有对齐,LLM 的知识无法迁移到语音模态中。
    的头像 发表于 05-22 10:19 422次阅读
    邱锡鹏团队提出SpeechGPT:具有内生跨<b class='flag-5'>模态</b>能力的大语言<b class='flag-5'>模型</b>

    ImageBind:跨模态之王,将6种模态全部绑定!

    最近,很多方法学习与文本、音频等对齐的图像特征。这些方法使用单对模态或者最多几种视觉模态。最终嵌入仅限于用于训练的模态对。因此,视频 - 音
    的头像 发表于 05-11 09:30 676次阅读
    ImageBind:跨<b class='flag-5'>模态</b>之王,将6种<b class='flag-5'>模态</b>全部绑定!