0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型

jf_pmFSk4VX 来源:GiantPandaCV 2023-09-04 16:12 次阅读

自 ChatGPT 发布以来,大模型的强大让人们看见了通用人工智能的曙光,各个科技大厂也纷纷开源自家的大语言模型。然而,大模型也意味着高昂的硬件成本,让不少平民玩家望而却步。

为了让大模型走入千家万户,赋能百业,上海人工智能实验室开发了低成本大模型训练工具箱 XTuner,旨在让大模型训练不再有门槛。通过 XTuner,最低只需 8GB 显存,就可以打造专属于你的 AI 助手。

X 种选择

a60b02ea-49aa-11ee-97a6-92fbcf53809c.png

XTuner 提供了丰富的功能,上图中的各项功能都可以随意组合搭配。

除单点功能外,XTuner 还有以下三个黑科技,让开发者可以做到真正的“面向数据”工作。

高效的数据引擎

XTuner 适配了多个热门开源数据集格式,开发者如已有对应格式的数据集,可以直接使用,并支持多种格式数据源的混合使用:

Alpaca 格式,斯坦福大学开源数据集的格式,也是社区开源项目使用较多的一种格式

MOSS 格式,复旦大学开源指令微调数据集的格式,包含多轮对话和工具调用

Gunacao 格式,QLoRA 项目中所使用数据集的格式

OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的数据集格式

更多数据集格式正在持续添加中......

pip install xtuner # 训练混合了 Alpaca 格式和 Gunacao 格式的数据 xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3

除了支持多种数据集格式外,XTuner 还针对大语言模型数据的特点,对各种数据集格式做了充分的解耦,相较于其他的 Finetune 开源项目,可以在不破坏 Chat 模型对话模版的情况下,对 Chat 模型进行 Finetune。

pip install xtuner # 不破坏 Chat 模型对话模版,继续增量指令微调 xtuner train internlm_chat_7b_qlora_oasst1_e3

针对 GPU 计算特点,在显存允许的情况下,XTuner 支持将多条短数据拼接至模型最大输入长度,以此最大化 GPU 计算核心的利用率,可以显著提升训练速度。例如,在使用 oasst1 数据集微调 Llama2-7B 时,数据拼接后的训练时长仅为普通训练的 50%。

多种训练引擎

XTuner 首次尝试将 HuggingFace 与 OpenMMLab 进行结合,兼顾易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 两种训练引擎,开发者如有深度定制化需求,可根据使用习惯灵活配置。

pip install xtuner # 使用 MMEngine Runner 训练 xtuner train internlm_7b_qlora_oasst1_e3 # 使用 HugingFace Trainer 训练 xtuner train internlm_7b_qlora_oasst1_e3_hf

一键启动训练

XTuner 内置了增量预训练、单轮&多轮对话指令微调、工具类指令微调的标准化流程,让开发者只需聚焦于数据本身。

同时, XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技术,提供各种尺寸模型在各种规格硬件下的训练解决方案,通过 XTuner 一键式启动训练,仅需 8GB 显存即可微调 7B 模型。

pip install 'xtuner[deepspeed]' # 8G 显存微调 Llama2-7B xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2

基于此,开发者可以专注于数据,其他环节放心交给 XTuner,抽出更多精力去奔向大模型的星辰大海!

X 种玩法

通过 XTuner,开发者可以给大模型添加插件,补足大模型欠缺的能力,甚至获得某些 ChatGPT 才有的技能。

XTuner 在 HuggingFace Hub 上提供了丰富的大模型插件,以下示例都可以在 Hub 中找到,欢迎大家下载体验!

ColoristLlama -- 你的专属调色师

通过在少量颜色注释数据集上对 Llama2-7B 进行指令微调训练,XTuner 成功解锁了其调色能力。最终得到的模型甚至可以像“你的甲方”一样反复修订!

a65a773a-49aa-11ee-97a6-92fbcf53809c.gif

a6751fd6-49aa-11ee-97a6-92fbcf53809c.gif

pip install xtuner xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist

Llama "联网" -- 更可靠及时的回答

借助 XTuner 及插件开源数据集,我们还解锁了 Llama 2、QWen 等开源模型的隐藏能力, 使其可以像 ChatGPT 一样联网搜索、调用工具,获得更可靠的回复。

a68d9408-49aa-11ee-97a6-92fbcf53809c.gif

a6cac03a-49aa-11ee-97a6-92fbcf53809c.gif

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4417

    浏览量

    126705
  • 显存
    +关注

    关注

    0

    文章

    103

    浏览量

    13552
  • 大模型
    +关注

    关注

    2

    文章

    1516

    浏览量

    1103

原文标题:8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    fatfs支持8G以上的内存卡吗?

    在官网上下载了最新版的fatfs发现2G的SD卡可以正常读写 8G以上的SDHC则不能被识别 初始化都过不去
    发表于 04-26 07:40

    Meta推出最强开源模型Llama 3 要挑战GPT

    公司这次开源了Llama 3 8B与70B两款不同规模的模型,开发者可以免费使用,而Meta公司还将陆续推出一系列具备多模态、多语言对话、更长上下文窗口等能力的新模型。 据悉Meta用
    的头像 发表于 04-19 17:00 452次阅读

    【算能RADXA微服务器试用体验】Radxa Fogwise 1684X Mini 规格

    ChatGLM2-6B、AIGC、Llama2、SAM、Whisper等超大参数模型 还有份详细的英文的规格表: 另外,算能RADXA微服务器服务器,还是大学生集成电路创新创业大
    发表于 02-28 11:21

    LLaMA 2是什么?LLaMA 2背后的研究工作

    Meta 发布的 LLaMA 2,是新的 sota 开源大型语言模型 (LLM)。LLaMA 2 代表着 LLaMA 的下一代版本,并且具有商业许可证。
    的头像 发表于 02-21 16:00 352次阅读

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    训练是MetaAI研究人员认为的种降低模型使用成本的方式。为了更好的效果,即便是LLaMA最小的70亿参数的版本,其训练使用的tokens
    发表于 12-22 10:18

    聊天机器人助力构建更好芯片

    英伟达的工程师订制了由元宇宙平台公司开发的llama2模型,并利用芯片设计和验证过程中获得的专业数据对该模型进行训练。经过专业训练的大型语言
    的头像 发表于 11-24 15:27 331次阅读

    在线研讨会 | 基于 LLM 构建中文场景检索式对话机器人:Llama2 + NeMo

    4,096,并对算法细节进行了优化,加速了推理速度,让 Llama2 的性能有了很大的提升,能够和 ChatGPT 相媲美。 Llama2模型旨在处理广泛的语言任务,包括文本生成、机器翻译、问题回答、代码生成等等。该
    的头像 发表于 10-13 20:35 602次阅读
    在线研讨会 | 基于 LLM 构建中文场景检索式对话机器人:<b class='flag-5'>Llama2</b> + NeMo

    LLaMA微调显存需求减半,清华提出4比特优化器

    从 GPT-3,Gopher 到 LLaMA,大模型有更好的性能已成为业界的共识。但相比之下,单个 GPU 的显存大小却增长缓慢,这让显存成为了大
    的头像 发表于 09-11 16:08 265次阅读
    <b class='flag-5'>LLaMA</b>微调<b class='flag-5'>显存</b>需求减半,清华提出4比特优化器

    关于Llama 2的一切资源,我们都帮你整理好了

    Meta 发布的 Llama 2,是新的 SOTA 开源大型语言模型(LLM)。Llama 2 代表着 LLaMA 的下一代版本,可商用。Llama
    的头像 发表于 08-23 15:40 752次阅读

    基于Llama2和OpenVIN打造聊天机器人

    Llama 2是 Meta 发布了其最新的大型语言模型Llama2 是基于 Transformer 的人工神经网络,以一系列单词作为输入,递归地预测下一个单词来生成文本。
    发表于 08-06 11:06 566次阅读
    基于<b class='flag-5'>Llama2</b>和OpenVIN打造聊天机器人

    Llama2的技术细节探讨分析

    模型结构为Transformer结构,与Llama相同的是采用RMSNorm归一化、SwiGLU激活函数、RoPE位置嵌入、词表的构建与大小,与Llama不同的是增加GQA(分组查询注意力),扩增了
    发表于 07-23 12:36 1165次阅读
    <b class='flag-5'>Llama2</b>的技术细节探讨分析

    RISC-V 跑大模型(三):LLaMA中文扩展

    这是RISC-V跑大模型系列的第三篇文章,前面我们为大家介绍了如何在RISC-V下运行LLaMA,本篇我们将会介绍如何为LLaMA提供中文支持。
    的头像 发表于 07-17 17:15 528次阅读
    RISC-V 跑大<b class='flag-5'>模型</b>(三):<b class='flag-5'>LLaMA</b>中文扩展

    RISC-V跑大模型(二):LLaMA零基础移植教程

    这是RISC-V跑大模型系列的第二篇文章,主要教大家如何将LLaMA移植到RISC-V环境里。
    的头像 发表于 07-10 10:10 772次阅读
    RISC-V跑大<b class='flag-5'>模型</b>(二):<b class='flag-5'>LLaMA</b>零基础移植教程

    State of GPT:大神Andrej揭秘OpenAI大模型原理和训练过程

    因为该模型训练时间明显更长,训练了1.4 万亿标记而不是 3000 亿标记。所以你不应该仅仅通过模型包含的参数数量来判断模型
    的头像 发表于 05-30 14:34 680次阅读
    State of GPT:大神Andrej揭秘OpenAI大<b class='flag-5'>模型</b>原理和<b class='flag-5'>训练</b>过程

    基于LLAMA的魔改部署

    训练),并且和Vision结合的大模型也逐渐多了起来。所以怎么部署大模型是一个 超级重要的工程问题 ,很多公司也在紧锣密鼓的搞着。 目前效果最好讨论最多的开源实现就是LLAMA,所以
    的头像 发表于 05-23 15:08 4577次阅读
    基于<b class='flag-5'>LLAMA</b>的魔改部署