0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型

jf_pmFSk4VX 来源:GiantPandaCV 2023-09-04 16:12 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

自 ChatGPT 发布以来,大模型的强大让人们看见了通用人工智能的曙光,各个科技大厂也纷纷开源自家的大语言模型。然而,大模型也意味着高昂的硬件成本,让不少平民玩家望而却步。

为了让大模型走入千家万户,赋能百业,上海人工智能实验室开发了低成本大模型训练工具箱 XTuner,旨在让大模型训练不再有门槛。通过 XTuner,最低只需 8GB 显存,就可以打造专属于你的 AI 助手。

X 种选择

a60b02ea-49aa-11ee-97a6-92fbcf53809c.png

XTuner 提供了丰富的功能,上图中的各项功能都可以随意组合搭配。

除单点功能外,XTuner 还有以下三个黑科技,让开发者可以做到真正的“面向数据”工作。

高效的数据引擎

XTuner 适配了多个热门开源数据集格式,开发者如已有对应格式的数据集,可以直接使用,并支持多种格式数据源的混合使用:

Alpaca 格式,斯坦福大学开源数据集的格式,也是社区开源项目使用较多的一种格式

MOSS 格式,复旦大学开源指令微调数据集的格式,包含多轮对话和工具调用

Gunacao 格式,QLoRA 项目中所使用数据集的格式

OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的数据集格式

更多数据集格式正在持续添加中......

pip install xtuner # 训练混合了 Alpaca 格式和 Gunacao 格式的数据 xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3

除了支持多种数据集格式外,XTuner 还针对大语言模型数据的特点,对各种数据集格式做了充分的解耦,相较于其他的 Finetune 开源项目,可以在不破坏 Chat 模型对话模版的情况下,对 Chat 模型进行 Finetune。

pip install xtuner # 不破坏 Chat 模型对话模版,继续增量指令微调 xtuner train internlm_chat_7b_qlora_oasst1_e3

针对 GPU 计算特点,在显存允许的情况下,XTuner 支持将多条短数据拼接至模型最大输入长度,以此最大化 GPU 计算核心的利用率,可以显著提升训练速度。例如,在使用 oasst1 数据集微调 Llama2-7B 时,数据拼接后的训练时长仅为普通训练的 50%。

多种训练引擎

XTuner 首次尝试将 HuggingFace 与 OpenMMLab 进行结合,兼顾易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 两种训练引擎,开发者如有深度定制化需求,可根据使用习惯灵活配置。

pip install xtuner # 使用 MMEngine Runner 训练 xtuner train internlm_7b_qlora_oasst1_e3 # 使用 HugingFace Trainer 训练 xtuner train internlm_7b_qlora_oasst1_e3_hf

一键启动训练

XTuner 内置了增量预训练、单轮&多轮对话指令微调、工具类指令微调的标准化流程,让开发者只需聚焦于数据本身。

同时, XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技术,提供各种尺寸模型在各种规格硬件下的训练解决方案,通过 XTuner 一键式启动训练,仅需 8GB 显存即可微调 7B 模型。

pip install 'xtuner[deepspeed]' # 8G 显存微调 Llama2-7B xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2

基于此,开发者可以专注于数据,其他环节放心交给 XTuner,抽出更多精力去奔向大模型的星辰大海!

X 种玩法

通过 XTuner,开发者可以给大模型添加插件,补足大模型欠缺的能力,甚至获得某些 ChatGPT 才有的技能。

XTuner 在 HuggingFace Hub 上提供了丰富的大模型插件,以下示例都可以在 Hub 中找到,欢迎大家下载体验!

ColoristLlama -- 你的专属调色师

通过在少量颜色注释数据集上对 Llama2-7B 进行指令微调训练,XTuner 成功解锁了其调色能力。最终得到的模型甚至可以像“你的甲方”一样反复修订!

a65a773a-49aa-11ee-97a6-92fbcf53809c.gif

a6751fd6-49aa-11ee-97a6-92fbcf53809c.gif

pip install xtuner xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist

Llama "联网" -- 更可靠及时的回答

借助 XTuner 及插件开源数据集,我们还解锁了 Llama 2、QWen 等开源模型的隐藏能力, 使其可以像 ChatGPT 一样联网搜索、调用工具,获得更可靠的回复。

a68d9408-49aa-11ee-97a6-92fbcf53809c.gif

a6cac03a-49aa-11ee-97a6-92fbcf53809c.gif

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5102

    浏览量

    134485
  • 显存
    +关注

    关注

    0

    文章

    112

    浏览量

    14063
  • 大模型
    +关注

    关注

    2

    文章

    3460

    浏览量

    4975

原文标题:8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    DP1323EL的电动车解锁方案:超高速读写,提升电动车一键解锁体验

    在快节奏的都市生活中,电动车已成为许多人的首选出行工具。然而,传统的机械钥匙往往带来诸多不便:容易丢失、操作繁琐,甚至在雨天或匆忙时成为负担。     随着物联网和智能科技的快速发展,一键解锁方案
    的头像 发表于 12-05 18:06 1503次阅读

    【CIE全国RISC-V创新应用大赛】基于 K1 AI CPU 的大模型部署落地

    代码与步骤 项目结构 /contest_14b ├── spacemit-llama.cpp.riscv64.0.0.4/ (官方工具) ├── run_contest.sh(一键启动
    发表于 11-27 14:43

    RA8P1部署ai模型指南:从训练模型到部署 | 本周六

    在嵌入式边缘AI中,如何把“训练好的模型”稳定地“跑在板子上”,决定了项目能否落地。我们带你基于RA8P1平台,跑通从数据准备、模型
    的头像 发表于 11-20 18:06 1674次阅读
    RA<b class='flag-5'>8</b>P1部署ai<b class='flag-5'>模型</b>指南:从<b class='flag-5'>训练</b><b class='flag-5'>模型</b>到部署 | 本周六

    基于DP1323EL的电动车解锁方案:超高速读写,提升电动车一键解锁体验

    发展,一键解锁方案应运而生。其中,手机APP蓝牙解锁和NFC刷卡解锁作为两大主流方式,不仅实现了无钥匙操作,还提升了车辆的安全性和智能化水平。 1.方案介绍 蓝牙
    的头像 发表于 11-10 18:06 1075次阅读

    基于DP1323EL的电动车解锁方案:超高速读写,提升电动车一键解锁体验

    及各类非接触式应用设备。 电动车一键解锁方案通过“手机APP蓝牙 + 刷卡”双模设计,不仅让用户在不同场景下都能便捷、安全地开锁,同时大幅提升了整车的智能化体验。蓝牙模块提供远程管理与身份认证能力
    发表于 11-10 17:45

    在Ubuntu20.04系统中训练神经网络模型些经验

    本帖欲分享在Ubuntu20.04系统中训练神经网络模型些经验。我们采用jupyter notebook作为开发IDE,以TensorFlow2
    发表于 10-22 07:03

    借助NVIDIA Megatron-Core大模型训练框架提高显存使用效率

    随着模型规模迈入百亿、千亿甚至万亿参数级别,如何在有限显存中“塞下”训练任务,对研发和运维团队都是巨大挑战。NVIDIA Megatron-Core 作为流行的大模型
    的头像 发表于 10-21 10:55 816次阅读
    借助NVIDIA Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>框架提高<b class='flag-5'>显存</b>使用效率

    代超大模型训练引擎XTuner V1开源

    9月8日,上海人工智能实验室(上海AI实验室)开源书生大模型训练引擎XTuner V1。
    的头像 发表于 09-10 10:55 893次阅读

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型的推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这问题,本文将探讨大
    发表于 07-03 19:43

    使用 NPU 插件对量化的 Llama 3.1 8b 模型进行推理时出现“从 __Int64 转换为无符号 int 的错误”,怎么解决?

    安装了 OpenVINO™ GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    发表于 06-25 07:20

    U盘一键制作

    在电脑维修中启动盘很重要,靠谱的u盘一键启动制作方法
    发表于 05-06 16:10 44次下载

    企业级Claude API应用方案!完整调用攻略来袭:带你解锁Claude 3.5/3.7大模型

    企业级Claude API大模型应用开发,完整调用攻略来袭,带你解锁Claude 3.5/3.7大模型,满足企业级生产!无需魔法,无需外币充值,无需担心封号问题
    的头像 发表于 03-19 19:55 1596次阅读
    企业级Claude API应用方案!完整调用攻略来袭:<b class='flag-5'>带你</b><b class='flag-5'>解锁</b>Claude 3.5/3.7大<b class='flag-5'>模型</b>

    无法在OVMS上运行来自Meta的大型语言模型 (LLM),为什么?

    无法在 OVMS 上运行来自 Meta 的大型语言模型 (LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 llama_chat Python* Demo 时遇到错误。
    发表于 03-05 08:07

    开关柜一键顺控在一键停电、一键送电中的作用

    蜀瑞创新为大家科普,开关柜一键顺控技术在一键停电和一键送电中发挥了快速响应、减少人为错误、提高安全性、简化操作流程、降低操作风险、提高送电成功率等综合优势,对于提升电力系统的运行效率、安全性以及自动化水平具有重要意义。
    的头像 发表于 02-27 09:13 1273次阅读

    UOS AI:一键解锁未来办公新姿势

    浏览新闻寻找素材,长篇大论眼花缭乱? 选中内容后 「AI随航」 图标自动显现 ,鼠标悬停图标后点击选择相应功能,几秒帮你总结内容,还能选中想要的内容一键续写润色和花式扩写! 老板夸你“效率堪比 AI
    的头像 发表于 02-19 10:54 1147次阅读
    UOS AI:<b class='flag-5'>一键</b><b class='flag-5'>解锁</b>未来办公新姿势