0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

微软开源“傻瓜式”类ChatGPT模型训练工具

OSC开源社区 来源:OSC开源社区 2023-04-14 09:36 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在利用 OpenAI 的 GPT-4 为 Bing Chat、 Bing Image Creator、Microsoft 365 Copilot、Azure OpenAI Service 和 GitHub Copilot X 引入了类似 ChatGPT 的功能后。微软现又宣布推出 DeepSpeed-Chat,一种用于 RLHF 训练的低成本开源解决方案,基于微软开源的深度学习优化库 DeepSpeed;声称即使是使用单个 GPU,任何人也都可以创建高质量的 ChatGPT 式模型。

该公司表示,尽管开源社区付出了巨大的努力,但目前仍缺乏一个支持端到端的基于人工反馈机制的强化学习(RLHF)的规模化系统,这使得训练强大的类 ChatGPT 模型十分困难。ChatGPT 模型的训练是基于 InstructGPT 论文中的 RLHF 方式,与常见的大语言模型的预训练和微调截然不同,使得现有深度学习系统在训练类 ChatGPT 模型时存在种种局限。因此,为了让 ChatGPT 类型的模型更容易被普通数据科学家和研究者使用,并使 RLHF 训练真正普及到 AI 社区,他们发布了 DeepSpeed-Chat。

8e39ca58-d9e7-11ed-bfe3-dac502259ad0.png

DeepSpeed-Chat 具有以下三大核心功能:

简化 ChatGPT 类型模型的训练和强化推理体验:只需一个脚本即可实现多个训练步骤,包括使用 Huggingface 预训练的模型、使用 DeepSpeed-RLHF 系统运行 InstructGPT 训练的所有三个步骤、甚至生成你自己的类 ChatGPT 模型。此外,还提供了一个易于使用的推理 API,用于用户在模型训练后测试对话式交互。

DeepSpeed-RLHF 模块:DeepSpeed-RLHF 复刻了 InstructGPT 论文中的训练模式,并确保包括 a) 监督微调(SFT),b) 奖励模型微调和 c) 基于人类反馈的强化学习(RLHF)在内的三个步骤与其一一对应。此外,还提供了数据抽象和混合功能,以支持用户使用多个不同来源的数据源进行训练。

DeepSpeed-RLHF 系统:其将 DeepSpeed 的训练(training engine)和推理能力(inference engine) 整合到一个统一的混合引擎(DeepSpeed Hybrid Engine or DeepSpeed-HE)中用于 RLHF 训练。DeepSpeed-HE 能够在 RLHF 中无缝地在推理和训练模式之间切换,使其能够利用来自 DeepSpeed-Inference 的各种优化,如张量并行计算和高性能 CUDA 算子进行语言生成,同时对训练部分还能从 ZeRO- 和 LoRA-based 内存优化策略中受益。DeepSpeed-HE 还能够自动在 RLHF 的不同阶段进行智能的内存管理和数据缓存。

文档内容指出,DeepSpeed Chat 与其他先进方案相比的优势在于:效率和经济性方面比现有系统快 15 倍以上,在 Azure 云上只需 9 小时即可训练一个 OPT-13B 模型,只需 18 小时既可训练 OPT-30B 模型,分别花费不到 300 美元和 600 美元。

在速度和可扩展性方面,即使是 13B 的模型也可以在 1.25 小时内训练,庞大的 175B 模型可以在不到一天的时间内使用 64 个 GPU 集群进行训练。在 RLHF 的可访问性和普及化方面,则可以在单个 GPU 上训练超过 130 亿参数的模型。此外还支持在相同的硬件上分别运行 6.5B 和 50B 的模型,实现高达 7.5 倍的提升。

8e44b440-d9e7-11ed-bfe3-dac502259ad0.png

8e6634f8-d9e7-11ed-bfe3-dac502259ad0.png

8e7a9b3c-d9e7-11ed-bfe3-dac502259ad0.png

尽管近期关于对 ChatGPT 类大语言模型发展的反对和担忧之声不断,但微软似乎仍在全力推进其 AI 开发。对于微软的此次发布,前 Meta AI 专家 Elvis 也激动地表示,DeepSpeed Chat 提供了 Alpaca 和 Vicuna 等所缺少的、一个端到端的 RLHF 管道来训练类似 ChatGPT 的模型,解决的是成本和效率方面的挑战。这是 “微软令人印象深刻的开源努力。..。.. 是一件大事”。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 微软
    +关注

    关注

    4

    文章

    6719

    浏览量

    107318
  • 深度学习
    +关注

    关注

    73

    文章

    5590

    浏览量

    123889
  • ChatGPT
    +关注

    关注

    30

    文章

    1596

    浏览量

    10064

原文标题:微软开源“傻瓜式”类ChatGPT模型训练工具,提速省钱15倍

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    摩尔线程发布大模型训练仿真工具SimuMax v1.0

    近日,摩尔线程正式发布并开源模型分布训练仿真工具SimuMax 1.0版本。该版本在显存和性能仿真精度上实现突破性提升,同时引入多项关键
    的头像 发表于 09-11 18:19 3327次阅读
    摩尔线程发布大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>仿真<b class='flag-5'>工具</b>SimuMax v1.0

    新一代超大模型训练引擎XTuner V1开源

    9月8日,上海人工智能实验室(上海AI实验室)开源书生大模型新一代训练引擎XTuner V1。
    的头像 发表于 09-10 10:55 866次阅读

    傻瓜式操作!灯具外壳气密性检测仪上手就会

    在灯具生产过程中,确保外壳的气密性至关重要。而如今,有了先进的灯具外壳气密性检测仪,检测工作变得轻松便捷,真正实现了“傻瓜式操作”,让你上手就会。首先,在开始检测前,只需将灯具外壳放置在检测仪的特定
    的头像 发表于 05-05 14:56 421次阅读
    <b class='flag-5'>傻瓜式</b>操作!灯具外壳气密性检测仪上手就会

    如何高效训练AI模型?这些常用工具你必须知道!

    模型的发展同样面临瓶颈,训练所需的硬件资源日益增加,比如英伟达的芯片、电力等(这也可能是ChatGPT5迟迟没有出来的原因)。业界有观点认为,在大多数情况下,并不需要全能的大模型,而
    的头像 发表于 04-17 16:43 2239次阅读
    如何高效<b class='flag-5'>训练</b>AI<b class='flag-5'>模型</b>?这些常用<b class='flag-5'>工具</b>你必须知道!

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    基石。 Neuron Studio打造全流程一站开发体验,为AI应用开发按下加速键 AI 应用的开发瓶颈,从来都不是“点的问题”,而是“链的问题”:开发工具碎片化,调优过程靠手动,单模型分析效率低
    发表于 04-13 19:52

    恩智浦eIQ Time Series Studio工具使用教程之模型训练

    大家好,eIQ Time SeriesStudio又和大家见面啦!本章为大家带来工具核心部分-模型训练
    的头像 发表于 03-25 15:25 1432次阅读
    恩智浦eIQ Time Series Studio<b class='flag-5'>工具</b>使用教程之<b class='flag-5'>模型</b><b class='flag-5'>训练</b>

    用PaddleNLP为GPT-2模型制作FineWeb二进制预训练数据集

    ,使用PaddleNLP将FineWeb数据集中文本形式的数据,经过分词化(Tokenize),转换为大语言模型能直接使用的二进制数据,以便提升训练效果。 ChatGPT发布后,当代大语言模型
    的头像 发表于 03-21 18:24 3804次阅读
    用PaddleNLP为GPT-2<b class='flag-5'>模型</b>制作FineWeb二进制预<b class='flag-5'>训练</b>数据集

    YOLOv5中rgb888p_size这个参数要与模型推理和训练的尺寸一致吗?一致会达到更好的效果?

    YOLOv5中rgb888p_size这个参数要与模型推理和训练的尺寸一致吗,一致会达到更好的效果
    发表于 03-11 08:12

    训练好的ai模型导入cubemx不成功怎么处理?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 03-11 07:18

    构建开源OpenVINO™工具套件后,模型优化器位于何处呢?

    构建开源OpenVINO™工具套件后,模型优化器位于何处?
    发表于 03-06 08:18

    模型训练:开源数据与算法的机遇与挑战分析

    进行多方位的总结和梳理。 在第二章《TOP 101-2024 大模型观点》中,苏州盛派网络科技有限公司创始人兼首席架构师苏震巍分析了大模型训练过程中开源数据集和算法的重要性和影响,分析
    的头像 发表于 02-20 10:40 989次阅读
    大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>:<b class='flag-5'>开源</b>数据与算法的机遇与挑战分析

    微软寻求在365 Copilot中引入非OpenAI模型

    担心企业用户在使用365 Copilot时面临的成本和速度问题,因此正在寻求更多样化的技术来源。尽管微软与OpenAI之间有着紧密的合作关系,并允许微软定制OpenAI的模型,但微软
    的头像 发表于 12-25 10:41 830次阅读

    【「大模型启示录」阅读体验】+开启智能时代的新钥匙

    ,NVDIA与微软的竞争 。计算能力的飞速提升是大模型得以兴起的重要基石。GPU/TPU 等高性能计算设备的迅猛发展,宛如为大模型训练打造了一台强大的引擎。它们能够以极高的速度处理海
    发表于 12-24 13:10

    GPU是如何训练AI大模型

    在AI模型训练过程中,大量的计算工作集中在矩阵乘法、向量加法和激活函数等运算上。这些运算正是GPU所擅长的。接下来,AI部落小编带您了解GPU是如何训练AI大模型的。
    的头像 发表于 12-19 17:54 1308次阅读

    开源AI模型库是干嘛的

    开源AI模型库是指那些公开源代码、允许自由访问和使用的AI模型集合。这些模型通常经过训练,能够执
    的头像 发表于 12-14 10:33 1284次阅读