0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

下载量超300w的ChatGLM-6B再升级:8-32k上下文,推理提速42%

OSC开源社区 来源:OSC开源社区 2023-06-29 16:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

GLM 技术团队宣布再次升级 ChatGLM-6B,发布 ChatGLM2-6B。ChatGLM-6B 于 3 月 14 日发布,截至 6 月 24 日在 Huggingface 上的下载量已经超过 300w。 截至 6 月 25 日,ChatGLM2 模型在主要评估 LLM 模型中文能力的 C-Eval 榜单中以 71.1 的分数位居 Rank 0;ChatGLM2-6B 模型则以 51.7 的分数位居 Rank 6,是榜单上排名最高的开源模型。

e88cc704-15a0-11ee-962d-dac502259ad0.png

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

更强大的性能:基于 ChatGLM 初代模型的开发经验,全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。

更长的上下文:基于 FlashAttention 技术,项目团队将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,我们会在后续迭代升级中着重进行优化。

更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。

更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。

评测结果

以下为 ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(数学)、BBH(英文) 上的测评结果。

e8c601e0-15a0-11ee-962d-dac502259ad0.png

推理性能

ChatGLM2-6B 使用了 Multi-Query Attention,提高了生成速度。生成 2000 个字符的平均速度对比如下

e908b06c-15a0-11ee-962d-dac502259ad0.png

Multi-Query Attention 同时也降低了生成过程中 KV Cache 的显存占用,此外,ChatGLM2-6B 采用 Causal Mask 进行对话训练,连续对话时可复用前面轮次的 KV Cache,进一步优化了显存占用。因此,使用 6GB 显存的显卡进行 INT4 量化的推理时,初代的 ChatGLM-6B 模型最多能够生成 1119 个字符就会提示显存耗尽,而 ChatGLM2-6B 能够生成至少 8192 个字符。

e93eb04a-15a0-11ee-962d-dac502259ad0.png

项目团队也测试了量化对模型性能的影响。结果表明,量化对模型性能的影响在可接受范围内。

e9538a2e-15a0-11ee-962d-dac502259ad0.png

示例对比

相比于初代模型,ChatGLM2-6B 多个维度的能力都取得了提升,以下是一些对比示例。 数理逻辑

e975b338-15a0-11ee-962d-dac502259ad0.png

e99b519c-15a0-11ee-962d-dac502259ad0.png

知识推理

e9dd13ac-15a0-11ee-962d-dac502259ad0.png

ea0bf118-15a0-11ee-962d-dac502259ad0.png

长文档理解

ea33526c-15a0-11ee-962d-dac502259ad0.png

ea6b3e98-15a0-11ee-962d-dac502259ad0.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    4031

    浏览量

    45550
  • 模型
    +关注

    关注

    1

    文章

    3648

    浏览量

    51692
  • 数据集
    +关注

    关注

    4

    文章

    1230

    浏览量

    26036

原文标题:下载量超300w的ChatGLM-6B再升级:8-32k上下文,推理提速42%

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    堪称史上最强推理芯片!英伟达发布 Rubin CPX,实现50倍ROI

    电子发烧友网报道(文/梁浩斌)近日,英伟达在AI infra峰会上发布了专为大规模上下文推理设计的全新GPU系列Rubin CPX,性能堪称炸裂!   英伟达创始人兼CEO黄仁勋表示,“正如 RTX
    的头像 发表于 09-11 08:25 9639次阅读
    堪称史上最强<b class='flag-5'>推理</b>芯片!英伟达发布 Rubin CPX,实现50倍ROI

    大语言模型如何处理上下文窗口中的输入

    本博客介绍了五个基本概念,阐述了大语言模型如何处理上下文窗口中的输入。通过明确的例子和实践中获得的见解,本文介绍了多个与上下文窗口有关的基本概念,如词元化、序列长度和注意力等。
    的头像 发表于 12-03 13:48 150次阅读
    大语言模型如何处理<b class='flag-5'>上下文</b>窗口中的输入

    华为数据存储与「DaoCloud 道客」发布AI推理加速联合解决方案

    规模化发展的拦路虎。在有限算力下,长序列输入导致首Token时延(TTFT)增加,甚至超长序列超出模型上下文窗口限制;随着并发数增加,推理吞吐开始下降,任务频繁卡顿;历史对话和行业知识的重复调用造成算力浪费,加大推理成本。如何优
    的头像 发表于 11-28 10:03 186次阅读
    华为数据存储与「DaoCloud 道客」发布AI<b class='flag-5'>推理</b>加速联合解决方案

    【CIE全国RISC-V创新应用大赛】基于 K1 AI CPU 的大模型部署落地

    量化” 策略。我们必须使用 Q2_K (2-bit) 量化格式,将模型体积压缩到 5.5GB 左右,从而在 8GB 内存上给 KV Cache(上下文)留出空间。 以下是按照官方工具链针对 14
    发表于 11-27 14:43

    项目效率翻倍!迅为RK3568 V2.0硬件接口升级,开发流程提速

    项目效率翻倍!迅为RK3568 V2.0硬件接口升级,开发流程提速
    的头像 发表于 10-29 10:53 215次阅读
    项目效率翻倍!迅为RK3568 V2.0硬件接口<b class='flag-5'>升级</b>,开发流程<b class='flag-5'>再</b><b class='flag-5'>提速</b>

    请问riscv中断还需要软件保存上下文和恢复吗?

    以下是我拷贝的文档里的说明,这个中断处理还需要软件来写上下文保存和恢复,在使用ARM核的单片机都不需要考虑这些的,使用过的小伙伴能解答吗? 3.8. 进出中断的上下文保存和恢复 RISC-V架构
    发表于 10-20 09:56

    米尔RK3576部署端侧多模态多轮对话,6TOPS算力驱动30亿参数LLM

    配置模型路径、max_new_tokens(生成内容最大 token 数)、max_context_len(最大上下文长度)、top_k、特殊 token 等关键参数;随后加载视觉编码模型
    发表于 09-05 17:25

    金升阳推出300W AC砖类电源LBH300-13BxxG系列

    ,洞悉行业痛点,重磅推出AC砖类300W电源——LBH300-13BxxG系列,该系列产品可广泛应用于工控、数据通信、网络通讯、服务器、车载/舰船系统等领域。
    的头像 发表于 08-14 18:04 1242次阅读
    金升阳推出<b class='flag-5'>300W</b> AC砖类电源LBH<b class='flag-5'>300</b>-13BxxG系列

    鸿蒙NEXT-API19获取上下文,在class中和ability中获取上下文,API迁移示例-解决无法在EntryAbility中无法使用最新版

    摘要:随着鸿蒙系统API升级至16版本(modelVersion5.1.1),多项API已废弃。获取上下文需使用UIContext,具体方法包括:在组件中使用getUIContext(),在类中使
    的头像 发表于 07-01 10:57 575次阅读
    鸿蒙NEXT-API19获取<b class='flag-5'>上下文</b>,在class中和ability中获取<b class='flag-5'>上下文</b>,API迁移示例-解决无法在EntryAbility中无法使用最新版

    Google Gemma 3开发者指南

    自首次推出以来,Gemma 模型的下载量已超过 1 亿次,社区为各种用例创建了超过 60,000 个变体1。我们很高兴推出 Gemma 3,这是 Gemma 开放模型系列中最强大、最先进的版本
    的头像 发表于 04-08 10:50 846次阅读
    Google Gemma 3开发者指南

    S32K在AUTOSAR中使用CAT1 ISR,是否需要执行上下文切换?

    如果我们在 AUTOSAR 中使用 CAT1 ISR,是否需要执行上下文切换?另外,是否需要返回指令才能跳回到作系统?您有没有带有 CAT1 ISR 的 S32K3x4 微控制器的示例?
    发表于 03-27 07:34

    为什么深度学习中的Frame per Second高于OpenVINO™演示推理脚本?

    在 DL Workbench 上使用 Microsoft 通用对象上下文 (MS COCO) 数据集运行 YOLOv4 对象检测模型,并获得 50 - 60 FPS。 OpenVINO™演示推理脚本运行,并获得更高的 FPS。
    发表于 03-06 07:27

    DeepSeek推出NSA机制,加速长上下文训练与推理

    的特性,专为快速的长上下文训练和推理而设计。 NSA通过针对现代硬件的优化设计,显著加快了推理速度,并大幅度降低了预训练成本,同时保持了卓越的性能表现。这一机制在确保效率的同时,并未
    的头像 发表于 02-19 14:01 912次阅读

    UCC28063EVM-723 300W交错式PFC预调节器手册

    电子发烧友网站提供《UCC28063EVM-723 300W交错式PFC预调节器手册.pdf》资料免费下载
    发表于 12-18 14:52 2次下载
    UCC28063EVM-723 <b class='flag-5'>300W</b>交错式PFC预调节器手册

    UCC28060EVM 300W交错式PFC预调节器手册

    电子发烧友网站提供《UCC28060EVM 300W交错式PFC预调节器手册.pdf》资料免费下载
    发表于 12-16 10:55 1次下载
    UCC28060EVM <b class='flag-5'>300W</b>交错式PFC预调节器手册