0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

昆仑芯重磅打造xHuggingface开源推理套件

昆仑芯科技 来源:昆仑芯科技 2023-07-23 09:42 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

新一轮人工智能热潮下,国内大模型群雄逐鹿,目前已有超过80个大模型公开测试。而相关数据显示,ChatGPT自发布以来,全球访问量环比增幅持续下降,6月首次出现环比下滑9.7%。泡沫退去,如何在大模型时代保持市场竞争力?

针对大模型场景,昆仑芯早已在产品定义上作出布局,相较第一代产品,昆仑芯2代AI芯片可大幅优化算力、互联和高性能,而在研的下一代产品则将提供更佳的性能体验。

在近日落幕的XceedCon2023人工智能芯片生态大会上,昆仑芯大模型端到端解决方案正式发布,该解决方案随即入选2023世界人工智能大会卓越人工智能引领者奖(Super AI Leader,简称SAIL奖)TOP30榜单。

昆仑芯副总裁王勇、昆仑芯互联网行业总经理王志鹏先后在XceedCon2023人工智能芯片生态大会、2023世界人工智能大会对昆仑芯大模型端到端解决方案进行发布与推介。本篇以下内容整理自现场实录。

软硬协同、技术创新

打造高性能产品矩阵

集十余年AI加速领域研发积累,昆仑芯核心团队于2017年在Hot Chips上发布自研、面向通用人工智能计算的芯片核心架构——昆仑芯XPU。目前,已有两代昆仑芯AI芯片基于该架构实现量产和规模部署。

昆仑芯XPU专为密集型计算而设计,相比GPU可提供更多AI加速单元,同时支持C/C++、类CUDA语法编程,兼具高性能和可编程性,适配几乎所有主流AI场景,满足不同行业的大模型训推需求。

大模型的演进必将伴随参数量的增加,更加依赖于分布式训练与推理能力。昆仑芯2代系列产品搭载新一代核心架构XPU-R,性能相较一代提升2-3倍,在分布式场景中优势明显。

01.

大显存

昆仑芯2代产品拥有32GB显存容量,在同价位产品中内存优势突出。

02.

高互联

昆仑芯通过领先技术,可实现单机八卡高速互联,带宽达到200GB/s;支持Direct RDMA,可实现跨机间低延时、高速通讯。

昆仑芯推出针对不同参数级别的大模型产品矩阵,兼具显存和算力成本优势。

昆仑芯AI加速卡R200-8F面向百亿以内参数量级,相比同类型产品性能提升20%;

昆仑芯AI加速器组R480-X8面向百亿至千亿参数量级,性能达到同类型产品的1.3倍以上;

昆仑芯AI加速器组R480-X8集群针对千亿以上参数量级,可实现多机多卡分布式推理。

昆仑芯大模型解决方案软件栈

软件生态层面,昆仑芯提供了针对大模型场景的专用加速库、丰富的云原生插件,支持文心一言、LLaMA、Bloom、ChatGLM、GPT等行业主流大模型。

昆仑芯XFT(XPU Fast Transformer)推理加速库,较原生框架小算子版本性能提升5倍以上。目前,XFT加速库已与百度飞桨、PyTorch等主流深度学习框架完成适配;

昆仑芯云原生插件可帮助用户快速完成和大模型平台的适配;同时提供昆仑芯SDK,帮助用户快速完成适配和实时自定义开发。

昆仑芯xHuggingface开源推理套件

此外,昆仑芯全面拥抱开源社区,积极携手生态伙伴构建软硬一体的AI芯片生态。

昆仑芯打造了xHuggingface开源推理套件,仅修改1-2行代码,即可快速搭建基于XPU的智能客服APP。同时,昆仑芯与飞桨PaddlePaddle的AI Studio社区紧密合作,基于xHuggingface开源推理套件向广大开发者提供更快、更强、更省的算力产品;

昆仑芯与飞桨深入协同适配行业主流大模型,可支持超大规模分布式训练与推理。针对稠密大模型,昆仑芯支持飞桨的Sharding并行、数据并行、模型并行、流水线并行四种并行方式;针对稀疏大模型,昆仑芯与飞桨共同打造大规模参数服务器架构,实现了万亿参数的大模型训练。

深入场景、真实历练

打磨端到端解决方案

昆仑芯深入了解不同应用场景下客户的真实需求,凭借软硬协同技术与高性能产品矩阵,为千行百业提供开箱即用的产品和全栈式AI服务。

大语言模型场景

昆仑芯推理加速方案

目前,昆仑芯已与业界主流开源大模型完成适配,向客户开放开源软件库,供客户进行二次修改、微调,满足不同推理场景下的个性化定制需求。

GPT百亿参数大模型场景:昆仑芯产品的QPS相比主流165W产品提高30%以上,同时首字时延更低。

文心一格:目前已大规模应用昆仑芯产品,成本降低的同时,可实现2秒快速出图。

昆仑芯训练产品总览

针对大语言模型训练场景,昆仑芯也可提供一整套精调的训练策略。目前,昆仑芯已适配pretrain、post-pretrain、SFT、LoRA等模型,可根据客户的数据量与计算资源情况,灵活推荐不同的训练模式。

能源行业:昆仑芯解决方案通过SFT训练模式,客户仅使用少量数据即可2天打造专属行业大模型。

智源研究院:昆仑芯和智源研究院在大模型方面已有深入合作。昆仑芯已完成和Aquila大语言模型推理任务的适配、精度调试和性能优化,并实现大规模分布式推理上线,训练任务适配优化中;同时也适配了智源eva视觉大模型,初步验证了大规模分布式预训练能力。

稀疏大模型推荐场景

稀疏大模型存在训练门槛高、算力消耗大等技术挑战。对于算法和模型持续高频迭代的推荐场景,昆仑芯始终将“安全可信”、“从GPU零成本无缝迁移”作为目标,实现训练与推理系统的紧密耦合,为客户降本增效。目前,昆仑芯已与互联网头部客户完成了训练场景的端到端联合开发,并在TB级以上稀疏大模型上完成了“替换主流GPU的全量上线”。

大模型的持续迭代加速了我国AI技术及AI产业的演进,利好政策的相继出台同时开启了我国大模型商用浪潮。面向未来,昆仑芯将始终坚持软硬协同创新,夯实AI领域综合优势,加速大模型产业落地,勇立大模型时代潮头。

责任编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5271

    浏览量

    136069
  • 开源
    +关注

    关注

    3

    文章

    4346

    浏览量

    46442
  • 昆仑芯科技
    +关注

    关注

    0

    文章

    44

    浏览量

    1160

原文标题:来了!一文读懂昆仑芯大模型端到端解决方案

文章出处:【微信号:昆仑芯科技,微信公众号:昆仑芯科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    MiniMax M2.7全球开源,摩尔线程、沐曦等完成Day0适配

    电子发烧友网综合报道 4月12日,MiniMax M2.7在全球正式开源。华为昇腾、摩尔线程、沐曦股份、昆仑、NVIDIA,以及TogetherAI、Fireworks、Ollama等海内外芯片
    的头像 发表于 04-14 11:05 1723次阅读

    昆仑科技完成MiniMax M2.7模型极速适配

    今日,MiniMax正式开源MiniMax M2.7模型。昆仑同步完成对该模型的Day 0适配与深度优化,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。
    的头像 发表于 04-13 17:07 477次阅读

    昆仑率先完成智谱新一代旗舰模型GLM-5.1深度支持

    今日,智谱正式开源新一代旗舰模型GLM-5.1。作为当前全球领先的开源大模型之一,GLM-5.1在长程任务(Long Horizon Task)处理能力上实现了显著突破。模型发布当日,昆仑
    的头像 发表于 04-09 17:31 1254次阅读

    天数智通用GPU产品Day 0适配GLM-5.1开源模型

    重磅开源,不仅刷新了全球开源模型的智能上限,更与天数智Day 0原生适配能力深度联动,让这款“能独立工作8小时”的旗舰模型,在天数打造
    的头像 发表于 04-08 17:14 690次阅读

    紫光闪重磅发布EC100系列嵌入式eMMC产品

    2026年3月,紫光闪重磅发布专为AI推理与边缘存储场景打造的嵌入式eMMC EC100系列产品,凭借核心团队深耕存储领域的技术积淀与国内完备的产业链协同优势,定位于中高端嵌入式存储
    的头像 发表于 04-07 11:49 1384次阅读

    昆仑科技亮相2026亚布力中国企业家论坛并发表主题演讲

    3月17日,2026亚布力论坛第二十六届年会正式开幕。昆仑CEO欧阳剑受邀出席大会开幕式,并发表了题为《拥抱智能时代,共谱计算新篇——AI算力发展的新机遇,新范式》的主题演讲。在演讲中,欧阳剑围绕大模型时代算力产业的演进趋势展开深入分析,并全面分享了
    的头像 发表于 03-24 15:33 323次阅读

    智谱AI正式上线并开源全新一代大模型GLM-5

    逼近Claude Opus 4.5。当前,昆仑完成Day 0深度推理适配。通过底层算子优化与硬件加速能力,GLM-5已在昆仑产品上实现高
    的头像 发表于 02-12 14:40 968次阅读

    商汤开源SenseNova-MARS:突破多模态搜索推理天花板

    今日,商汤正式开源多模态自主推理模型 SenseNova-MARS(8B/32B 双版本),其在多模态搜索与推理的核心基准测试中以 69.74 分超越Gemini-3-Pro(69.06 分
    的头像 发表于 01-29 23:53 259次阅读
    商汤<b class='flag-5'>开源</b>SenseNova-MARS:突破多模态搜索<b class='flag-5'>推理</b>天花板

    昆仑R200 AI加速卡技术规格解析

    昆仑R200加速卡基于7nm XPU-R架构,在150W功耗下提供256 TOPS INT8算力,侧重高性能推理。配备最高32GB GDDR6内存(512GB/s带宽)及108路视频解码能力,支持
    的头像 发表于 12-14 13:12 1906次阅读
    <b class='flag-5'>昆仑</b><b class='flag-5'>芯</b>R200 AI加速卡技术规格解析

    迈向云端算力巅峰:昆仑K200 AI加速卡全面解读

    昆仑K200作为云端AI加速卡,在K100架构基础上全面升级。其INT8算力达256 TOPS,配备16GB HBM内存与512GB/s带宽,专为千亿参数大模型训练与高并发推理优化。采用全高全长双
    的头像 发表于 12-14 11:17 2291次阅读
    迈向云端算力巅峰:<b class='flag-5'>昆仑</b><b class='flag-5'>芯</b>K200 AI加速卡全面解读

    专为边缘而生:深度解析昆仑K100 AI加速卡,释放128 TOPS极致能效

    昆仑K100边缘AI加速卡以75W超低功耗实现128 TOPS的INT8算力,重新定义边缘推理能效标准。其半高半长设计搭载8GB HBM内存与256GB/s带宽,支持INT8至FP32多精度计算
    的头像 发表于 12-14 11:12 3182次阅读
    专为边缘而生:深度解析<b class='flag-5'>昆仑</b><b class='flag-5'>芯</b>K100 AI加速卡,释放128 TOPS极致能效

    昆仑超节点亮相,单卡性能提升95%

    电子发烧友网综合报道 11月13日,2025百度世界大会举办,在同期开展的“百度世界展区”内,百度昆仑超节点公开亮相。同时,百度发布了天池超节点的后续规划:天池256超节点将于 2026上半年上市
    的头像 发表于 11-16 07:32 1.1w次阅读
    <b class='flag-5'>昆仑</b><b class='flag-5'>芯</b>超节点亮相,单卡性能提升95%

    昆仑科技参与发布超节点智算应用“北京方案”

    9月26日,2025人工智能计算大会(AICC 2025)在京举行,昆仑作为国产 AI 芯片领域的代表,与30多家企业与机构携手,在北京市科委中关村管委会、北京市发展改革委的共同见证下,发布了《基于超节点创新联合体,打造行业智
    的头像 发表于 09-29 17:06 1402次阅读

    NVIDIA DRIVE AGX Thor开发者套件重磅发布

    这款由 NVIDIA DriveOS 7 驱动的开发者套件能够帮助开发者们打造出更安全的智能汽车和交通解决方案。
    的头像 发表于 09-04 11:20 1607次阅读