0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

海光DCU率先展开文心系列模型的深度技术合作 FLOPs利用率(MFU)达47%

A面面观 2025-07-01 14:35 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

海光DCU实现文心4.5模型高效适配; FLOPs利用率突破47%。

2025年6月30日,在百度文心4.5系列大模型正式开源当日,海光信息技术股份有限公司宣布其深度计算单元(DCU)率先完成对该系列模型的深度技术适配,预训练模型FLOPs利用率(MFU)达到47%,在多个文本与多模态基准测试中取得SOTA水平。此次合作标志着国产算力基础设施与大模型技术的协同创新进入新阶段。

技术突破:异构计算架构赋能MoE模型高效训练

海光DCU基于GPGPU通用架构,通过飞桨深度学习框架对文心4.5系列模型实现全流程优化,涵盖47B/3B混合专家(MoE)模型及0.3B稠密参数模型的高效训练、推理与部署。其创新性体现在:

  • 多模态异构计算:针对MoE架构设计动态负载均衡策略,显存带宽利用率提升30%

  • 混合精度优化:采用FP8技术降低显存占用,使424B总参数量模型的训练效率接近国际一线水平

  • 生态兼容性:依托DTK软件栈实现与文心模型的无缝对接,适配周期缩短50%

行业价值:自主可控技术体系加速AI落地

此次合作验证了国产DCU在高性能计算领域的三大优势:

  1. 效能领先:47%的MFU利用率较行业平均水平提升15%以上

  2. 多模态支持:文心4.5的跨模态理解能力在DCU平台上实现无损迁移

  3. 产业链安全:从芯片、框架到模型的完整技术自主权,为金融、制造等行业提供可靠算力选择

海光DCU与文心模型的深度适配,证明了国产算力支撑前沿AI创新的能力。未来将持续优化千亿级参数模型的训练效率,推动中国智能算力生态建设。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • DCU
    DCU
    +关注

    关注

    0

    文章

    16

    浏览量

    3099
  • 海光信息
    +关注

    关注

    0

    文章

    26

    浏览量

    2563
  • 文心一言
    +关注

    关注

    0

    文章

    134

    浏览量

    2093
  • 大模型
    +关注

    关注

    2

    文章

    3444

    浏览量

    4970
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    华为发布AI容器技术Flex:ai,算力平均利用率提升30%

    决方案。   当前,AI产业正处于高速发展的黄金时期,海量算力需求如潮水般涌来。然而,算力资源利用率偏低的问题却成为了产业发展的关键桎梏。具体表现为,小模型任务常常独占整卡,导致大量资源闲置;大模型任务又因单机算力不足而难以支撑
    的头像 发表于 11-26 08:31 7150次阅读

    云天励飞与前大数据公司、勤睿达成战略合作

    近日,深圳市前大数据资源管理中心有限公司、深圳云天励飞技术股份有限公司、勤睿香港有限公司(Kyndryl)正式签署战略合作协议,围绕智算基础设施与“人工智能+”服务
    的头像 发表于 10-11 14:02 319次阅读

    TDK公司与ASICS亚瑟士展开深度技术合作

    9月13日,第20届世界田径锦标赛即将在东京盛大开幕!届时,来自全球约210个国家和地区的顶级田径运动员将围绕49个项目展开激烈角逐。这是自1991年以来,时隔34年再度在东京举办的田径盛会。
    的头像 发表于 09-10 14:56 693次阅读

    光电800G模块助力全球AI基建升级

    利用率,节省部署成本25%。 值得一提的是,睿光电通过广泛兼容的设计能力,仅2024年即推动超过50家客户完成400G向800G的平滑升级,客户留存率98%。 五、睿光电与您共创
    发表于 08-13 19:05

    宁畅与与百度心大模型展开深度技术合作

    与部署。 凭借覆盖训练、推理、微调全流程的AI 服务器产品矩阵,宁畅帮助企业在大模型时代一键打通算力与应用“任督二脉”,显著缩短模型落地周期。 在已启动的深度技术合作中,双方将基于
    的头像 发表于 07-07 16:26 656次阅读

    黑芝麻智能与心大模型技术合作升级

    近日,心大模型正式开源,黑芝麻智能即日起快速启动与心大模型技术合作
    的头像 发表于 07-04 17:24 1018次阅读
    黑芝麻智能与<b class='flag-5'>文</b>心大<b class='flag-5'>模型</b><b class='flag-5'>技术合作</b>升级

    龙芯中科与心系列模型开展深度技术合作

    ”解决方案。 强强联合!自主架构赋能大模型训练 心大模型 心4.5系列模型均使用飞桨
    的头像 发表于 07-02 16:53 1139次阅读

    兆芯率先展开心系列模型深度技术合作

    6月30日,百度正式开源心大模型4.5系列等10款模型,并实现预训练权重和推理代码的完全开源,兆芯率先
    的头像 发表于 07-01 10:49 789次阅读

    拼版怎么拼好,板厂经常说利用率太低,多收费用?

    做板的时候,板厂经常说我拼版利用率太低,要多收取费用,哪位大神知道怎么算利用率
    发表于 05-14 13:42

    mes工厂管理系统:如何让设备利用率提升50%?

    在制造业竞争日益激烈的今天,设备利用率直接决定了企业的盈利能力。许多工厂管理者都在思考同一个问题:如何在不增加设备投资的情况下,让现有产能发挥出最大价值?MES工厂管理系统正是解决这一难题的金钥匙
    的头像 发表于 05-09 15:55 505次阅读
    mes工厂管理系统:如何让设备<b class='flag-5'>利用率</b>提升50%?

    DeepSeek MoE架构下的网络负载如何优化?解锁90%网络利用率的关键策略

    、All-to-All等),网络面临高并发、低延迟、无损传输的严苛需求。然而,传统以太网的网络利用率长期徘徊在35%~40%,成为制约AI算力释放的关键瓶颈。
    的头像 发表于 04-28 12:04 693次阅读
    DeepSeek MoE架构下的网络负载如何优化?解锁90%网络<b class='flag-5'>利用率</b>的关键策略

    信息技术团队成功适配DeepSeek大模型

    方面取得了重要进展。 DeepSeek-Janus-Pro是团队近期完成适配优化的第三款DeepSeek大模型。此次适配工作的顺利完成,充分展示了
    的头像 发表于 02-08 14:10 1119次阅读

    信息技术团队完成模型DCU国产化适配

    近期,中科曙光国家先进计算产业创新中心有限公司对外发布了一则重要消息。据悉,该公司的信息技术团队已经成功完成了DeepSeek V3和R1模型
    的头像 发表于 02-06 11:37 1755次阅读

    电子发烧友荣获电子工业出版社博视点 “2024 年度卓越合作伙伴”

    近日,凭借过去一年在书籍测评活动等方面的深度合作与卓越表现,电子发烧友荣膺电子工业出版社博视点 “2024 年度卓越合作伙伴” 的殊荣,表彰电子发烧友在过去一年中与博
    发表于 01-20 15:46

    灵云AICP平台成功通过海CPU与DCU生态兼容性认证

    近日,国内领先的智能技术提供商捷通华声宣布,其自主研发的灵云AICP(全智能能力平台)已成功完成了与信息技术股份有限公司(简称“
    的头像 发表于 01-18 14:11 1947次阅读