[中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。
此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。
盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。
基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。
盘古7B相关模型权重与推理代码将于近期上线开源平台。
我们诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。请访问https://gitcode.com/ascend-tribe
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
华为
+关注
关注
218文章
36190浏览量
262681 -
人工智能
+关注
关注
1820文章
50324浏览量
266932 -
昇腾AI
+关注
关注
0文章
87浏览量
944 -
盘古大模型
+关注
关注
1文章
112浏览量
1062
原文标题:华为宣布开源盘古7B稠密和72B混合专家模型
文章出处:【微信号:huaweicorp,微信公众号:华为】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
热点推荐
沐曦股份Day 0适配阿里千问Qwen3.6-35B-A3B大模型
阿里巴巴千问模型团队最新宣布,开源旗下多模态“智能体小钢炮” Qwen3.6-35B-A3B模型。沐曦股份与FlagOS合作,完成了该模型的
壁仞科技光速支持阿里Qwen3.6-35B-A3B大模型
4月16日晚,阿里巴巴通义实验室正式宣布全量开源Qwen3.6-35B-A3B大模型。该模型为混合专家
大晓机器人开源实时生成世界模型Kairos 3.0-4B
近日,大晓机器人重磅开源开悟世界模型3.0(Kairos 3.0)-4B 系列具身原生世界模型。作为业内首个实现 “多模态理解 — 生成 — 预测” 一体化的
大模型推理服务的弹性部署与GPU调度方案
7B 模型 FP16 推理需要约 14GB 显存,70B 模型需要 140GB+,KV Cache 随并发数线性增长,显存碎片化导致实际利用率不足 60%。
基于合众恒跃rk3576 开发板deepseek-r1-1.5b/7b 部署指南
核心结论:部署流程分为 5 大核心步骤,依次为基础环境安装、模型下载、模型格式转换、部署程序编译、开发板运行测试,1.5b 模型适配 4+32G 开发板,
NVIDIA ACE现已支持开源Qwen3-8B小语言模型
为助力打造实时、动态的 NPC 游戏角色,NVIDIA ACE 现已支持开源 Qwen3-8B 小语言模型(SLM),可实现 PC 游戏中的本地部署。
如何本地部署NVIDIA Cosmos Reason-1-7B模型
近日,NVIDIA 开源其物理 AI 平台 NVIDIA Cosmos 中的关键模型——NVIDIA Cosmos Reason-1-7B。这款先进的多模态大模型能够理解视频、进行物理
华为宣布开源盘古7B稠密和72B混合专家模型
关键一步,为全球开发者、企业及研究人员提供了强大的技术支撑。 华为此次开源行动涵盖三大核心板块:盘古Pro MoE 72B模型权重与基础
带增益的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7) skyworksinc
电子发烧友网为你提供()带增益的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7
发表于 06-27 18:31
带增益的 RX 分集 FEM(B3、B39、B1、B40、B41 和 B7) skyworksinc
电子发烧友网为你提供()带增益的 RX 分集 FEM(B3、B39、B1、B40、B41 和 B7
发表于 06-19 18:30
在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型
NVIDIA 近期发布了 Cosmos Reason-1 的 7B 和 56B 两款多模态大语言模型 (MLLM),它们经过了“物理 AI 监督微调”和“物理 AI 强化学习”两个阶段的训练。其中
NVIDIA RTX 5880 Ada与Qwen3系列模型实测报告
近日,阿里巴巴通义千问团队正式推出新一代开源大语言模型——Qwen3 系列,该系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
华为正式开源盘古7B稠密和72B混合专家模型
评论