[中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。
此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。
盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。
基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。
盘古7B相关模型权重与推理代码将于近期上线开源平台。
我们诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。请访问https://gitcode.com/ascend-tribe
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
华为
+关注
关注
217文章
35782浏览量
260696 -
人工智能
+关注
关注
1813文章
49734浏览量
261474 -
昇腾AI
+关注
关注
0文章
87浏览量
900 -
盘古大模型
+关注
关注
1文章
112浏览量
966
原文标题:华为宣布开源盘古7B稠密和72B混合专家模型
文章出处:【微信号:huaweicorp,微信公众号:华为】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
热点推荐
NVIDIA ACE现已支持开源Qwen3-8B小语言模型
为助力打造实时、动态的 NPC 游戏角色,NVIDIA ACE 现已支持开源 Qwen3-8B 小语言模型(SLM),可实现 PC 游戏中的本地部署。
如何本地部署NVIDIA Cosmos Reason-1-7B模型
近日,NVIDIA 开源其物理 AI 平台 NVIDIA Cosmos 中的关键模型——NVIDIA Cosmos Reason-1-7B。这款先进的多模态大模型能够理解视频、进行物理
华为宣布开源盘古7B稠密和72B混合专家模型
关键一步,为全球开发者、企业及研究人员提供了强大的技术支撑。 华为此次开源行动涵盖三大核心板块:盘古Pro MoE 72B模型权重与基础
在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型
NVIDIA 近期发布了 Cosmos Reason-1 的 7B 和 56B 两款多模态大语言模型 (MLLM),它们经过了“物理 AI 监督微调”和“物理 AI 强化学习”两个阶段的训练。其中
NVIDIA RTX 5880 Ada与Qwen3系列模型实测报告
近日,阿里巴巴通义千问团队正式推出新一代开源大语言模型——Qwen3 系列,该系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
【幸狐Omni3576边缘计算套件试用体验】CPU部署DeekSeek-R1模型(1B和7B)
架构和动态计算分配技术,在保持模型性能的同时显著降低了计算资源需求。
模型特点:
参数规模灵活:提供1.5B/7B/33B等多种规格
发表于 04-21 00:39
利用英特尔OpenVINO在本地运行Qwen2.5-VL系列模型
近期阿里通义实验室在 Hugging Face 和 ModelScope 上开源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和
ATK-DLRK3588开发板deepseek-r1-1.5b/7b部署指南
的deepseek-r1 1.5b/7b原始huggingface模型在网盘,想要自己转换的可以自行下载转换模型。
4、deepseek转换rkllm
发表于 02-14 16:33
阿里云发布开源多模态推理模型QVQ-72B-Preview
近日,阿里云宣布了一项重大技术突破,正式发布了业界首个开源多模态推理模型——QVQ-72B-Preview。这一模型的问世,标志着阿里云在AI技术领域的又一次重要飞跃
图森未来发布“Ruyi”视频大模型,Ruyi-Mini-7B版本现已开源
重大献礼。 尤为值得一提的是,图森未来已经将Ruyi的Mini-7B版本正式开源,用户现在可以通过huggingface平台轻松下载并使用这一强大的工具。这一举措无疑将极大地推动视频大模型在更广泛领域的应用和发展。 “Ruyi”

华为正式开源盘古7B稠密和72B混合专家模型
评论