近日,阿里通义正式开源多模态智能体大模型Qwen3.6-35B-A3B,发布不到24小时,海光信息联合众智FlagOS社区完成该模型在海光DCU平台的全流程适配、精度对齐与部署验证,以Day0级响应速度,为国产AI算力生态再添关键成果。
Qwen3.6-35B-A3B作为开源稀疏MoE模型(总参数35B/ 激活参数 3B),在智能体编程、多模态感知推理、长文本理解等场景表现突出,大幅超越前代模型,可与国际主流稠密模型一较高下,是代码生成、智能运维、复杂推理等企业级生产场景的优选基座。
作为众智FlagOS社区核心成员,海光DCU依托FlagOS统一开源技术栈,本次适配实现零代码修改、开箱即用、精度无损三大核心优势,开发者可直接通过以下平台获取海光DCU专属模型版本:
魔搭平台:
https://modelscope.cn/models/FlagRelease/Qwen3.6-35B-A3B-nomtp-hygon-FlagOS
HuggingFace:
https://huggingface.co/FlagRelease/Qwen3.6-35B-A3B-nomtp-hygon-FlagOS
依托vLLM-plugin-FL 统一插件、FlagGems 算子库、FlagTree 统一编译器,海光DCU无需修改原有推理代码,即可高效运行Qwen3.6-35B-A3B。权威评测数据显示,海光DCU平台在GPQA_Diamond数据集实测 达82.10、ERQA达57.14,FlagOS适配后的Qwen3.6-35B-A3B,Agentic Coding能力、复杂推理等核心能力上与CUDA原生版本高度对齐,可稳定支撑代码生成、日志分析、Bug排查、复杂文档编辑等高阶业务场景。
本次快速适配,充分验证海光DCU在MoE架构、稀疏计算、智能体大模型场景的成熟算力支撑能力,也标志着海光DCU与FlagOS协同,将大模型跨芯片适配周期从数周压缩至小时级。
FlagOS作为面向异构 AI 芯片的统一系统软件栈,相关开源组件与技术文档可访问:
·FlagOS 官网:https://flagos.io
·GitHub 开源地址:https://github.com/flagos-ai
·GitCode 开源地址:https://gitcode.com/flagos-ai
未来,海光信息将持续深化与众智 FlagOS、阿里通义等生态伙伴协同,持续完善大模型全场景适配能力,以具备性能强劲、兼容良好、安全保障的 DCU 深度计算单元,为国产 AI 大模型普惠落地、算力自主可控战略提供坚实支撑。
-
开源
+关注
关注
3文章
4329浏览量
46429 -
海光信息
+关注
关注
0文章
54浏览量
2733 -
大模型
+关注
关注
2文章
3753浏览量
5268
发布评论请先 登录
壁仞科技光速支持阿里Qwen3.6-35B-A3B大模型
海光DCU完成Qwen3.5多模态MoE模型全量适配
天数智芯完成阿里云通义千问Qwen3.5系列多模态模型全量适配
沐曦股份曦云C系列GPU全面适配通义千问Qwen3.5三款新模型
摩尔线程MTT S5000全面适配Qwen3.5三款新模型
沐曦股份曦云C系列GPU深度适配通义千问Qwen3.5模型
Qwen3-VL 4B/8B全面适配,BM1684X成边缘最佳部署平台!
Intel OpenVINO™ Day0 实现阿里通义 Qwen3 快速部署
海光信息DCU平台适配阿里通义Qwen3.6-35B-A3B大模型
评论