12月8日智谱AI发布并开源 GLM-4.6V 系列多模态大模型,沐曦股份曦云C系列GPU完成Day 0适配。
GLM-4.6V 系列多模态大模型共包含两款模型:
GLM-4.6V(106B-A12B):面向云端与高性能集群场景的基础版;
GLM-4.6V-Flash(9B):面向本地部署与低延迟应用的轻量版。
作为 GLM 系列在多模态方向上的一次重要迭代,GLM-4.6V 将训练时上下文窗口提升到 128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。
1原生多模态工具调用
传统工具调用大多基于纯文本,在面对图像、视频、复杂文档等多模态内容时,需要多次中间转换,带来信息损失和工程复杂度。
GLM-4.6V 从设计之初就围绕「图像即参数,结果即上下文」,构建了原生多模态工具调用能力:
输入多模态:图像、截图、文档页面等可以直接作为工具参数,无需先转为文字描述再解析,减少链路损耗。
输出多模态:对于工具返回的统计图表、渲染后网页截图、检索到的商品图片等结果,模型能够再次进行视觉理解,将其纳入后续推理链路。
模型原生支持基于视觉输入的工具调用,完整打通从感知到理解到执行的闭环。这使得 GLM-4.6V 能够应对图文混排输出、商品识别与好价推荐、以及辅助型 Agent 场景等更复杂的视觉任务。
2同规模开源 SOTA
GLM-4.6V 在 MMBench、MathVista、OCRBench 等30+ 主流多模态评测基准上进行了验证,较上一代模型取得显著提升。在同等参数规模下,模型在多模态交互、逻辑推理和长上下文等关键能力上取得SOTA表现。

3MXMACA 软件栈加速国产模型落地
MXMACA 软件栈作为沐曦股份全栈 GPU 解决方案的核心,在vLLM, sglang 等主流AI推理框架中展现出快速适配的优势,其 GPU 架构和优化设计和良好的生态兼容性确保了高效、灵活的推理部署。此次沐曦股份曦云 C 系列GPU完成 Day 0 适配智谱 GLM-4.6V 系列多模态大模型再次印证了这一优势。MXMACA 软件栈将继续以开放式架构和持续迭代优化,赋能推理框架、模型、应用开发到运维的全生命周期,助力开发者构建更具竞争力的 AI 产品。
关于沐曦股份
沐曦股份致力于自主研发全栈高性能GPU芯片及计算平台,为智算、通用计算、云渲染等前沿领域提供高能效、高通用性的算力支撑,助力数字经济发展。
-
gpu
+关注
关注
28文章
5115浏览量
134540 -
沐曦
+关注
关注
1文章
59浏览量
1664 -
大模型
+关注
关注
2文章
3485浏览量
5024
原文标题:沐曦股份曦云C系列GPU Day 0适配智谱GLM-4.6V
文章出处:【微信号:沐曦MetaX,微信公众号:沐曦MetaX】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
瀚海量子与沐曦股份达成战略合作 量子计算软件领军者+高性能GPU芯片领军者
强强联合:之江实验室与沐曦股份共建智算集群联合实验室
首款全国产通用GPU芯片发布 沐曦集成推出曦云C600
沐曦GPU与龙蜥操作系统完成适配
PaddleScience完成与沐曦AI芯片适配
沐曦曦云C500通用计算GPU与百度飞桨完成Ⅱ级兼容性测试
Gitee AI 联合沐曦首发全套 DeepSeek R1 千问蒸馏模型,全免费体验!

沐曦股份曦云C系列GPU Day 0适配智谱GLM-4.6V多模态大模型
评论