近日,深度求索正式开源全新系列模型DeepSeek-V4。瀚博半导体第一时间完成载天VA16加速卡的FP4+FP8 混合精度适配,加速大模型高并发、低成本落地。
DeepSeek-V4:百万上下文时代的开源标杆
深度求索官方宣告,“从1M上下文开始将是DeepSeek所有官方服务的标配”,大模型正式迈入百万长文本普惠时代。DeepSeek-V4 全系标配百万token上下文窗口,采用混合注意力机制,相比 DeepSeek-V3.2 大幅降低单 token 推理 FLOPs 和 KV 缓存需求。结合压缩稀疏注意力(CSA)与重度压缩注意力(HCA),显著提升长上下文处理效率,在 Agent 能力、世界知识和推理性能上均领先国内与开源模型。
在模型能力上,DeepSeek-V4-Pro性能比肩世界顶尖闭源模型。在 Agentic Coding 评测中已达到当前开源模型最佳水平;在数学、STEM、竞赛型代码的测评中,超越当前所有已公开评测的开源模型。DeepSeek-V4-Flash则由于模型参数和激活更小,提供更加快捷、经济的 API 服务,简单任务上与 Pro版 旗鼓相当。
瀚博VA16全栈支撑:
大显存+FP4/FP8混合精度
要在部署端充分释放DeepSeek-V4的上述能力,需要硬件侧的原生支持。
瀚博载天VA16配备128GB超大显存,为百万token超长上下文的KV缓存提供充裕驻留空间。同时,VA16 支持FP4和FP8数据精度格式,显著降低显存占用、提升推理吞吐。配合兼容vLLM等主流框架的全栈软件生态,以及最高2TB总显存的一体机私有化部署方案,开发者可快速实现从模型验证到业务上线。
低精度革命的开篇
此次FP4+FP8 混合精度成功适配DeepSeek-V4,是瀚博半导体在低精度大模型适配领域的里程碑。面向百万上下文普惠新时代,瀚博将持续携手产业伙伴,加速大模型应用的高效、安全、规模化落地。
-
开源
+关注
关注
3文章
4375浏览量
46477 -
模型
+关注
关注
1文章
3834浏览量
52289 -
DeepSeek
+关注
关注
2文章
857浏览量
3417
原文标题:瀚博VA16 FP4+FP8适配DeepSeek-V4,单机2TB显存支持百万上下文推理
文章出处:【微信号:瀚博半导体VastaiTech,微信公众号:瀚博半导体VastaiTech】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
燧弘华创HonMaaS平台深度适配DeepSeek-V4大模型
摩尔线程完成DeepSeek-V4全链路工程化适配:S5000基于MUSA+SGLang实现复杂MoE模型快速落地
云天励飞完成DeepSeek-V4系列模型关键机制适配验证
摩尔线程携手智源人工智能研究院Day-0适配DeepSeek-V4 Pro和Flash双模型
摩尔线程携手上海AI实验室Day-0适配DeepSeek-V4核心算子
开放原子AtomGit平台首发适配DeepSeek-V4系列模型
登临科技GPU+架构深度适配DeepSeek-V4大模型
寒武纪Day 0适配DeepSeek-V4模型
华为云首发适配DeepSeek-V4模型
沐曦股份Day 0适配DeepSeek-V4-Flash模型
壁仞科技壁砺166系列GPU产品率先支持DeepSeek-V4模型
瀚博半导体载天VA16加速卡成功适配DeepSeek-V4大模型
评论