0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

后摩漫界M30芯片成功适配DeepSeek-R1系列模型

后摩智能 来源:后摩智能 2025-02-08 10:42 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

DeepSeek开源模型的热度席卷全球,其高效性和易用性正在成为推动AI技术普惠化的重要力量。后摩智能作为国产存算一体AI芯片的领军企业,自研的后摩漫界M30芯片成功适配DeepSeek-R1-Distill-Qwen系列模型,包括1.5B、7B、14B等。这一成果不仅证明了存算一体芯片架构在大模型高效部署中的显著优势,也为端边大模型的广泛应用提供了强大的技术支撑。

DeepSeek-R1-Distill-Qwen-7B模型在M30上运行

性能数据:

· 上下文长度:8K

· 首字速度:<1s

· Decode速度:17 tokens/s

后摩智能的M30芯片专为端边部署大模型而设计,其低功耗的核心优势使其在端边应用场景中表现出色,M30芯片具备强大的物理算力,达到100~256 TOPS@INT8,同时典型功耗仅为12~35W,能够在保持高性能的同时显著降低能耗。此次适配DeepSeek-R1-Distill-Qwen系列模型的成功,进一步验证了M30芯片在处理复杂AI任务时的高效性和稳定性。随着AI技术向端侧和边缘侧的快速转移,后摩智能的存算一体技术的突破为国产AI芯片在端边大模型领域的应用树立了新的标杆,也为未来更多创新应用的落地奠定了坚实基础。

为了更好地推动端边大模型的广泛应用,后摩智能推出了基于M30芯片打造的系列产品——力谋SM30计算模组、力谋LM30智能加速卡、力谋BX30 计算盒子,以满足不同场景下的多样化需求。

力谋SM30计算模组

以力谋SM30计算模组为例,这是一款是基于M30芯片打造的智算模组(SoM),支持PCIe EP模式。该模组以其小巧的体积、强劲的性能和极低的功耗,成为小型化设备和功耗敏感嵌入式场景的理想选择。力谋SM30计算模组的物理算力为50/100 TOPS@INT8,典型功耗低于23W,支持8路FHD的编解码,并兼容PCIe 4.0接口。其低功耗和高性能的特点使其能够在资源受限的环境中高效运行,为边缘计算和端侧设备提供了强大的算力支持。

DeepSeek开源模型以其高效的推理能力和较低的部署成本,正在推动AI技术的普惠化。后摩智能自研的存算一体架构,突破了传统冯·诺依曼架构的瓶颈,将存储与计算紧密结合,大幅减少了数据传输延迟,呈现出大算力、低功耗的独特优势,显著提升了模型运行效率。通过后摩智能存算一体芯片与DeepSeek模型的架构级协同,不仅验证了国产技术栈的完整竞争力,更创造了AI普惠化的中国范式——让每瓦特算力都能承载最前沿的智能。

全球AI大模型赛道进入战略窗口期,DeepSeek通过模型创新构建轻量化智能基座,后摩智能的存算一体芯片则以物理级能效突破重构计算边界。这种从底层芯片到顶层模型的颠覆式创新,必将催生大模型落地新定律,期待国产技术组合能够“改写天命”,开辟出超越摩尔定律的进化路径。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    41156

    浏览量

    302617
  • 后摩智能
    +关注

    关注

    0

    文章

    57

    浏览量

    1752
  • DeepSeek
    +关注

    关注

    2

    文章

    839

    浏览量

    3406

原文标题:开源破局 x 低功耗守护 : Deepseek与存算一体如何演绎AI界的"哪吒闹海"?

文章出处:【微信号:后摩智能,微信公众号:后摩智能】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    百度腾讯抢滩布局!DeepSeek-R1升级和开源背后,国产AI的逆袭之路

    电子发烧友网报道(文/李弯弯)日前,DeepSeek官方宣布DeepSeek-R1模型已完成小版本试升级,当前版本为DeepSeek-R1-0528。次日,
    的头像 发表于 06-03 06:34 6383次阅读

    智能M50芯片助力联想开天X7信创笔记本成功部署OpenClaw

    近期,联想开天X7h信创笔记本在业内率先成功本地化部署OpenClaw。该成果基于智能自主研发的端侧大模型AI芯片
    的头像 发表于 03-09 14:25 563次阅读
    <b class='flag-5'>后</b><b class='flag-5'>摩</b>智能<b class='flag-5'>M</b>50<b class='flag-5'>芯片</b>助力联想开天X7信创笔记本<b class='flag-5'>成功</b>部署OpenClaw

    智能M50芯片成功部署OpenClaw

    近日,由OpenClaw(曾用名ClawdBot)引发的技术热潮持续扩散,这一现象被不少人称为AI Agent的“ChatGPT时刻”。昨日,智能一名工程师通过搭载智能
    的头像 发表于 02-02 16:31 1022次阅读

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    。我们在之前的博客[1] 中介绍了 DeepSeek-R1 模型实现超低推理延迟的关键优化措施。本文将深入探讨 TensorRT-LLM 中的 MTP 实现与优化。
    的头像 发表于 08-30 15:47 4683次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的实现与优化

    M50亮相WAIC 2025

    AI 芯片的领跑者,智能携全新发布的端边大模型 AI 芯片
    的头像 发表于 07-31 17:06 1450次阅读

    存算一体技术加持!智能 160TOPS 端边大模型AI芯片正式发布

    电子发烧友网报道(文/李弯弯)在人工智能技术飞速发展的今天,端边算力的升级已成为推动行业变革的核心动力。7月25日,WAIC 2025前夕,智能正式发布全新端边大模型AI芯片——
    的头像 发表于 07-30 07:57 8906次阅读
    存算一体技术加持!<b class='flag-5'>后</b><b class='flag-5'>摩</b>智能 160TOPS 端边大<b class='flag-5'>模型</b>AI<b class='flag-5'>芯片</b>正式发布

    智能发布全新端边大模型AI芯片

    7月25日,WAIC 2025 前夕,智能正式发布全新端边大模型 AI 芯片——
    的头像 发表于 07-26 16:09 1811次阅读

    速看!EASY-EAI教你离线部署Deepseek R1模型

    1.Deepseek简介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型DeepSeek-R1采用
    的头像 发表于 07-25 15:22 1580次阅读
    速看!EASY-EAI教你离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技术揭秘」阅读体验】--全书概览

    讲解Deepseek的使用方法 第三章 深入剖析Deepseek-V3的模型架构、训练框架、推理阶段优化、训练优化等关键技术 第四章关于Deep
    发表于 07-21 00:04

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    可能大家耳熟能详的是DeepSeek-R1,这是在网页端开启了“深度思考”模式调用的模型,如果不开,则是用的V3模型。但是,DeepSeek
    发表于 07-17 11:59

    Arm Neoverse N2平台实现DeepSeek-R1满血版部署

    颇具优势。Arm 携手合作伙伴,在 Arm Neoverse N2 平台上使用开源推理框架 llama.cpp 实现 DeepSeek-R1 满血版的部署,目前已可提供线上服务。
    的头像 发表于 07-03 14:37 1432次阅读
    Arm Neoverse N2平台实现<b class='flag-5'>DeepSeek-R1</b>满血版部署

    NVIDIA Blackwell GPU优化DeepSeek-R1性能 打破DeepSeek-R1在最小延迟场景中的性能纪录

    本文将探讨 NVIDIA TensorRT-LLM 如何基于 8 个 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延迟场景中的性能纪录:在 GTC 2025
    的头像 发表于 07-02 19:31 3563次阅读
    NVIDIA Blackwell GPU优化<b class='flag-5'>DeepSeek-R1</b>性能 打破<b class='flag-5'>DeepSeek-R1</b>在最小延迟场景中的性能纪录

    【书籍评测活动NO.62】一本书读懂 DeepSeek 全家桶核心技术:DeepSeek 核心技术揭秘

    DeepSeek-V3 的发布几乎没有预热和炒作,仅凭借其出色的效果和超低的成本迅速走红。 DeepSeek-R1 则是在 DeepSeek-V3 的基础上构建的推理模型,它在后训练
    发表于 06-09 14:38

    使用瑞萨MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大语言模型(LLM)可用于理解人类语言的交互方式,思考,并给出合适的回应。
    的头像 发表于 05-15 14:40 1149次阅读
    使用瑞萨MPU<b class='flag-5'>芯片</b>RZ/V2H部署<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>模型</b>

    智能NPU适配通义千问Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列开源混合推理模型。用时不到1天,智能自研NPU迅速实现Qwen3
    的头像 发表于 05-07 16:46 1549次阅读