0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

芯原超低能耗NPU可为移动端大语言模型推理提供超40 TOPS算力

文传商讯 来源:文传商讯 作者:文传商讯 2025-06-11 10:47 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

芯原股份今日宣布其超低能耗且高性能的神经网络处理器(NPU)IP现已支持在移动端进行大语言模型(LLM)推理,AI算力可扩展至40 TOPS以上。该高能效NPU架构专为满足移动平台日益增长的生成式AI需求而设计,不仅能够为AI PC等终端设备提供强劲算力支持,而且能够应对智慧手机等移动终端对低能耗更为严苛的挑战。

芯原的超低能耗NPU IP具备高度可配置、可扩展的架构,支持混合精度计算、稀疏化优化和并行处理。其设计融合了高效的内存管理与稀疏感知加速技术,显著降低计算负载与延迟,确保AI处理流畅、响应迅速。该NPU支持数百种AI算法,如AI降噪(AI-NR)和AI超分(AI-SR)等,并兼容Stable Diffusion和LLaMA-7B等主流AI模型。同时,该NPU IP还可与芯原其他处理器IP无缝集成,实现异构计算,助力SoC设计者打造满足多元化应用需求的AI解决方案。

此外,芯原的超低能耗NPU IP还支持TensorFlow Lite、ONNX和PyTorch等主流AI框架,可加速客户在不同AI应用场景中的部署进程并简化集成工作。

智能手机等移动设备正逐步演变为个人AI服务器。随着生成式AI(AIGC)和多模态大语言模型技术的快速发展,市场对AI算力的需求呈指数级增长,并已成为移动产品的关键差异化要素。”芯原首席战略官、执行副总裁、IP事业部总经理戴伟进表示,“在支持高强度AI计算负载的过程中,能耗控制是最关键的挑战之一。芯原持续深耕面向智慧手机和AI PC的超低能耗的NPU研发,并通过与主流SoC合作伙伴的紧密协作,见证了该技术在新一代智慧手机和AI PC中实现量产。”

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53534

    浏览量

    459021
  • 低能耗
    +关注

    关注

    0

    文章

    27

    浏览量

    11723
  • NPU
    NPU
    +关注

    关注

    2

    文章

    358

    浏览量

    20833
  • 算力
    +关注

    关注

    2

    文章

    1385

    浏览量

    16561
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    原与谷歌联合推出开源Coral NPU IP

    原股份近日宣布与谷歌联合推出面向始终在线、超低能耗侧大语言模型应用的Coral NPU IP
    的头像 发表于 11-13 11:24 281次阅读
    <b class='flag-5'>芯</b>原与谷歌联合推出开源Coral <b class='flag-5'>NPU</b> IP

    国产AI芯片真能扛住“内卷”?海思昇腾的这波操作藏了多少细节?

    反而压到了310W。更有意思的是它的异构架构:NPU+CPU+DVPP的组合,居然能同时扛住训练和推理场景,之前做自动驾驶算法时,用它跑模型时延直接降了20%。 但疑惑也有:这种
    发表于 10-27 13:12

    米尔RK3576部署侧多模态多轮对话,6TOPS驱动30亿参数LLM

    通过硬件优化与软件栈协同,将视觉编码、语言推理、对话管理三大核心能力封装为可落地的工程方案,而本文将聚焦其多轮对话的部署全流程,拆解从模型
    发表于 09-05 17:25

    基于米尔瑞微RK3576开发板的Qwen2-VL-3B模型NPU多模态部署评测

    ,为开发者与研究者提供一份兼具实践参考与技术洞察的侧 AI 部署指南。 本文目录 一、基本介绍 侧 LLM 模型与云端 LLM 瑞
    发表于 08-29 18:08

    天玑9500 性能大爆发!NPU AI或达100TOPS

    机芯片中首发落地。而几家终端厂商今天迭代的新机也基于强做了一些AI新奇特的玩法。   据称,天玑9500搭载第九代AI处理器NPU,可提供100
    的头像 发表于 08-21 11:12 3455次阅读
    天玑9500 性能大爆发!<b class='flag-5'>NPU</b> AI<b class='flag-5'>算</b><b class='flag-5'>力</b>或达100<b class='flag-5'>TOPS</b>

    请问如何在RK3588上使用npu,用onnx模型推理

    请问如何在瑞微 RK3588上使用npu,用onnx模型推理。官网上介绍说要把ONNX模型转换成RKNN
    发表于 08-09 00:51

    科技上线赤兔推理引擎服务,创新解锁FP8大模型

    模型轻量化部署方案。用户通过远程平台预置的模型镜像与AI工具,仅需50%的GPU即可解
    的头像 发表于 07-30 21:44 722次阅读

    基于米尔瑞微RK3576开发板部署运行TinyMaix:超轻量级推理框架

    build cmake .. make ./mnist 整个流程跑完仅仅需要0.14ms可以看到soc平台强大的mbnet 是适用于移动手机设备的简单图像分类模型,不过对单片机
    发表于 07-25 16:35

    揭秘瑞协处理器,RK3576/RK3588强大搭档

    侧部署大模型提供了强有力的支持。下面,就由触觉智能从多个角度,为您解析瑞协处理器性能特性。Gongga1协处理器特性先进封装技术,打
    的头像 发表于 07-17 10:00 831次阅读
    揭秘瑞<b class='flag-5'>芯</b>微<b class='flag-5'>算</b><b class='flag-5'>力</b>协处理器,RK3576/RK3588强大<b class='flag-5'>算</b><b class='flag-5'>力</b>搭档

    超低延时重构AI推理体验!白山云发布“大模型API”产品

    优势,打造超低延时、稳定、简单易用的API接口服务,降低大模型应用成本和开发门槛,助力企业和个人用户快速开启AI创新之旅。专注边缘推理,构建“云边
    的头像 发表于 07-02 17:26 939次阅读
    <b class='flag-5'>超低</b>延时重构AI<b class='flag-5'>推理</b>体验!白山云发布“大<b class='flag-5'>模型</b>API”产品

    6TOPSNPU加持!RK3588如何重塑8K显示的边缘计算新边界

    与复杂运算。明远智睿推出的RK3588芯片,以6TOPSNPU为核心,为这一难题提供了突破性的解决方案。 从硬件架构来看,RK3588
    发表于 04-18 15:32

    迅为iTOP-RK3588S开发板/核心板瑞微RK3588S处理器6TOPS内置NPU

    能力6TOPSNPU,赋能各类AI场景。 强大的视频编解码8K编码+8K解码,持 8Kp60 H.264/H.265NVP9 视频解码,支持 8Kp30 H.264/H.265视
    发表于 04-10 11:13

    添越智创基于 RK3588 开发板部署测试 DeepSeek 模型全攻略

    顿。 四核 GPU :图形处理能力十分出色,不仅能为计算机视觉、图像生成等对图形渲染要求较高的 AI 应用提供强劲支持,还能优化开发板的显示效果,让用户交互体验更上一层楼。 6TOPS
    发表于 02-14 17:42

    新品| LLM630 Compute Kit,AI 大语言模型推理开发平台

    处理器,集成了3.2TOPs@INT8的高能效NPU提供强大的AI推理能力,能够高效执行复
    的头像 发表于 01-17 18:48 1193次阅读
    新品| LLM630 Compute Kit,AI 大<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>开发平台

    迅为瑞微RK3562开发板主频2.0内置NPU达1TOPS,核心板扩展更多功能

    。 内置独立NPU, 达 1TOPS,可用于轻量级人工智能应用。 支持几乎全格式的H.264解码,支持1080p@60fps的解码,支持4K@30fps的H.265解码,以及108
    发表于 12-24 15:07