0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

阿里MNN支持华为NPU,优化MNN的性能和精度问题

牵手一起梦 来源:IT之家 作者:嗜橙 2019-12-23 14:04 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

今天上午据软件绿色联盟消息,阿里MNN已经接入华为 HiAI生态,正式支持华为NPU。

据了解,阿里MNN为Mobile Neural Network,是阿里巴巴淘系技术部开源的端侧推理引擎,目前已覆盖淘宝、天猫、优酷和UC等20多个手机应用,每天稳定运行超过500亿次,已经接受了两届“双11”的考验。

官方表示,当App功能日益强大时,性能和精度的矛盾就逾显尖锐;官方表示利用HiAI Foundation芯片能力开放,阿里MNN快速转化和迁移已有模型,并借助异构调度和NPU加速,大幅提升应用算力和能效比,可以优化MNN的性能和精度问题。比如会加快以图搜图的搜索速度,耗电方面也会降低;此外,扫商家Logo也是运用了此功能。

责任编辑:gt

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 华为
    +关注

    关注

    217

    文章

    35783

    浏览量

    260717
  • 阿里
    +关注

    关注

    6

    文章

    462

    浏览量

    34026
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何利用NPU与模型压缩技术优化边缘AI

    随着人工智能模型从设计阶段走向实际部署,工程师面临着双重挑战:在计算能力和内存受限的嵌入式设备上实现实时性能。神经处理单元(NPU)作为强大的硬件解决方案,擅长处理 AI 模型密集的计算需求。然而
    的头像 发表于 11-07 15:26 1035次阅读
    如何利用<b class='flag-5'>NPU</b>与模型压缩技术<b class='flag-5'>优化</b>边缘AI

    实战RK3568性能调优:如何利用迅为资料压榨NPU潜能-在Android系统中使用NPU

    《实战RK3568性能调优:如何利用迅为资料压榨NPU潜能-在Android系统中使用NPU
    的头像 发表于 11-07 13:42 221次阅读
    实战RK3568<b class='flag-5'>性能</b>调优:如何利用迅为资料压榨<b class='flag-5'>NPU</b>潜能-在Android系统中使用<b class='flag-5'>NPU</b>

    开源鸿蒙MNN AI应用开发与MNN移植经验

    本期内容由AI Model SIG提供,介绍了在开源鸿蒙中,利用MNN开源框架开发AI应用以及基于MNN源码编译与Har包封装的方法。
    的头像 发表于 09-04 11:31 3637次阅读
    开源鸿蒙<b class='flag-5'>MNN</b> AI应用开发与<b class='flag-5'>MNN</b>移植经验

    基于米尔瑞芯微RK3576开发板的Qwen2-VL-3B模型NPU多模态部署评测

    RKLLM-Toolkit),支持 Hugging Face 格式模型的量化(如 w4a16、w8a8)和优化,适配 RK3588、RK3576 等高性能 NPU 芯片,通过降低模型
    发表于 08-29 18:08

    无法在NPU上推理OpenVINO™优化的 TinyLlama 模型怎么解决?

    NPU 上推断 OpenVINO™优化的 TinyLlama 模型。 遇到的错误: get_shape was called on a descriptor::Tensor with dynamic shape
    发表于 07-11 06:58

    芯原超低能耗NPU可为移动端大语言模型推理提供超40 TOPS算力

    AI需求而设计,不仅能够为AI PC等终端设备提供强劲算力支持,而且能够应对智慧手机等移动终端对低能耗更为严苛的挑战。 芯原的超低能耗NPU IP具备高度可配置、可扩展的架构,支持混合精度
    的头像 发表于 06-11 10:47 635次阅读

    瑞芯微NPU使用攻略

    核心要点:定义与功能硬件加速单元:RKNPU是集成在瑞芯微芯片中的专用NPU,专注于加速深度学习算法,如图像识别、目标检测、语音处理等,同时优化功耗与性能平衡。支
    的头像 发表于 05-21 15:50 2315次阅读
    瑞芯微<b class='flag-5'>NPU</b>使用攻略

    HarmonyOS优化应用内存占用问题性能优化

    应用开发过程中注重内存管理,积极采取措施来减少内存占用,以优化应用程序的性能和用户体验。 HarmonyOS提供了一些内存管理的工具和接口,帮助开发者有效地管理内存资源: onMemoryLevel接口
    发表于 05-21 11:27

    Arm CPU适配通义千问Qwen3系列模型

    阿里巴巴开源的轻量级深度学习框架 MNN 已深度集成。得益于此,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三款模型能够在搭载 Arm 架构 CPU 的移动设备上无缝运行,为用户提供卓越的端侧 AI 推理能力。
    的头像 发表于 05-12 16:37 1098次阅读

    超越CPU/GPU:NPU如何让AI“轻装上阵”?

    和计算速度上更具优势,尤其适合移动设备、边缘计算和嵌入式AI场景。   NPU有几大核心特点:其一是专用架构,针对神经网络计算优化支持并行处理大量矩阵运算(如INT8/FP16低精度
    的头像 发表于 04-18 00:05 3281次阅读

    Arm与阿里巴巴合作加速端侧多模态AI体验

    Arm 控股有限公司(纳斯达克股票代码:ARM,以下简称“Arm”)近日发布与阿里巴巴淘天集团轻量级深度学习框架 MNN 的又一新合作。
    的头像 发表于 03-10 09:07 1025次阅读

    安谋科技“周易”NPU成功部署DeepSeek-R1

    近日,安谋科技宣布其最新一代“周易”NPU处理器硬件平台已成功运行DeepSeek-R1系列模型,实现了软硬件协同优化的卓越性能与成本效益。这一突破性进展为用户带来了更加高效、便捷的AI
    的头像 发表于 02-19 10:30 993次阅读

    MPLS网络性能优化技巧

    MPLS(多协议标签交换)网络性能优化是一个复杂的过程,涉及多个方面的技术和策略。以下是一些关键的MPLS网络性能优化技巧: 一、确保网络设备支持
    的头像 发表于 02-14 17:09 1487次阅读

    软硬协同优化,安谋科技新一代“周易”NPU实现DeepSeek-R1端侧高效部署

    优化的架构设计,其beta版本在2024年底已面向早期用户开放评估测试,并获得了广泛认可与积极反馈。 预计今年上半年,这款备受期待的 NPU 产品将正式亮相市场,届时将为更多用户带来突破性的端侧算力体验。 DeepSeek自发布以来,凭借其出色的
    发表于 02-14 10:52 297次阅读
    软硬协同<b class='flag-5'>优化</b>,安谋科技新一代“周易”<b class='flag-5'>NPU</b>实现DeepSeek-R1端侧高效部署

    华为云 X 实例 CPU 性能测试详解与优化策略

    分析   3.2 CPU性能瓶颈分析   4. CPU性能优化策略   4.1 优化CPU性能的常用方法   4.2 操作系统内核调优  
    的头像 发表于 12-30 14:52 1182次阅读
    <b class='flag-5'>华为</b>云 X 实例 CPU <b class='flag-5'>性能</b>测试详解与<b class='flag-5'>优化</b>策略