0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

边缘AI的模型压缩技术

星星科技指导员 来源:embedded 作者:Rakesh R. Nakod 2023-05-05 09:54 次阅读

深度学习在模型及其数据集方面正以惊人的速度增长。在应用方面,深度学习市场以图像识别为主,其次是光学字符识别,以及面部和物体识别。根据 Allied 市场研究,6 年全球深度学习市场价值为 85.2020 亿美元,预计到 179 年将达到 96.2030 亿美元,39 年至 2 年的复合年增长率为 2021.2030%。

在某个时间点,人们认为大型和复杂的模型表现更好,但现在它几乎是一个神话。随着边缘AI的发展,越来越多的技术将大型复杂模型转换为可以在边缘上运行的简单模型,所有这些技术结合起来执行模型压缩。

什么是模型压缩?

模型压缩是在计算能力和内存较低的边缘设备上部署SOTA(最先进的)深度学习模型的过程,而不会影响模型在准确性、精度、召回率等方面的性能。模型压缩大致减少了模型中的两件事,即大小和延迟。减小大小的重点是通过减少模型参数来简化模型,从而降低执行中的 RAM 要求和内存中的存储要求。延迟减少是指减少模型进行预测或推断结果所花费的时间。模型大小和延迟通常同时存在,大多数技术都会减少两者。

流行的模型压缩技术

修剪:

修剪是最流行的模型压缩技术,它通过删除冗余和无关紧要的参数来工作。神经网络中的这些参数可以是连接器、神经元、通道,甚至是层。它很受欢迎,因为它同时减小了模型的大小并改善了延迟。

poYBAGRUYc-ASdtTAAGyRWCNOCM104.png

修剪

修剪可以在训练模型时或训练后完成。有不同类型的修剪技术,即权重/连接修剪、神经元修剪、过滤器修剪和层修剪。

量化:

当我们删除神经元、连接、过滤器、层等时。在修剪以减少加权参数的数量时,权重的大小在量化期间减小。在此过程中,大型集中的值将映射到较小集中的值。与输入网络相比,输出网络的值范围较窄,但保留了大部分信息。有关此方法的更多详细信息,您可以在此处阅读我们关于模型量化的深入文章。

知识蒸馏:

在知识蒸馏过程中,在一个非常大的数据集上训练一个复杂而庞大的模型。微调大型模型后,它可以很好地处理看不见的数据。一旦获得,这些知识就会转移到较小的神经网络或模型中。同时使用教师网络(较大的模型)和学生网络(较小的模型)。这里存在两个方面,知识蒸馏,我们不调整教师模型,而在迁移学习中,我们使用精确的模型和权重,在一定程度上改变模型,并根据相关任务进行调整。

pYYBAGRUYdKAYjRlAAB9KqZ6mTk314.png

知识蒸馏系统

知识、蒸馏算法和师生架构模型是典型知识蒸馏系统的三个主要部分,如上图所示。

低矩阵分解:

矩阵构成了大多数深度神经结构的大部分。该技术旨在通过应用矩阵或张量分解并将它们制成更小的矩阵来识别冗余参数。这种技术应用于密集的DNN(深度神经网络)时,降低了CNN(卷积神经网络)层的存储要求和分解,并缩短了推理时间。具有二维且秩为 r 的权重矩阵 A 可以分解为更小的矩阵,如下所示。

pYYBAGRUYdWAebceAABJ-BdhGHg656.png

低矩阵分解

模型的准确性和性能在很大程度上取决于适当的分解和秩选择。低秩分解过程中的主要挑战是更难实现,并且是计算密集型的。总体而言,与全秩矩阵表示相比,密集层矩阵的因式分解可产生更小的模型和更快的性能。

由于边缘人工智能,模型压缩策略变得非常重要。这些方法是相互补充的,可以在整个 AI 管道的各个阶段使用。像TensorFlow和Pytorch这样的流行框架现在包括修剪和量化等技术。最终,该领域使用的技术数量将会增加。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • RAM
    RAM
    +关注

    关注

    7

    文章

    1322

    浏览量

    113716
  • 人工智能
    +关注

    关注

    1776

    文章

    43920

    浏览量

    230650
  • 深度学习
    +关注

    关注

    73

    文章

    5240

    浏览量

    119936
收藏 人收藏

    评论

    相关推荐

    模型压缩技术,加速AI模型在终端侧的应用

    电子发烧友网报道(文/李弯弯)当前,全球众多科技企业都在积极研究AI模型,然而因为参数规模太大,要想实现AI模型在边/端侧部署,需要用到模型
    的头像 发表于 04-24 01:26 2028次阅读

    边缘AI应用越来越普遍,AI模型边缘端如何部署?

    电子发烧友网报道(文/李弯弯)在人工智能时代,越来越多的AI应用需要从云端扩展到边缘端,比如智能耳机、智能摄像机、智能手环、物流机器人等,在边缘端部署AI已经成为趋势。如今
    的头像 发表于 07-04 00:11 1951次阅读
    <b class='flag-5'>边缘</b><b class='flag-5'>AI</b>应用越来越普遍,<b class='flag-5'>AI</b><b class='flag-5'>模型</b>在<b class='flag-5'>边缘</b>端如何部署?

    AI边缘计算机应用场景广泛!大语言模型与数字人结合方案在边缘侧落地

    电子发烧友网报道(文/李弯弯)AI边缘计算机是一种人工智能和边缘计算技术相结合的计算机设备。它可以在本地设备上运行AI
    的头像 发表于 01-16 01:11 1671次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>边缘</b>计算机应用场景广泛!大语言<b class='flag-5'>模型</b>与数字人结合方案在<b class='flag-5'>边缘</b>侧落地

    NanoEdge AI技术原理、应用场景及优势

    能耗并提高数据安全性。本文将对 NanoEdge AI技术原理、应用场景以及优势进行综述。 1、技术原理 NanoEdge AI 的核心技术
    发表于 03-12 08:09

    cubemx ai导入onnx模型压缩失败了怎么解决?

    cubemx ai导入onnx模型压缩失败。请问我怎么解决
    发表于 03-19 07:58

    硬件帮助将AI移动到边缘

    虽然人工智能和机器学习计算通常在数据中心中大规模地执行,但是最新的处理设备使得能够将AI / ML能力嵌入到网络边缘的IoT设备中。边缘AI可以快速响应,无需等待云的响应。如果可以在
    发表于 05-29 10:38

    基于SOC架构的高清视频压缩技术

    基于AI算法的视频压缩技术,在高清化视频监控日益增长的现在,运用压缩技术减小存储空间,10倍高比例压缩
    发表于 02-20 10:39

    EdgeBoard FZ5 边缘AI计算盒及计算卡

    科技携手百度,推出系列高性能及高性价比EdgeBoard 边缘AI计算卡/计算盒,助力AI项目落地。可灵活适配海量的且不断迭代的AI模型,并
    发表于 08-31 14:12

    【HarmonyOS HiSpark AI Camera】边缘计算安全监控系统

    项目名称:边缘计算安全监控系统试用计划:理由:本人热爱嵌入式技术,希望通过嵌入式智能技术改善人们生活。希望基于鸿蒙系和linux统构建一个边缘计算的智能监控平台,来保证工厂运行的安全。
    发表于 09-25 10:11

    网络边缘实施AI的原因

    AI推向边缘的影响通过在边缘运行ML模型可以使哪些具体的AI项目更容易运行?
    发表于 02-23 06:21

    嵌入式边缘AI应用开发指南

    如果在没有嵌入式处理器供应商提供的合适工具和软件的支持下,既想设计高能效的边缘人工智能(AI)系统,同时又要加快产品上市时间,这项工作难免会冗长乏味。面临的一系列挑战包括选择恰当的深度学习模型
    发表于 11-03 06:53

    压缩模型会加速推理吗?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 将简单的 CNN 导入到 STM32L462RCT我发现压缩模型对推理时间没有影响。aiRun 程序在 8
    发表于 01-29 06:24

    ST MCU边缘AI开发者云 - STM32Cube.AI

    意法半导体(ST)为嵌入式AI开发人员和数据科学家扩展了面向嵌入式AI开发人员和数据科学家的解决方案,推出了一套业界首创的全新工具和服务,通过辅助硬件和软件决策,将边缘AI
    发表于 02-02 09:52

    训练好的ai模型导入cubemx不成功怎么解决?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 08-04 09:16

    边缘AI模型压缩技术

    在某个时间点,人们认为大型和复杂的模型表现更好,但现在它几乎是一个神话。随着边缘AI的发展,越来越多的技术将大型复杂模型转换为可以在
    的头像 发表于 10-19 14:22 820次阅读
    <b class='flag-5'>边缘</b><b class='flag-5'>AI</b>的<b class='flag-5'>模型</b><b class='flag-5'>压缩</b><b class='flag-5'>技术</b>