0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AutoML模型压缩技术,利用强化学习将压缩流程自动化

DPVg_AI_era 来源:未知 作者:李倩 2018-09-24 08:44 次阅读

MIT韩松团队和Google Cloud的研究人员提出AutoML模型压缩技术,利用强化学习将压缩流程自动化,完全无需人工,而且速度更快,性能更高。

模型压缩是在计算资源有限、能耗预算紧张的移动设备上有效部署神经网络模型的关键技术。

在许多机器学习应用,例如机器人自动驾驶和广告排名等,深度神经网络经常受到延迟、电力和模型大小预算的限制。已经有许多研究提出通过压缩模型来提高神经网络的硬件效率。

模型压缩技术的核心是确定每个层的压缩策略,因为它们具有不同的冗余,这通常需要手工试验和领域专业知识来探索模型大小、速度和准确性之间的大设计空间。这个设计空间非常大,人工探索法通常是次优的,而且手动进行模型压缩非常耗时。

为此,韩松团队提出了AutoML模型压缩(AutoML for Model Compression,简称AMC),利用强化学习来提供模型压缩策略。

论文地址:

https://arxiv.org/pdf/1802.03494.pdf

负责这项研究的MIT助理教授韩松博士表示:

“算力换算法”是当今AutoML系列工作的热点话题,AMC则属于“算力换算力”:用training时候的算力换取inference时候的算力。模型在完成一次训练之后,可能要在云上或移动端部署成千上万次,所以inference的速度和功耗至关重要。

我们用AutoML做一次性投入来优化模型的硬件效率,然后在inference的时候可以得到事半功倍的效果。比如AMC将MobileNet inference时的计算量从569M MACs降低到285M MACs,在Pixel-1手机上的速度由8.1fps提高到14.6fps,仅有0.1%的top-1准确率损失。AMC采用了合适的搜索空间,对压缩策略的搜索仅需要4个GPU hours

总结来讲,AMC用“Training算力”换取“Inference算力”的同时减少的对“人力“的依赖。最后,感谢Google Cloud AI对本项目的支持。

Google Cloud 研发总监李佳也表示:“AMC是我们在模型压缩方面的一点尝试,希望有了这类的技术,让更多的mobile和计算资源有限的应用变得可能。”

“Cloud AutoML 产品设计让机器学习的过程变得更简单,让即便没有机器学习经验的人也可以享受机器学习带来的益处。尽管AutoML有很大的进步,这仍是一项相对初期的技术,还有很多方面需要提高和创新。”李佳说。

用AI做模型压缩,完全不需要人工

研究人员的目标是自动查找任意网络的压缩策略,以实现比人为设计的基于规则的模型压缩方法更好的性能。

这项工作的创新性体现在:

1、AMC提出的learning-based model compression优于传统的rule-based model compression

2、资源有限的搜索

3、用于细粒度操作的连续行动空间

4、使用很少的GPU进行快速搜索(ImageNet上1个GPU,花费4小时)

目标:自动化压缩流程,完全无需人工。利用AI进行模型压缩,自动化,速度更快,而且性能更高。

这种基于学习的压缩策略优于传统的基于规则的压缩策略,具有更高的压缩比,在更好地保持准确性的同时节省了人力。

在4×FLOP降低的情况下,我们在ImageNet上对VGG-16模型进行压缩,实现了比手工模型压缩策略高2.7%的精度。

我们将这种自动化压缩pipeline应用于MobileNet,在Android手机上测到1.81倍的推断延迟加速,在Titan XP GPU上实现了1.43倍的加速,ImageNet Top-1精度仅下降了0.1%。

AutoML模型压缩:基于学习而非规则

图1:AutoML模型压缩(AMC)引擎的概览。左边:AMC取代人工,将模型压缩过程完全自动化,同时比人类表现更好。右边:将AMC视为一个强化学习为题。

以前的研究提出了许多基于规则的模型压缩启发式方法。但是,由于深层神经网络中的层不是独立的,这些基于规则的剪枝策略并非是最优的,而且不能从一个模型转移到另一个模型。随着神经网络结构的快速发展,我们需要一种自动化的方法来压缩它们,以提高工程师的效率。

AutoML for Model Compression(AMC)利用强化学习来自动对设计空间进行采样,提高模型压缩质量。图1展示了AMC引擎的概览。在压缩网络是,ACM引擎通过基于学习的策略来自动执行这个过程,而不是依赖于基于规则的策略和工程师

我们观察到压缩模型的精度对每层的稀疏性非常敏感,需要细粒度的动作空间。因此,我们不是在一个离散的空间上搜索,而是通过DDPG agent提出连续压缩比控制策略,通过反复试验来学习:在精度损失时惩罚,在模型缩小和加速时鼓励。actor-critic的结构也有助于减少差异,促进更稳定的训练。

针对不同的场景,我们提出了两种压缩策略搜索协议:

对于latency-critical的AI应用(例如,手机APP,自动驾驶汽车和广告排名),我们建议采用资源受限的压缩(resource-constrained compression),在最大硬件资源(例如,FLOP,延迟和模型大小)下实现最佳精度);

对于quality-critical的AI应用(例如Google Photos),我们提出精度保证的压缩(accuracy-guaranteed compression),在实现最小尺寸模型的同时不损失精度。

DDPG Agent

DDPG Agent用于连续动作空间(0-1)

输入每层的状态嵌入,输出稀疏比

压缩方法研究

用于模型大小压缩的细粒度剪枝(Fine-grained Pruning)

粗粒度/通道剪枝,以加快推理速度

搜索协议

资源受限压缩,以达到理想的压缩比,同时获得尽可能高的性能。

精度保证压缩,在保持最小模型尺寸的同时,完全保持原始精度。

为了保证压缩的准确性,我们定义了一个精度和硬件资源的奖励函数。有了这个奖励函数,就能在不损害模型精度的情况下探索压缩的极限。

对于资源受限的压缩,只需使用Rerr = -Error

对于精度保证的压缩,要考虑精度和资源(如FLOPs):RFLOPs = -Error∙log(FLOPs)

实验和结果:全面超越手工调参

为了证明其广泛性和普遍适用性,我们在多个神经网络上评估AMC引擎,包括VGG,ResNet和MobileNet,我们还测试了压缩模型从分类到目标检测的泛化能力。

强化学习agent对ResNet-50的剪枝策略

ACM将模型压缩到更低密度而不损失精度(人类专家:ResNet50压缩3.4倍;AMC:ResNet50压缩5倍)

大量实验表明,AMC提供的性能优于手工调优的启发式策略。对于ResNet-50,我们将专家调优的压缩比从3.4倍提高到5倍,而没有降低精度。

AMC对MobileNet的加速

此外,我们将MobileNet的FLOP降低了2倍,达到了70.2%的Top-1最高精度,这比0.75 MobileNet的Pareto曲线要好,并且在Titan XP实现了1.53倍的加速,在一部Android手机实现1.95的加速。

AMC和人类专家对MobileNet进行压缩的精度比较和推理时间比较

结论

传统的模型压缩技术使用手工的特征,需要领域专家来探索一个大的设计空间,并在模型的大小、速度和精度之间进行权衡,但结果通常不是最优的,而且很耗费人力。

本文提出AutoML模型压缩(AMC),利用增强学习自动搜索设计空间,大大提高了模型压缩质量。我们还设计了两种新的奖励方案来执行资源受限压缩和精度保证压缩。

在Cifar和ImageNet上采用AMC方法对MobileNet、MobileNet- v2、ResNet和VGG等模型进行压缩,取得了令人信服的结果。压缩模型可以很好滴从分类任务推广到检测任务。在谷歌Pixel 1手机上,我们将MobileNet的推理速度从8.1 fps提升到16.0 fps。AMC促进了移动设备上的高效深度神经网络设计。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4572

    浏览量

    98746
  • 机器学习
    +关注

    关注

    66

    文章

    8122

    浏览量

    130557
  • 强化学习
    +关注

    关注

    4

    文章

    259

    浏览量

    11114

原文标题:AutoML自动模型压缩再升级,MIT韩松团队利用强化学习全面超越手工调参

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    腾讯 AI Lab 开源世界首款自动化模型压缩框架PocketFlow

    AI科技评论按:腾讯 AI Lab 机器学习中心今日宣布成功研发出世界上首款自动化深度学习模型压缩框架—— PocketFlow,并即将在近
    的头像 发表于 09-18 11:51 4023次阅读

    基于ARM嵌入式系统的自动化配送系统

    (回放)为核心,采用先进的数字图像压缩编/解码技术和传输技术智能图像处理与识别技术用于图像显示、调整、跟踪,根据现场环境对物体进行跟踪识
    发表于 03-21 14:28

    基于ARM嵌入式系统的自动化配送系统

    编/解码技术和传输技术智能图像处理与识别技术用于图像显示、调整、跟踪,根据现场环境对物体进行跟踪识别,对图像进行分析和处理。  1 自动化
    发表于 06-13 10:13

    反向强化学习的思路

    强化学习的另一种策略(二)
    发表于 04-03 12:10

    深度强化学习实战

    一:深度学习DeepLearning实战时间地点:1 月 15日— 1 月18 日二:深度强化学习核心技术实战时间地点: 1 月 27 日— 1 月30 日(第一天报到 授课三天;提前环境部署 电脑
    发表于 01-10 13:42

    啃论文俱乐部 | 压缩算法团队:我们是如何开展对压缩算法的学习

    近 120 条压缩算法相关内容。综述索引是一个循序渐进的过程,随着团队不断地学习进步,素材会慢慢丰富起来。最后,再基于时间轴或者思维导图之类的模型对其进行构建技术地图
    发表于 06-21 11:05

    压缩模型会加速推理吗?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 简单的 CNN 导入到 STM32L462RCT我发现压缩模型对推理时间没有影响。aiRun 程序在 8
    发表于 01-29 06:24

    首款自动化深度学习模型压缩框架——PocketFlow

    强化学习等算法以及 AI Lab 自研的 AutoML 自动超参数优化框架来根据具体性能需求,确定最优超参数取值组合。例如,对于通道剪枝算法,超参数优化组件可以自动地根据原始
    的头像 发表于 10-04 09:47 4865次阅读

    Waymo用AutoML自动生成机器学习模型

    Waymo十周年之际,发布了自动驾驶机器学习模型的构建思路,原来很多内部架构是由 AutoML 完成的。
    的头像 发表于 01-19 09:05 3069次阅读

    机器学习中的无模型强化学习算法及研究综述

    模型强化学习(Mode- based reinforcement Lear-ning)和无模型强化学习( Model- ree reirη forcement Learning)。
    发表于 04-08 11:41 11次下载
    机器<b class='flag-5'>学习</b>中的无<b class='flag-5'>模型</b><b class='flag-5'>强化学习</b>算法及研究综述

    模型化深度强化学习应用研究综述

    强化学习。无模型强仳学习方法的训练过程需要大量样本,当采样预算不足,无法收集大量样本时,很难达到预期效果。然而,模型强化学习可以充分
    发表于 04-12 11:01 9次下载
    <b class='flag-5'>模型</b>化深度<b class='flag-5'>强化学习</b>应用研究综述

    自动化学报》—多Agent深度强化学习综述

    多Agent 深度强化学习综述 来源:《自动化学报》,作者梁星星等 摘 要 近年来,深度强化学习(Deep reinforcement learning,DRL) 在诸多复杂序贯决策问题中取得巨大
    发表于 01-18 10:08 1252次阅读
    《<b class='flag-5'>自动化学</b>报》—多Agent深度<b class='flag-5'>强化学习</b>综述

    VEGA:诺亚AutoML高性能开源算法集简介

    VEGA是华为诺亚方舟实验室自研的全流程AutoML算法集合,提供架构搜索、超参优化、数据增强、模型压缩等全流程机器
    发表于 01-26 19:11 0次下载
    VEGA:诺亚<b class='flag-5'>AutoML</b>高性能开源算法集简介

    边缘AI的模型压缩技术

    模型压缩是在计算能力和内存较低的边缘设备上部署SOTA(最先进的)深度学习模型的过程,而不会影响模型在准确性、精度、召回率等方面的性能。
    的头像 发表于 05-05 09:54 590次阅读
    边缘AI的<b class='flag-5'>模型</b><b class='flag-5'>压缩</b><b class='flag-5'>技术</b>

    ICLR 2023 Spotlight|节省95%训练开销,清华黄隆波团队提出强化学习专用稀疏训练框架RLx2

    模型时代,模型压缩和加速显得尤为重要。传统监督学习可通过稀疏神经网络实现模型压缩和加速,那么同
    的头像 发表于 06-11 21:40 401次阅读
    ICLR 2023 Spotlight|节省95%训练开销,清华黄隆波团队提出<b class='flag-5'>强化学习</b>专用稀疏训练框架RLx2