0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

效率网络:比现有卷积网络小84倍,比GPipe快6.1倍

智能感知与物联网技术研究所 来源:YXQ 2019-06-04 11:40 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

谷歌AI研究部门华人科学家再发论文《EfficientNet:重新思考CNN模型缩放》,模型缩放的传统做法是任意增加CNN的深度和宽度,或使用更大的输入图像分辨率进行训练,而使用EfficientNet使用一组固定额缩放系数统一缩放每个维度,超越了当先最先进图像识别网络的准确率,效率提高了10倍,而且更小。

目前提高CNN精度的方法,主要是通过任意增加CNN深度或宽度,或使用更大的输入图像分辨率进行训练和评估。

以固定的资源成本开发,然后按比例放大,以便在获得更多资源时实现更好的准确性。例如ResNet可以通过增加层数从ResNet-18扩展到ResNet-200。

再比如开源大规模神经网络模型高效训练库GPipe,通过将基线CNN扩展四倍来实现84.3% ImageNet top-1精度。

这种方法的优势在于确实可以提高精度,但劣势也很明显。这个时候往往需要进行繁琐的微调。一点点的摸黑去试、还经常的徒劳无功。这绝对不是一件能够让人身心愉快的事情,对于谷歌科学家们也一样。

这就是为什么,谷歌人工智能研究部门的科学家们正在研究一种新的“更结构化”的方式,来“扩展”卷积神经网络。他们给这个新的网络命名为:EfficientNet(效率网络)。

代码已开源,论文刚刚上线arXiv,并将在6月11日,作为poster亮相ICML 2019。

比现有卷积网络小84倍,比GPipe快6.1倍

为了理解扩展网络的效果,谷歌的科学家系统地研究了缩放模型不同维度的影响。模型缩放并确定仔细平衡网络深度后,发现只要对网络的深度、宽度和分辨率进行合理地平衡,就能带来更好的性能。基于这一观察,科学家提出了一种新的缩放方法,使用简单但高效的复合系数均匀地缩放深度、宽度和分辨率的所有尺寸。

据悉,EfficientNet-B7在ImageNet上实现了最先进精度的84.4% Top 1/97.1% Top 5,同时比最好的现有ConvNet小84倍,推理速度快6.1倍;在CIFAR-100(91.7%),Flower(98.8%)和其他3个迁移学习数据集上,也能很好地传输和实现最先进的精度。参数减少一个数量级,效率却提高了10倍(更小,更快)。

与流行的ResNet-50相比,另一款EfficientNet-B4使用了类似的FLOPS,同时将ResNet-50的最高精度从76.3%提高到82.6%。

这么优秀的成绩是如何做到的

这种复合缩放方法的第一步是执行网格搜索,在固定资源约束下找到基线网络的不同缩放维度之间的关系(例如,2倍FLOPS),这样做的目的是为了找出每个维度的适当缩放系数。然后应用这些系数,将基线网络扩展到所需的目标模型大小或算力预算。

与传统的缩放方法相比,这种复合缩放方法可以持续提高扩展模型的准确性和效率,和传统方法对比结果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型缩放的有效性,很大程度上也依赖基线网络。

为了进一步提高性能,研究团队还通过使用AutoML MNAS框架执行神经架构搜索来开发新的基线网络,该框架优化了准确性和效率(FLOPS)。

由此产生的架构使用移动倒置瓶颈卷积(MBConv),类似于MobileNetV2和MnasNet,但由于FLOP预算增加而略大。然后,通过扩展基线网络以获得一系列模型,被称为EfficientNets。

不仅局限于ImageNet

EfficientNets在ImageNet上的良好表现,让谷歌的科学家希望将其应用于更广泛的网络中,造福更多的人。

在8个广泛使用的迁移学习数据集上测试之后,EfficientNet在其中的5个网络实现了最先进的精度。例如,在参数减少21倍的情况下,实现了CIFAR-100(91.7%)和Flowers(98.8%)。

看到这样的结果,谷歌科学家预计EfficientNet可能成为未来计算机视觉任务的新基础,因此将EfficientNet开源。

华人做出了重要贡献

论文的两位作者,都和中国有关。

第一作者是谷歌的高级软件工程师Mingming Tan,北大博士,在康奈尔大学获得博士后学位。

第二作者Quoc V. Le现在是谷歌的一名软件工程师,在斯坦福获得博士学位,师从著名的人工智能领袖吴恩达。

他在越南农村长大,会英语、普通话、吴语和广东话。小时候家里连电都没有。但他住的地方附近有一个图书馆。Le在图书馆里,如饥似渴的阅读那些伟大发明,小小年纪便梦想有朝一日自己的名字,也能铭刻在人类伟大发明家名人堂上。

14岁的时候,他就幻想一个足够聪明的机器能够帮助人类。这个幻想让他走上了人工智能的道路。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6245

    浏览量

    110271
  • 卷积网络
    +关注

    关注

    0

    文章

    43

    浏览量

    3164

原文标题:谷歌出品EfficientNet:比现有卷积网络小84倍,比GPipe快6.1倍

文章出处:【微信号:tyutcsplab,微信公众号:智能感知与物联网技术研究所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    杰和 DN84 AI边缘计算盒: 工业质检的“精准”引擎

    盒,以强算力、广接口、高稳定、高安全的核心优势,直击工业质检痛点,赋能企业实现更精准、高效、可靠的质量管控。一、6TOPSNPU算力,检测效率比人工10以上人
    的头像 发表于 11-20 19:06 678次阅读
    杰和 DN<b class='flag-5'>84</b> AI边缘计算盒:  工业质检的“精准<b class='flag-5'>快</b>”引擎

    AI算法开发,SpeedDP打辅助!不止10效率

    。而那些能够带来10工作效率的AI自然能够轻松取代人类。当然这也是相对的,不是每个领域都适用,厨师再快,也无法让实物10熟;医生再优秀,也不可能让病人
    的头像 发表于 11-20 18:09 368次阅读
    AI算法开发,SpeedDP打辅助!不止10<b class='flag-5'>倍</b><b class='flag-5'>效率</b>

    一些神经网络加速器的设计优化方案

    单元的速度越快,效率越高(存储空间越小)。 2.CNN中存在数据复用 如图所示,CNN 滑动卷积: 2D 卷积核和滑动窗口内 2D ifmap 点积,每一个卷积核权重复用了
    发表于 10-31 07:14

    CNN卷积神经网络设计原理及在MCU200T上仿真测试

    CNN算法简介 我们硬件加速器的模型为Lenet-5的变型,网络粗略分共有7层,细分共有13层。包括卷积,最大池化层,激活层,扁平层,全连接层。下面是各层作用介绍: 卷积层:提取特征。“不全
    发表于 10-29 07:49

    卷积运算分析

    的数据,故设计了ConvUnit模块实现单个感受域规模的卷积运算. 卷积运算:不同于数学当中提及到的卷积概念,CNN神经网络中的卷积严格意义
    发表于 10-28 07:31

    谷歌芯片实现量子计算新突破,超算13000

    在特定任务上的运行速度传统超级计算机13000,并且这种算法可以在类似平台上得到重现。   量子比特极易受到环境干扰,导致计算错误,这成为量子计算走向实用的一大阻碍。而谷歌的Willow芯片成功实现了低于表面码阈值的量子纠
    的头像 发表于 10-27 06:51 9134次阅读

    今日看点:谷歌芯片实现量子计算经典超算13000;NFC 技术突破:读取距离从 5 毫米提升至 20 毫米

    谷歌芯片实现量子计算经典超算13000 近日,谷歌在《自然》杂志披露与Willow芯片相关的量子计算突破性研究成果。该公司称这是历史上首次证明量子计算机可以在硬件上成功运行一项可验证算法,其
    发表于 10-23 10:20 1240次阅读

    10G网速不是梦!5G-A如何“榨干”毫米波,跑出5G10的速度?

    6G网络的发展奠定了坚实基础。作为5G向6G过渡的关键技术,5G-A通过多载波聚合、毫米波扩展、时隙结构优化、1024QAM调制等创新技术,实现了网络能力的十质变,为未来智能生活和产业数字化升级提供了强大的
    的头像 发表于 09-16 16:34 996次阅读

    核心网络交换机稳定运行的关键:优施UPS电源全方位保障方案

    在当今数字化时代,核心网络交换机作为企业网络架构的中枢神经,承担着数据传输和业务流转的重要使命。一旦出现电力中断,不仅会造成业务停滞,更可能导致数据丢失等严重后果。优施UPS电源凭借其卓越性
    的头像 发表于 08-25 09:14 516次阅读
    核心<b class='flag-5'>网络</b>交换机稳定运行的关键:优<b class='flag-5'>比</b>施UPS电源全方位保障方案

    华为助力埃塞俄亚电信通信网络技术迈向新高度

    近日,埃塞俄亚领先运营商埃塞俄亚电信与华为共同宣布,在北非区域率先完成GigaAAU FDD三频Massive MIMO站点的商用部署。此次合作是双方在提升网络性能、改善用户体验方面的又一重大举措,标志着埃塞俄
    的头像 发表于 08-20 13:53 623次阅读

    30V耐压1A同步整流DCDC降压恒压充芯片IC-H4010 高效率 外围少 低功耗

    ——功耗减半!效率+3%! ❓ Q:170kHz开关频率有啥猫腻? ��A:普通1MHz方案电感大3?NO!磁芯体积反降30%; 避开AM收音频段,过EMC刷短视频还轻松! 用户
    发表于 06-03 14:14

    电源抑制

    .   输出电压误差的计算方法如同电压失衡与漂移的计算方法.外部电源的调整率会以电源抑制的形式直接转变成运算放大器网络的输出误差. 对于高质量的D/A转换器,要求开关电路及运算放大器所用的电源电压
    发表于 04-08 13:30

    如何使用MATLAB实现一维时间卷积网络

    本文对一维卷积操作进行介绍,包括一维扩展卷积和一维因果卷积,以及 MATLAB 对一维卷积的支持情况。在最后通过一个实例演示如何在 MATLAB 中将一维
    的头像 发表于 03-07 09:15 1683次阅读
    如何使用MATLAB实现一维时间<b class='flag-5'>卷积</b><b class='flag-5'>网络</b>

    BP神经网络卷积神经网络的比较

    BP神经网络卷积神经网络在多个方面存在显著差异,以下是对两者的比较: 一、结构特点 BP神经网络 : BP神经网络是一种多层的前馈神经
    的头像 发表于 02-12 15:53 1324次阅读