0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

MIT研发“神经架构搜索”算法,将AI优化的AI设计过程加速240倍或更多

IEEE电气电子工程师 来源:YXQ 2019-04-15 16:49 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

自2017年以来,AI研究人员一直在使用AI神经网络来帮助设计更好、更快的AI神经网络。迄今为止,应用AI来实现更好的AI很多程度上是一种学术追求——主要是因为这种方法需要数万个GPU小时。

然而,下个月,麻省理工学院(MIT)的一个研究小组将展示一种所谓的“神经架构搜索”算法,该算法可以将AI优化的AI设计过程加速240倍或更多。这将使AI更快、更准确,在实际应用中达到可应用于图像识别算法和其他相关应用的程度。

MIT电子工程和计算机科学助理教授Song Han表示:“在模型大小、推理延迟、准确性和模型容量之间存在各种各样的权衡。”他补充说:“(这些)加起来就是一个巨大的设计空间。以前,人们设计了基于启发法的神经网络。神经架构搜索试图将这种劳动密集型的、基于启发法的探索转变为基于学习的、基于AI的设计空间探索。就像AI可以学习下围棋一样,AI也可以学习如何设计一个神经网络。”

就像在围棋和国际象棋中获胜的AI程序已经向这些游戏的大师们教授新策略一样,AI优化的AI设计结果为AI神经网络设计提供了新的方法。

MIT的新算法加速了其开发的AI神经网络的类型为卷积神经网络(CNN)。CNN通常是用于图像识别程序的首选神经网络。除了图像和视频领域的应用外,CNN在自然语言处理和药物发现等领域也有所应用。

MIT的Han指出,一旦他们的算法建立起最优的CNN,所得到的系统很可能将图像分类的速度提高到其他神经架构搜索构建的AI的1.8倍。

Han说,其团队能够以如此惊人的速度精确定位最优的CNN设计,得益于三个重要的想法。

首先,他们减少了运行神经架构搜索的GPU的内存负载。一个标准的神经结构搜索可以同时检查网络中神经层之间所有可能的连接。相反,Han的团队每次只在GPU的内存中保存一条路径。这个技巧可以在仅使用十分之一内存空间的情况下对参数空间进行完整的搜索,从而使他们的搜索覆盖更多的网络配置,而不会耗尽芯片上的空间。

他们的第二个锦囊妙计是从已被丢弃的神经网络搜索中删除整个路径,这显著加快了神经网络搜索的速度。(通常,神经结构搜索只丢弃单个“神经元”,删除掉所有次优的神经网络连接。)

第三个创新之处涉及使神经网络搜索意识到AI系统可能正在运行的每种类型硬件的延迟时间——无论是直接的CPU还是用于移动平台的GPU加速系统。

Han说,令人惊讶的是,关于一些类型的图像识别神经网络的传统观点是错误的。从某种意义上说,AI网络设计师在设计主要运行在GPU系统上的网络时,他们的想法仍然停留在CPU时代。

CNN在其图像识别算法中使用过滤器,这些过滤器是由3×3、5×5或7×7像素组成的正方形网格。传统上,很少使用7×7大小的过滤器,因为人们认为运行多层3×3过滤器比运行单个7×7过滤器更快。

然而,Han说,AI优化的AI使用了相当数量的7×7过滤器——Han认为,这是当今大多数AI计算中GPU占主导地位的一个原因。

“我们发现,在GPU上运行多层7×7过滤器更容易,因为GPU具有很大的并行性,”Han说。“而且调用一个大型内核调用比调用几个小型内核调用更有效。”

在谈到他们团队的算法时,Han说:“它为人类工程师设计未来的神经网络提供了良好的反馈。”然而,这并不意味着AI能够构建其自身的更强大版本。(那些担心会发生AI大灾难的人,可能无法从目前的研究中找到对其观点有利的证据。)

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    89

    文章

    38090

    浏览量

    296510
  • MIT
    MIT
    +关注

    关注

    3

    文章

    254

    浏览量

    24920

原文标题:MIT研发出一种“神经架构搜索”算法  使用AI来实现更好的AI

文章出处:【微信号:IEEE_China,微信公众号:IEEE电气电子工程师】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片到AGI芯片

    优化计算资源并有效地适应任务的复杂性。 显著特征: MoE 模型的一个显著特征是在管理大型数据集方面的灵活性较高,它能够在计算效率小幅降低的情况下,模型容量扩大上千。稀疏门控混合专家层
    发表于 09-18 15:31

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    AI芯片不仅包括深度学细AI加速器,还有另外一个主要列别:类脑芯片。类脑芯片是模拟人脑神经网络架构的芯片。它结合微电子技术和新型
    发表于 09-17 16:43

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的未来:提升算力还是智力

    本章节作者分析了下AI的未来在哪里,就目前而言有来那个两种思想:①继续增加大模型②大模型改为小模型,并将之优化使之与大模型性能不不相上下。 一、大模型是一条不可持续发展的道路 大模型的不可
    发表于 09-14 14:04

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    算法 5.2加速矩阵乘法的芯片架构 ①新的矩阵乘法器架构 ②基于RISC-V的矩阵乘法扩展指令集 ③用信息论的思想来减少AI推理计算量 三、
    发表于 09-12 17:30

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战

    ②Transformer引擎③NVLink Switch系统④机密计算⑤HBM FPGA: 架构的主要特点:可重构逻辑和路由,可以快速实现各种不同形式的神经网络加速。 ASIC: 介绍了几种ASIC
    发表于 09-12 16:07

    AI的核心操控:从算法到硬件的协同进化

           人工智能(AI)的核心操控涉及算法、算力和数据三大要素的深度融合,其技术本质是通过硬件与软件的协同优化实现对复杂任务的自主决策与执行。这一过程依赖多层技术栈的精密配合,从
    的头像 发表于 09-08 17:51 768次阅读

    【「AI芯片:科技探索与AGI愿景」阅读体验】+可期之变:从AI硬件到AI湿件

    的不同。随着AI热潮的兴起,大脑的抽象模型已被提炼成各种的AI算法,并使用半导体芯片技术加以实现。 而大脑是一个由无数神经元通过突触连接而成的复杂网络,是极其复杂和精密的。大脑在本质上
    发表于 09-06 19:12

    【「AI芯片:科技探索与AGI愿景」阅读体验】+内容总览

    ,其中第一章是概论,主要介绍大模型浪潮下AI芯片的需求与挑战。第二章和第三章分别介绍实现深度学习AI芯片的创新方法和架构。以及一些新型的算法和思路。第四章是全面介绍半导体芯产业的前沿技
    发表于 09-05 15:10

    AI 芯片浪潮下,职场晋升新契机?

    芯片设计为例,从最初的架构选型,到算法适配、性能优化,每个环节都考验着工程师的专业素养。在设计一款面向智能安防领域的 AI 芯片时,需要深入研究安防场景下图像识别
    发表于 08-19 08:58

    【书籍评测活动NO.64】AI芯片,从过去走向未来:《AI芯片:科技探索与AGI愿景》

    RISC-V架构AI加速器、量子AI芯片、光电组合AI芯片等。 随着大模型面临收益递减、资源浪费等困境,书中接着
    发表于 07-28 13:54

    Nordic收购 Neuton.AI 关于产品技术的分析

    与 Nordic 的 nRF54 系列超低功耗无线 SoC 结合,使得即使是资源极为有限的设备也能高效运行边缘 AI。Nordic 目前正在 Neuton 深度集成到自身开发生态中,未来会提供更多工具、固件
    发表于 06-28 14:18

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    。 Neuron Studio 还支持自动化调优神经网络使用的带宽及性能,在开发过程中,性能和内存占用自动优化至最佳配置。而且,开发者可以全程监控大模型演化
    发表于 04-13 19:52

    FPGA+AI王炸组合如何重塑未来世界:看看DeepSeek东方神秘力量如何预测......

    ),设计定制化的FPGA架构,以优化性能和功耗。 2.提升跨领域技能• AI知识储备:掌握深度学习算法、模型量化和优化技术,以便更好地
    发表于 03-03 11:21

    当我问DeepSeek AI爆发时代的FPGA是否重要?答案是......

    ,开发人员可以根据具体应用需求重新配置硬件逻辑。这种灵活性使得FPGA能够适应不断变化的AI算法和应用场景,而无需更换硬件。 • 定制化加速:FPGA可以根据特定的AI任务进行
    发表于 02-19 13:55

    AI赋能边缘网关:开启智能时代的新蓝海

    中,把握技术趋势、深耕应用场景的企业赢得先机。随着5G网络的普及和AI算法的持续优化AI边缘网关将在
    发表于 02-15 11:41