0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2012年以来AI算法消耗算力的情况

倩倩 来源:量子位 2020-01-18 16:42 次阅读

今天OpenAI更新了AI计算量报告,分析了自2012年以来AI算法消耗算力的情况。

根据对实际数据的拟合,OpenAI得出结论:AI计算量每年增长10倍。从AlexNet到AlphaGo Zero,最先进AI模型对计算量的需求已经增长了30万倍。

英伟达黄仁勋一直在强调摩尔定律已死,就是没死也顶不住如此爆炸式的算力需求啊。

至于为何发布AI计算量报告?OpenAI说,是为了用计算量这种可以简单量化的指标来衡量AI的发展进程,另外两个因素算法创新和数据难以估计。

每年增长10倍

OpenAI根据这些年的实际数据进行拟合,发现最先进AI模型的计算量每3.4个月翻一番,也就是每年增长10倍,比摩尔定律2年增长一倍快得多。

上图中的纵坐标单位是PetaFLOPS×天(以下简写为pfs-day),一个pfs-day是以每秒执行1015次浮点运算的速度计算一天,或者说总共执行大约1020次浮点运算。

需要注意的是,上图使用的是对数坐标,因此AlphaGoZero比AlexNet的运算量多了5个数量级。

从2012年至今,按照摩尔定律,芯片算力只增长了7倍,而在这7年间AI对算力的需求增长了30万倍。硬件厂商是否感觉压力山大?

OpenAI还分析了更早期的数据,从第一个神经网络感知器(perceptron)诞生到2012年AI技术爆发前夕的状况。

在之前的几十年中,AI计算量的增长速度基本和摩尔定律是同步的,2012年成为AI两个时期的分水岭。

(注:OpenAI原报告引用18个月作为摩尔定律的翻倍时间,之后修正为2年。)

AI硬件的4个时代

对算力的爆炸式需求也催生了专门用于AI运算的硬件,从1959年至今,AI硬件经历了4个不同的时期。

2012年之前:使用GPU进行机器学习运算并不常见,因此这部分的数据比较难准确估计。

2012年至2014年:在多个GPU上进行训练的设备并不常见,大多数使用算力为1~2 TFLOPS的1到8个GPU,计算量为0.001~0.1 pfs-day。

2014年至2016年:开始大规模使用10~100个GPU(每个5~10 TFLOPS)进行训练,总计算量为0.1-10 pfs-day。数据并行的边际效益递减,让更大的训练量受到限制。

2016年至2017年:更大的算法并行性(更大的batch size、架构搜索和专家迭代)以及专用硬件(TPU和更快的连接),极大地放宽了并行计算的限制。

未来还会高速增长吗?

OpenAI认为,我们有很多理由相信,AI计算量快速增长的需求还会继续保持下去。但是我们不必太过担心算力不够。

首先,越来越多的公司开发AI专用芯片,这些芯片会在一两年内大幅提高单位功率或单位价格的算力(FLOPS/W或FLOPS/$)。另一方面并行计算也会成为主流,没有太强的芯片还可以堆数量。

其次,并行计算也是解决大规模运算的一个有效方法,未来也会有并行算法创新,比如体系结构搜索和大规模并行SGD等。

但是,物理规律限制芯片效率,成本将限制并行计算。

如今训练一个最大模型需要的硬件购置成本高达几百万美元,不是每个企业都可以像英伟达那样,用512个V100花费10天训练一个模型的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 摩尔定律
    +关注

    关注

    4

    文章

    622

    浏览量

    78514
  • AI算法
    +关注

    关注

    0

    文章

    212

    浏览量

    12092
  • OpenAI
    +关注

    关注

    8

    文章

    738

    浏览量

    5891
收藏 人收藏

    评论

    相关推荐

    iBeLink KS MAX 10.5T大领跑KAS新领域

    有8G的显存,可以处理复杂的算法,提高挖掘稳定性。iBeLink ks max10.5T的超大特点是它的高效节能,它采用了先进的“存一体”高通量芯片,专为“大型复杂”的区的块的链
    发表于 02-20 16:11

    请问用强大的SOC来控制汽车是不是能够大幅减少MCU的使用数量?

    来自一位用户的咨询,麻烦帮忙解答,越详细越好,有图有真相,可以适当提供一些英飞凌解决方案和产品推荐。 用强大的SOC来控制汽车是不是能够大幅减少MCU的使用数量? 未来电动汽车会使用SOC来代替大量MCU?
    发表于 02-02 07:16

    大茉莉X16-P,5800M大称王称霸

    Rykj365
    发布于 :2024年01月25日 14:54:52

    [AI原生应用]2024到来?

    AI大模型
    电子发烧友网官方
    发布于 :2024年01月02日 16:43:46

    强劲的AI边缘计算盒子# 边缘计算

    AI边缘计算
    成都华江信息
    发布于 :2023年11月24日 16:31:06

    FPGA和CPU、GPU有什么区别?为什么越来越重要?

    某些场景的专用性。 图2:2010兴起以来AI模型对的要求呈现爆发式增长,速度远超摩尔定律 通用计算时代终结,数据中心走
    发表于 11-09 14:09

    单片机的电流消耗正常却没正常工作是什么情况?

    单片机的电流消耗正常却没正常工作是什么情况
    发表于 10-31 08:12

    英码科技精彩亮相火爆的IOTE 2023,多面赋能AIoT产业发展!

    地结合业务需求生成算法,并结合国产AI边缘计算算设备进行移植优化,是解决AI产品国产化,并
    发表于 09-25 10:03

    矿山安全生产:井下矿山包括哪几类矿山和各类矿山的哪些AI算法

    国内井下矿山智能化的发展情况以及AI算法在不同类别矿山中的应用情况
    的头像 发表于 09-22 20:34 275次阅读

    DSP通用算法介绍

    数字信号处理( DSP )自 1965 由 Cooley 和 Tukey 提出 DFT(离散傅里叶变换)的高效快速算法( Fourier Transform, 简称 FFT)以来,已有近 40
    发表于 09-20 07:23

    阿里平头哥发布首个 RISC-V AI 软硬全栈平台

    面向多媒体 AI 增强场景的 RISC-V 全栈软硬件平台。 该平台将 RISC-V 扩展性的新型 Vector、Matrix 及第三方硬件进行抽象,并接入 OpenCV 与 CSI-NN 等弹性
    发表于 08-26 14:14

    AI算法有哪些?

    AI算法有哪些? 随着人工智能技术的不断发展和应用,越来越多的AI算法被发明和应用于各个领域。本文将介绍一些常见难度较低但易于理解的AI
    的头像 发表于 08-24 15:40 1879次阅读

    ai算法和模型的区别

    ai算法和模型的区别 人工智能(AI)是当今最热门的技术领域之一。虽然AI被广泛应用于各种领域,但其核心是由算法和模型组成的。
    的头像 发表于 08-08 17:35 2673次阅读

    AI大模型的开源算法介绍

    AI大模型的开源算法介绍 什么是开源?简单来说就是不收取任何费用,免费提供给用户的软件或应用程序。开源是主要用于软件的术语,除了免费用户还可以对开源软件的源代码进行更改,并根据自身的使用情况进行
    的头像 发表于 08-08 17:25 1329次阅读

    S32K148如何计算微控制器最坏情况下的电流消耗

    (μA/MHz) 是什么意思吗。这是否意味着每 1Mhz IC 将消耗 719mA?(我知道我错了,如果是那样的话,电流将是巨大的!!!! ) 一般来说,我们如何计算微控制器最坏情况下的电流消耗。 #S32K148
    发表于 06-09 07:48