0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI训练算力需求昂贵,机器学习成本成问题

如意 来源:澎湃新闻 作者:澎湃新闻 2020-07-03 12:54 次阅读

对于计算工业,其最基本的一个假设是:数字处理会变得越来越便宜。并且根据著名的摩尔定律,可以预测在给定尺寸的芯片其上面能集成的电路个数(差不多相当于算力)通常每两年会翻一番。

斯坦福人工智能研究所副所长克里斯托弗·曼宁表示,对于许多相对简单的AI应用来言,上述假设意味着训练成本的降低。但对于有些应用现在却不是这样的,特别是因为不断增加的研究复杂性和竞争性,使得最前沿模型的训练成本还在不断上升。

曼宁用BERT模型来举例,BERT是谷歌在18年提出的AI语言模型,已被用在谷歌搜索中。该模型有超过3.5亿个内部参数,而且要大量数据来进行训练,大概用了33亿个大部分来自维基百科的单词来训练。接着曼宁说,现在看来维基百科都不是个多大的数据集了。“如果能用300亿个单词训练一个系统,那它的性能肯定比用30亿个单词训练的系统要好。”但更多的数据也意味着要用更多算力进行支持。

总部位于加州的OpenAI表示,随着对机器学习兴趣的不断增加,对算力的需求从12年开始也急剧增加了。到18年,用于训练大型模型的计算机算力相比之前已增长了30万倍,并且还每三个半月翻一番(见图)。比如,为训练能在DOTA 2中击败人类的“OpenAI Five”系统,就几乎将机器学习训练扩展到了“前所未有的水平”,差不多用数千块芯片训练了十多个月。

关于所有这些训练成本的确切数字,马萨诸塞州阿默斯特大学的研究人员在19年发表的一篇论文中进行了估计,例如训练某个版本的Transformer模型可能就要花费300万美金。同时Facebook的AI负责人杰罗姆·佩森蒂表示,针对当前最大的模型进行一轮训练光是电费可能就好几百万美金。

云计算辅助

然而,对于Facebook这样19年利润就达185亿美元的公司,这点钱不算什么。但对于那些现金并不充足的公司就有点压力山大了。著名风险投资公司Andreessen Horowitz (a16z)指出,许多AI初创公司都是从云计算公司(如亚马逊和微软)来租用训练所需的算力。而因此带来的费用(有时占收入的25%或更多)也是AI初创公司投资吸引力低于老式软件公司的原因之一。3月,曼宁博士在斯坦福大学的同事们,包括著名的李飞飞,一起呼吁创建美国国家研究云计算计划,旨在帮助美国AI研究人员应对不断增长的训练费用。

对算力日益增长的需求同时也推动了芯片设计和AI专用计算设备的蓬勃发展。专用芯片的第一波浪潮是GPU的出现,其在90年代设计出来就是为了用于增强视频游戏图形处理。而非常巧的是,GPU也非常适合现在AI应用中的数学计算。

相比起GPU现在还有更专业的芯片,各个公司也正在致力于研究这些芯片。去年12月,英特尔就以20亿美元的价格收购了以色列公司Habana Labs;而成立于16年的英国公司Graphcore在2019年的估值为20亿美元;最大的GPU制造商Nvidia等公司已对其芯片进行了重新设计来适应AI的计算需求;Google内部设计了自己的“张量处理单元”(TPU)芯片;而中国科技巨头百度也已用上了自己的“昆仑”芯片。毕马威的阿方索·马龙认为,专用AI芯片的市场价值已达约100亿美元的规模,而到2025年预估能达到800亿美元。

Graphcore的创始人之一奈杰尔·图恩表示:“计算机体系结构需要适应现在训练处理数据的方式。” 对于AI运算其最基础的特征可以说就是“并行”,即将运算切分为很多小块同时进行运算。例如,Graphcore的芯片有1,200多个单独的数字运算核,能连接在一起提供更多的算力。而加州的创业公司Cerebras采取了更极端的方法,每个芯片占用了整张硅片,每张硅片上能放置40万左右个核。

除了并行,其他优化也很重要。Cerebras的创始人之一安德鲁·费尔德曼指出,AI模型花费了大量时间来进行乘零操作。而因为这些计算结果总时零,所以其实很多都是不必要的,所以Cerebras的芯片就尽量避免执行这些运算。同时,Graphcore的Toon先生说,与许多任务不同,现在AI并不需要超精确的计算。这也意味着芯片设计人员能通过减少运算所需的精度来节省能耗。(而计算精度到底能降到什么程度仍是个开放性问题。)

之后所有这些因素都能综合起来获得更大提升。Toon就认为Graphcore当前的芯片效率是GPU的10到50倍。

现在类似的创新变得越来越重要,因为对算力需求激增正赶上摩尔定律逐渐失效的时候。现在缩小芯片变得越来越困难,而且带来的收益也越来越小。去年,Nvidia的创始人黄仁勋直言不讳地说:“摩尔定律失效了”。

量子解决方案和神经形态方案

因此,现在研究人员还在寻找更多的解决方法。其中一种是量子计算,利用量子力学的反直觉特性为某些类型的计算进行大幅提速。关于机器学习的一种思考角度是将它看作是一个优化问题,而计算机试图在数百万个变量中进行权衡从而求出尽可能最小值。微软量子系统部门负责人Krysta Svore说,一种称为格罗弗算法的量子计算技术具有巨大的提速潜力。

另一种想法是从生物学中获得启发,认为当前的蛮力方法并不是唯一的方法。当Cerebras的芯片运行起来,功耗大约为15kw,足以为数十座房屋供电(相同数量GPU能耗更多)。而相比起来,人脑消耗能量就只有大概20w,只有前者的千分之一,而人脑在许多方面都比硅芯片更聪明。因此,英特尔和IBM等公司正在研究“神经形态”芯片,希望设计出更能模仿生物大脑神经元电行为的组件。

但到目前为止,这两条路都还很遥远。量子计算机在理论上相对容易理解些,但尽管有谷歌,微软和IBM等技术巨头投入数十亿美元,实际搭建却仍是个巨大挑战。而神经形态芯片虽然是用现有技术构建的,但让设计人员很气馁的是,就连神经科学家都还不怎么了解大脑究竟在做什么以及怎么做到的。

这意味着,在可预见的未来,AI研究人员将不得不继续尽可能地压榨现有计算技术性能。而Toon先生对此还是很乐观的,他认为通过更专业硬件以及调整现有软件让训练更快,也还是能带来很大收益。为了说明这个新领域的发展,他用电子游戏打了个比方:“现在我们已超越了乓(Pong),可能到了吃豆人。”

没有钱来进行训练的穷炼丹师们理所当然地希望他说的是对的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    26424

    浏览量

    264029
  • 机器学习
    +关注

    关注

    66

    文章

    8116

    浏览量

    130550
  • 算力
    +关注

    关注

    1

    文章

    657

    浏览量

    14344
收藏 人收藏

    评论

    相关推荐

    FPGA在深度学习应用中或将取代GPU

    硬件公司供货的不断增加,GPU 在深度学习中的市场需求还催生了大量公共云服务,这些服务为深度学习项目提供强大的 GPU 虚拟机。 但是显卡也受硬件和环境的限制。Larzul 解释说:“神经网络
    发表于 03-21 15:19

    大茉莉X16-P,5800M大称王称霸

    Rykj365
    发布于 :2024年01月25日 14:54:52

    强劲的AI边缘计算盒子# 边缘计算

    AI边缘计算
    成都华江信息
    发布于 :2023年11月24日 16:31:06

    【KV260视觉入门套件试用体验】Vitis AI 通过迁移学习训练自定义模型

    【Vitis AI】 Vitis AI 通过迁移学习训练自定义模型 测评计划: 一、开箱报告,KV260通过网线共享PC网络 二、Zynq超强辅助-PYNQ配置,并使用XVC(Xili
    发表于 10-16 15:03

    英码科技精彩亮相火爆的IOTE 2023,多面赋能AIoT产业发展!

    地结合业务需求生成算法,并结合国产AI边缘计算算设备进行移植优化,是解决AI产品国产化,并
    发表于 09-25 10:03

    AI智能呼叫中心

    、数据驱动决策以及人力成本节约,旨在深入剖析其核心优势和对企业的重要意义。一、自动化处理AI智能呼叫中心通过引入自然语言处理(NLP)、机器学习和自动化技术,使得呼叫中心的处理过程更加
    发表于 09-20 17:53

    机器学习和人工智能可轻松地满足存储需求

    的是,机器学习和人工智能 (AI) 可以更轻松地满足存储需求。   机器学习 与现代公司收集更多
    的头像 发表于 09-13 09:08 491次阅读

    机器学习theta是什么?机器学习tpe是什么?

    解一下theta。在机器学习中,theta通常表示模型的参数。在回归问题中,theta可能表示线性回归的斜率和截距;在分类问题中,theta可能表示多项式模型的各项系数。这些参数通常是通过训练数据自动
    的头像 发表于 08-17 16:30 1219次阅读

    机器学习算法总结 机器学习算法是什么 机器学习算法优缺点

    机器学习算法总结 机器学习算法是什么?机器学习算法优缺点?
    的头像 发表于 08-17 16:11 1069次阅读

    机器学习和深度学习的区别

    的区别。 1. 机器学习 机器学习是指通过数据使机器能够自动地学习和改进性能的算法。
    的头像 发表于 08-17 16:11 3376次阅读

    深度学习框架区分训练还是推理吗

    深度学习框架区分训练还是推理吗 深度学习框架是一个非常重要的技术,它们能够加速深度学习的开发与部署过程。在深度学习中,我们通常需要进行两个关
    的头像 发表于 08-17 16:03 1027次阅读

    如何加速深度学习AI应用

    深度学习 AI 应用是解锁生产力新时代的关键,人类的创造力能够通过机器得到提高与增强。我们致力于将大量培训数据和海量数学运算用于全面训练每个神经网络。
    发表于 08-04 11:29 407次阅读

    训练好的ai模型导入cubemx不成功怎么解决?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 08-04 09:16

    机器学习和深度学习的区别

      机器学习是一种方法,利用算法来让机器可以自我学习和适应,而且不需要明确地编程。在许多应用中,需要机器使用历史数据
    发表于 08-02 17:36 387次阅读

    什么是预训练AI模型?

    训练 AI 模型是为了完成特定任务而在大型数据集上训练的深度学习模型。这些模型既可以直接使用,也可以根据不同行业的应用需求进行自定义。
    的头像 发表于 05-25 17:10 632次阅读