您好,欢迎来电子发烧友网! ,新用户?[免费注册]

您的位置:电子发烧友网>源码下载>数值算法/人工智能>

深度学习主流芯片的介绍及其优缺点的分析

大小:0.1 MB 人气: 2017-09-27 需要积分:0

  本文我们就来分析目前主流的深度学习芯片的优缺点。

  CPU 不适合深度学习

  深度学习与传统计算模式最大的区别就是不需要编程,它是从输入的大量数据中自发地总结出规律,而传统计算模式更多都需要人为提取所需解决问题的特征或者总结规律来进行编程。也正因为如此,深度学习对计算能力要求非常高,以至于有人将深度学习称之为“暴力计算”。

  因此,传统的 CPU 并不适用于深度学习。

  从内部结构上来看,CPU 中 70%晶体管都是用来构建 Cache(高速缓冲存储器)和一部分控制单元,负责逻辑运算的部分(ALU 模块)并不多。控制单元等模块的存在都是为了保证指令能够一条接一条的有序执行。

  这种通用性结构对于传统的编程计算模式非常适合,但对于并不需要太多的程序指令,却需要海量数据运算的深度学习的计算需求,这种结构就显得有心无力了。

  GPU 深度学习主流芯片

  与 CPU 少量的逻辑运算单元相比,GPU 整个就是一个庞大的计算矩阵,GPU 具有数以千计的计算核心、可实现 10-100 倍应用吞吐量,而且它还支持对深度学习至关重要的并行计算能力,可以比传统处理器更加快速,大大加快了训练过程。GPU 是目前最普遍采用的深度学习运算单元之一。

  目前,谷歌、Facebook、微软、Twitter 和百度等互联网巨头,都在使用 GPU 作为其深度学习载体,让服务器学习海量的照片、视频、声音文档,以及社交媒体上的信息,来改善搜索和自动化照片标记等各种各样的软件功能。而某些汽车制造商也在利用这项技术开发无人驾驶汽车。

  不过,由于 GPU 的设计初衷是为了应对图像处理中需要大规模并行计算。因此,根据乐晴智库介绍,其在应用于深度学习算法时有数个方面的局限性:

  第一, 应用过程中无法充分发挥并行计算优势。深度学习包含训练和应用两个计算环节,GPU 在深度学习算法训练上非常高效,但在应用时一次性只能对于一张输入图像进行处理, 并行度的优势不能完全发挥。

  第二, 硬件结构固定不具备可编程性。深度学习算法还未完全稳定,若深度学习算法发生大的变化,GPU 无法灵活的配置硬件结构。

  另外,在能耗上面,虽然 GPU 要好于 CPU,但其能耗仍旧很大。

  备受看好的 FPGA

  FPGA,即现场可编辑门阵列,是一种新型的可编程逻辑器件,由于其具有静态可重复编程和动态在系统重构的特性,使得硬件的功能可以像软件一样通过编程来修改。

  FPGA 作为人工智能深度学习方面的计算工具,主要原因就在于其本身特性:可编程专用性,高性能,低功耗。

非常好我支持^.^

(0) 0%

不好我反对

(0) 0%

      发表评论

      用户评论
      评价:好评中评差评

      发表评论,获取积分! 请遵守相关规定!