0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

浅析人工智能芯片概况及发展阶段

454398 来源:《微纳电子与智能制造》 作者:《微纳电子与智能 2020-12-26 10:22 次阅读

作者 | 清华大学微电子学研究所尹首一

来源 | 《微纳电子与智能制造》期刊

人 工 智 能( aritificial intelligence ,AI )是 一 门融合了数学 、计算机科学 、统计学 、脑神经学和社会科学 的前沿综合性技术。它的目标是希望计算机可以像 人一样思考 ,替代人类完成识别 、分类和决策等多种 功能。在 2016 年 AlphaGo 击败李世石赢得人机围棋 大战后 ,人工智能引发了全球热潮。与此同时 , Google、FaceBook、Amazon、Intel等巨头纷纷成立AI团队 ,促进人工智能技术的进一步发展。

在国内 ,国务院发布了人工智能发展规划 ,从国家层面对人工智能加以支持[1] ,各类互联网公司和初创公司纷纷投入到人工智能产业。今天,海量数据的形成 、深度学习算法的革新 、硬件技术的变革、互联网生态的完善助力人工智能产业呈现爆发式发展 ,而其中以核心人工智能芯片为基础的强大计算力发挥着至关重要的作用[2] 。

一、人工智能芯片概况

当前人工智能的主流技术深度神经网络概念早在20世纪40年代就已经被提出,然而几经起落,甚 至被 90 年代中期出现的支持向量机所全面压制。主 要原因就是当时没有可以用于大规模并行计算的诸 如图形处理器(graphics processing unit,GPU)等芯片的硬件条件 ,神经网络的训练仍然耗时太久 ,训练成本过于高昂。随着摩尔定律的不断演进发展 ,高性能芯片大幅降低了深度学习算法所需的计算时间和成本 ,人工智能技术终于在语音识别计算机视觉等领域取得了重大突破。

然而 ,深度神经网络的计算量在不断膨胀 ,读写的数据量日趋庞大,网络结构也越来越多样化,这就要求作为硬件基础的人工智能 芯片必须不断进行相应的发展,以应对性能、功耗、灵活性这 3 个方面的挑战 。

当前实现人工智能计算的技术路线可概括为 3 类:第 1 类是基于冯 · 诺依曼体系结构的通用处理器 ,诸如大家所知的CPU 、GPU 、DSP 等都属于这一 类型。它以算术逻辑单元为计算核心 ,由于其通用性需要应对包括分支跳转、中断等复杂的指令处 理 ,需要消耗很多片上资源。

因此 CPU 的并行计算处理能力并不高,此外处理器本身频繁的读取操作会带来大量的访存功耗问题;第 2 类则是专用集成 电路(application specific integrated circuit,ASIC)。它针对特定的计算网络结构采用了硬件电路实现 的方式,能够在很低的功耗下实现非常高的能效比。

在网络模型算法和应用需求固定的情况下, ASIC 是一个不错的选择。但 ASIC 本身研发的周期 很长 ,通常在 1~2 年 ,这就使得 ASIC 本身存在对算 法迭代跟进的风险性问题;第 3 类是基于可重构架 构实现的处理器 ,该技术是将计算部分设计为可配 置的处理单元 ,并且通过相应的配置信息来改变存储器与处理单元之间的连接 ,从而达到硬件结构的 动态配置目标。

深度神经网络因为计算量大 、数据量大 、结构特点多样 ,基于冯 · 诺依曼结构的通用处理器以及专用处理器很难在这样的算法上同时展 现出灵活性和高能效 ,可重构处理器在通用处理器 和专用处理器之间做了一定的折中和权衡 ,可以兼顾智能应用算法中的高性能 、低功耗 、高灵活度的特点。

二、人工智能芯片发展阶段

近几年来,人工智能技术的热潮如火如荼,随着人工智能产品的大规模落地应用 ,面向不同场景的各类算法纷纷涌现 ,计算数据呈爆炸式增长 ,芯片作为人工智能技术的硬件基础和产业落地的必然载体 ,吸引了众多巨头和初创公司纷纷入局 ,各类人工 智能芯片陆续面世。针对不同应用场景 ,不同芯片的处理速度 、能耗 、支持的算法也各有优势。根据人工智能产业的发展状况和技术成熟度划分 ,可以分 为4个阶段[3] 。

2.1 人工智能芯片初级阶段

第一个阶段 ,人工智能芯片从 2016 年开始爆发 ,到目前在架构设计上已经比较稳定 ,相关的编译器 的技术越来越成熟 ,整个产业格局基本成型。可以说 ,目前的人工智能芯片软硬件技术已经为大规模 商用做好了准备。这类芯片主要采用现有的以 CPU 、GPU 、DSP 、FPGA 为代表的传统芯片架构来运 行深度学习算法,主要部署在云端。

在云端训练环节 ,深度神经网络的计算量极大 , 而且数据和运算是可以高度并行的,GPU具备进行 海量数据并行运算的能力 ,并且为浮点矢量运算配 备了大量计算资源,与深度学习的需求不谋而合,成 为云端训练的主力芯片,以70%以上的市场占有率 傲视群雄。但由于 GPU 不能支持复杂程序逻辑控 制 ,仍然需要使用高性能 CPU 配合来构成完整的计算系统 。

在云端推理环节 ,计算量相比训练环节少 ,但仍 然涉及大量的矩阵运算。虽然 GPU 仍有应用 ,但并 不是最优选择 ,更多的是采用异构计算架构来完成 云端推理任务。FPGA 提高了芯片应用的灵活性和 可编程性 ,与 GPU 相比具备更强的计算能力和更低 的功耗 ,在云端加速领域优势明显。在产业应用没 有大规模兴起之时 ,使用这类已有的通用芯片可以 避免专门研发 ASIC 的高投入和高风险 ,但是 ,由于 这类通用芯片的设计初衷并非专门针对深度学习任 务,因而天然存在性能、功耗等方面的瓶颈,随着人 工智能应用规模的扩大,这类问题日益突出[4] 。

2.2 人工智能芯片发展阶段

新的计算模式往往会催生出新的专用计算芯片 ,面对人工智能时代对算力的强大需求 ,学术界和 产 业 界 纷 纷 提 出 了 自 己 的 解 决 方 案 ,谷 歌 (Google)的TPU、麻省理工学院(MIT)的Eyeriss、韩 国科学技术院(KAIST)的 UNPU 和寒武纪的 1A 则 是其中具有代表性的芯片 ,这类芯片在大规模量产 的情况下具备性能更强 、体积更小 、功耗更低 、成本 更低等优点。目前一部分通过采用语音识别 、图像识别 、自动驾驶等算法切入人工智能领域的公司 , 也希望通过打造匹配算法的定制芯片和产品来实现 盈利。

当前深度学习部署呈现出从云到端,赋能边缘的趋势 ,但应用于云端的人工智能芯片普遍存在功 耗高 、实时性低 、带宽不足 、数据传输延迟等问题,难以满足边缘计算的需求。在边缘端进行推理的应用场景较之云端更为多样化,智能手机、可穿戴设备、ADAS、智能摄像头、语音交互、VR/AR 、智能制造等 边缘智能设备需求各异 ,需要更为定制化、低功耗、 低成本的嵌入式解决方案 ,这就给了初创公司更多机会 ,针对不同的细分市场来设计差异化产品。就未来整体市场规模来说 ,边缘计算芯片在智能终端的带动下将是云端数据中心芯片市场的 5 倍以上。

未来几年 ,我们应该可以看到“无芯片不 AI”的景象 , 随着人工智能应用场景的逐渐落地 ,底层技术和硬件方向也更加清晰 ,随之而来的是各类芯片公司的 白热化竞争[5] 。

2.3 人工智能芯片进阶阶段

在这一阶段 ,随着深度学习算法的不断演进 ,当 前的芯片架构难以满足越来越高的算力支持 、越来 越低的功耗需求和层出不穷的各类算法 ,架构创新 是人工智能芯片的必由之路 ,而可重构计算架构则 是其中最具代表性的技术之一。可重构计算架构是 一种介于通用处理芯片和专用集成电路之间的 、利 用可配置的硬件资源 ,根据不同的应用需求灵活重 构自身的新型体系结构 ,同时具备通用计算芯片兼 容性和专用集成电路高效性的优点 ,被《国际半导体 技术路线图》(2015 版)评为“后摩尔”时代最具发展 前景的未来通用计算架构技术。

该技术也被美国国防部推动的“ 电子复兴计划 ”( ERI )列 为 未 来 芯 片 的 核心支柱性体系结构技术之一。可重构计算架构天 然契合各类人工智能算法对专用计算芯片的需求, 同时也能保证算法和硬件的持续演进性 ,非常适合 应用于人工智能芯片的设计当中。采用可重构计算架构之后 ,软件定义的层面不仅仅局限于功能这一层面 ,算法的计算精度 、性能和能效等都可以纳入软 件定义的范畴。可重构计算技术借助自身实时动态配置的特点 ,实现软硬件协同设计 ,为人工智能芯片 带来了极高的灵活度和适用范围 。

美国 Wave Computing 公司推出的 DPU 芯片[6]和清华大学微电子学研究所设计的 Thinker 系列芯片[7] 是采用可重构计算架构的代表性工作 ,相比传统架 构 ,它们具备较强的灵活性和计算能效,同时也具备处理器的通用性和ASIC的高性能和低能耗。

2.4 人工智能芯片未来阶段

断给人工智能芯片提出新的要求 ,加上底层半导体技术的进步 ,我们可以期待在 3~5 年内看到第二次 人工智能芯片技术创新的高潮 ,诸如存内计算芯片 、 类脑仿生芯片 、光子芯片等前沿技术将会从实验室 走向产业应用[8] 。在更远的未来 ,随着算法演进 ,应用落地 ,会不

现有的人工智能芯片主要采用“存、算分离”的计算架构 ,即内存访问和计算是分开的 ,而神经网络 同时具有计算密集和访存密集的特点 ,内存访问的功耗和延迟等问题突出 ,因此内存成为了处理器性能和功耗的瓶颈。为了解决“存储墙”问题 ,不少学者提出了存内计算的概念,在内存内直接采用模拟电路实现模拟计算 ,从而不再需要在处理器和内存之间耗费大量时间和能量移动数据。相比传统的数字电路人工智能芯片 ,使用存内计算加模拟计算的电路能效比将大幅提高 。

美国的脑计划 、欧洲的人脑项目 ,以及最近中国提出的类脑计算计划等。受到脑结构研究的成果启发 , 复杂神经网络在计算上具有低功耗 、低延迟 、高速处 理以及时空联合等特点[9] 。脑仿生芯片的主流理念是采用神经拟态工程 设计的神经拟态芯片。神经拟态芯片采用电子技术 模拟已经被证明的生物脑的运作规则 ,从而构建类 似于生物脑的电子芯片。神经拟态研究陆续在全世界范围内开展 ,并且受到了各国政府的重视和支持,

硅光子技术目前在数据中心和 5G 的高速数据传输中获得了越来越多的应用。除此之外 ,硅光子 还可以用来以超低功耗直接加速深度学习计算 ,把深度学习的两个输入调制到两束光上面 ,然后让两 束光在光子芯片的器件上完成 SVD 分解和干涉相乘 ,最后再把光信号转化为数字信号读出结果。最后,这些光器件都可以集成到同一块硅光子芯片上 , 从而实现高性能光计算模组。

三、人工智能芯片未来趋势

目前全球人工智能产业还处在高速变化发展 中 ,广泛的行业分布为人工智能的应用提供了广阔的市场前景 ,快速迭代的算法推动人工智能技术快 速走向商用 ,人工智能芯片是算法实现的硬件基础 , 也是未来人工智能时代的战略制高点 ,但由于目前 的 AI 算法往往都各具优劣,只有给它们设定一个合 适的场景才能最好地发挥它们的作用,因此 ,确定应用领域就成为发展人工智能芯片的重要前提。但遗憾的是 ,当前尚不存在适应多种应用的通用算法 ,因此哪家芯片公司能够抓住市场痛点 ,最先实现应用落地 ,就可以在人工智能芯片的赛道上取得较大优势。

架构创新是人工智能芯片面临的一个不可回避的课题。从芯片发展的大趋势来看 ,现在还是人工智能芯片的初级阶段。无论是科研还是产业应用都 有巨大的创新空间。从确定算法 、应用场景的人工 智能加速芯片向具备更高灵活性、适应性的通用智 能芯片发展是技术发展的必然方向 ,弱监督 、自我监督 、多任务学习 、对大型神经网络表现更好的智慧型 芯片将成为学术界和产业界研究的重要目标。计算 架构的高度并行和动态可变性 ,适应算法演进和应 用多样性的可编程性 ,更高效的大卷积解构与复用 , 更少的神经网络参数计算位宽 ,更多样的分布式存储器定制设计 ,更稀疏的大规模向量实现 ,复杂异构环境下更高的计算效率 ,更小的体积和更高的能量效率 ,计算和存储一体化将成为未来人工智能芯片的主要特征[10]。

站在 2019 年的起点 ,人工智能芯片的架构创新除了关注神经网络计算 ,更要关注全芯片的架构创 新。以安防智能芯片为例 ,这是一个典型的系统级问题,除了需要解决神经网络加速问题 ,还需要处理曝光 、白平衡 、视频编解码等 ,并不仅仅是做好一个 神经网络加速器就能解决的问题。除了神经网络计 算还需要很多计算密集型的模块 ,这些模块采用什么计算架构,也是整个智能芯片的核心问题。因此,人工智能芯片的架构创新就不能只是神经网络计算架构创新 ,传统计算架构也必须创新 ,这将是人工智能芯片架构创新的真正内涵 。

编辑:hfy

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 摩尔定律
    +关注

    关注

    4

    文章

    622

    浏览量

    78520
  • 神经网络
    +关注

    关注

    42

    文章

    4572

    浏览量

    98737
  • 计算机
    +关注

    关注

    19

    文章

    6649

    浏览量

    84495
  • 人工智能
    +关注

    关注

    1776

    文章

    43844

    浏览量

    230590
收藏 人收藏

    评论

    相关推荐

    5G智能物联网课程之Aidlux下人工智能开发

    案例 14分21秒 https://t.elecfans.com/v/27186.html *附件:引体向上测试案例_20240126.pdf 人工智能 工业检测:芯片模组外观检测实训part1 11分40
    发表于 04-01 10:40

    嵌入式人工智能的就业方向有哪些?

    于工业、农业、医疗、城市建设、金融、航天军工等多个领域。在新时代发展背景下,嵌入式人工智能已是大势所趋,成为当前最热门的AI商业化途径之一。
    发表于 02-26 10:17

    2023年人工智能产业概况及应用趋势分析

    电子发烧友网站提供《2023年人工智能产业概况及应用趋势分析.pdf》资料免费下载
    发表于 12-11 16:27 1次下载
    2023年<b class='flag-5'>人工智能</b>产业<b class='flag-5'>概况</b>及应用趋势分析

    #人工智能 #电机 #电子技术 #FPGA FPGA工程师的职业发展阶段

    fpga人工智能
    明德扬助教小易老师
    发布于 :2023年12月08日 06:20:42

    ai人工智能机器人

    随着时间的推移,人工智能发展越来越成熟,智能时代也离人们越来越近,近几年人工智能越来越火爆,人工智能的应用已经开始渗透到各行各业,与生活交
    发表于 09-21 11:09

    《通用人工智能:初心与未来》-试读报告

    、社交、想象力、创造力、感知力,这是无法用逻辑和推理去定义和构造的。人工智能路途遥远,远远还不到与人类竞争的程度,而且也不会反生的。与其胡思乱想,不如好好学习发展人工智能,让社会的生产力继续提高,让
    发表于 09-18 10:02

    如何将人工智能应用到效能评估系统软件中去解决

      如何将人工智能应用到效能评估系统软件中去解决   华盛恒辉效能评估系统是一种非常实用的管理工具,它可以帮助组织和企业掌握其运营状况,优化业务流程,提高效率和生产力。然而,随着人工智能的迅猛发展
    发表于 08-30 12:58

    人工智能简史 人工智能发展简史报告

    人工智能简史 人工智能发展简史报告 人工智能(AI)是一种智能模拟技术,可以实现人类智力任务,包括远程协作,自主学习和分析数据的能力。
    的头像 发表于 08-15 16:07 688次阅读

    什么是人工智能芯片

    人工智能芯片是指专为人工智能算法设计的一种特殊芯片,它以高性能、低功耗、高速度、高精度为特点。人工智能
    的头像 发表于 08-14 15:33 2408次阅读

    为什么要发展人工智能

    为什么要发展人工智能 随着科技的不断发展人工智能(AI)在不断地影响着我们的生活以及人类社会的发展,已经成为了一个备受瞩目的热点话题。
    的头像 发表于 08-12 17:27 1584次阅读

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI和机器学习对人类有很大益处。 每个国家对核武器的运用有两面性,可造可控;但AI智能
    发表于 06-27 10:48

    【书籍评测活动NO.16】 通用人工智能:初心与未来

    新的担忧,有些人认为人工智能将很快取代人类,人类的发展在不远的将来会面临极大挑战(机器人世界末日将会到来)。 《通用人工智能:初心与未来》 主要内容本书尝试给人们一个新的视角,即尽管
    发表于 06-21 14:41

    人工智能产业发展势头强劲

    chatgpt的出现引发了另一股人工智能热潮。人工智能行业呈现强劲增长势头,市场规模也在持续增长,生产效率化阶段正在进入。头宝研究员最近发表的《2023年中国人工智能行业概览》表示,
    的头像 发表于 06-12 10:12 705次阅读

    人工智能一例

    这句话里边有几个参数? 如果x=1则执行a 如果是单计算的话只有1这一个参数。 但如果是人工智能的话有如下几个参数, 逻辑门,如果则 未知数,符号x 常量,1 函数,a 很多复杂的智能都可以如此拆分
    发表于 06-10 01:05

    【EASY EAI Nano人工智能开发套件试用体验】EASY EAI Nano人工智能开发套件开箱及硬件初体验

    今天收到了EASY EAI Nano人工智能开发套件,为大家做个开箱及硬件评测。 打开快递包装,引入眼帘的是一个设计精美蓝色的大盒子,在盒子里有EASY EAI Nano人工智能开发板、天线、喇叭
    发表于 05-31 19:18