0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

探讨国外人工智能芯片发展状况

bzSh_drc_iite 来源:cc 2019-02-13 13:56 次阅读

近年来,由于大数据产业的发展,数据量呈现爆炸性增长态势,而传统的计算架构又无法支撑深度学习的大规模并行计算需求,于是研究界对人工智能芯片进行了新一轮的技术研发与应用研究。人工智能芯片作为终端实现人工智能算法的载体,是实现人工智能技术创新的重要基础;同时,作为人工智能时代的技术核心之一,决定了平台的基础架构和发展生态。

2018年12月,Gartner发布了《预测2019:人工智能与未来工作》报告,对人工智能科技未来七大发展趋势及其对工作的影响进行分析探讨,人工智能芯片位列其中。人工智能芯片作为当前衡量一个国家科技发展水平及实力的重要参考标准,一直以来都受到了广泛的关注。以谷歌、微软、英特尔、脸书为代表的科技巨头争相加大在人工智能芯片领域的布局。截至2018年5月,全球至少有60家初创公司在研发语音交互和自动驾驶人工智能芯片、至少有5家企业已经获得超过1亿美元的融资;根据国际权威基金评级机构Morningstar预测,到2021年,全球人工智能芯片市场规模可能超过200亿美元。

1

人工智能技术催动芯片市场爆发

当前正处于“后摩尔定律时代”,万物互联和万物智能得以实现,核心推动力量来自半导体产业,数百亿智能设备连接网络,用于数据采集的物联网芯片和高性能人工智能芯片需求剧增,因万物互联采集海量数据,经数据中心构造的云端对数据进行处理,从而带动整个半导体发展。伴随着大数据的发展,计算能力的提升,人工智能近年迎来了新一轮的爆发。谷歌、脸书、微软、亚马逊等国外各大科技巨头公司已纷纷推出了自己的人工智能芯片,预计2020年有望突破百亿大关,发展空间巨大。而各科技巨头司都在探索不同类型的人工智能芯片专用架构:谷歌拥有张量处理单元(TPU),每个芯片具备一个核心和用软件控制的内存(而非缓存);英伟达GPU则拥有80多个内核;微软正在走FPGA的路线;英特尔则在所有类型的人工智能芯片专用架构上都有布局,为机器学习推销传统的CPU,收购Altera和Nervana,前者专注于FPAG,后者专注于神经网络专用处理器(类似于谷歌的TPU),当前已经进入计算系统结构的黄金时代。2018年,几乎每个月,主流科技公司推出的定制人工智能芯片项目数量都会较上个月有所增加。

(1)英特尔方面,在芯片产业布局上,英特尔在2018年进行了一系列收购,加速开发更新型的芯片。2018年7月,英特尔收购物联网芯片组厂商eASIC;2018年9月,英特尔收购NetSpeed Systems,继续布局专用片上系统(SoC)芯片产业。英特尔正在开发越来越多样化的SoC芯片产品,包括各种专用SoC,如Movidius VPU和FPGA。此外,英特尔在2018年展示了首款14纳米独立GPU原型,并确认其首款独立GPU最早将于2020年问世。

(2)谷歌方面,2018年2月,谷歌开放CloudTPU,专为加速、扩展特定的TensorFlow机器学习工作负载而优化。2018年5月,在GoogleI/O2018开发者大会期间,谷歌正式发布了第三代人工智能学习专用处理器TPU3.0。TPU3.0采用8位低精度计算以节省晶体管数量,对精度影响很小但可以大幅节约功耗、加快速度,同时还有脉动阵列设计,优化矩阵乘法与卷积运算,并使用更大的片上内存,减少对系统内存的依赖;速度能加快到最高每秒1000万亿次浮点计算。

(3)英伟达方面,2018年3月,英伟达推出了一个更新的、全面优化的软件堆栈,还公布了其全球领先的深度学习计算平台所取得的一系列重要进展,包括NVIDIA Tesla V100(宣称是最强大的数据中心GPU)的2倍内存提升,以及革命性的全新GPU互联结构NVIDIA NVSwitch,它可使多达16个Tesla V100 GPU同时以2.4 TB /秒的速度进行通信,这一速度创下历史新高(相较于半年前发布的上一代产品,其深度学习工作负载性能实现了10倍提升)。

(4)超威半导体(AMD)方面,2018年6月,AMD公开展示了全球首款7纳米制程的GPU芯片原型,含有32GB的高带宽内存,专为人工智能和深度学习设计,用于工作站和服务器;2018年11月,AMD发布了基于7纳米工艺的升级版Vega架构核心,也是全球首个7纳米GPU。7纳米Vega核心集成了132亿个晶体管,比14纳米Vega(125亿个晶体管)增加了6.4%,而核心面积为331平方毫米,比现在的484平方毫米缩小了31.6%,晶体管密度翻了一番。同等功耗下,新核心性能提升超过25%;而同等频率下,新核心功耗降低50%。

(5)苹果方面,苹果公司在2018年9月发布的新款iPhone系列手机均搭载了A12仿生芯片。A12仿生芯片由4核GPU、6核CPU和神经网络引擎构成,内有69亿个晶体管,性能非常卓越,被认为是当时“智能手机中最智能、功能最强大的芯片”,其每秒运算数据达到了5万亿次,比2017年推出的A11提高733%,新的iPhone机器学习速度提升了9倍。

(6)国际商用机器(IBM)公司方面,2018年6月,IBM Research 人工智能团队利用大规模的模拟存储器阵列训练深度神经网络,达到了与GPU相当的精度,被认为是在下一次人工智能突破所需要的硬件加速器发展道路上迈出的重要一步,相关成果发表在《自然(Nature)》期刊上。

2

“边缘侧智能”发力,人工智能芯片与物联网的紧密结合成为亮点

2018年12月,Gartner发布的《预测2019:人工智能与未来工作》报告重点提及“边缘计算(EdgeComputing)”的潜力与应用价值。近年来,计算工作负载一直在迁移:首先是从本地数据中心迁移到云,现在越来越多地从云数据中心迁移到更靠近正在处理的数据源的“边缘”位置,旨在通过缩短数据传输距离来提高应用和服务的性能和可靠性,降低运行成本,从而减少带宽和延迟问题。Gartner数据显示,到2025年,80%的企业将关闭其传统数据中心,而2018年则为10%;MarketsandMarkets数据显示,到2022年,边缘计算市场的价值将达到67.2亿美元,高于2017年的14.7亿美元,年复合增长率35.4%,关键驱动因素是物联网和5G网络的出现,“智能”芯片性能提升、“智能”应用程序数量的增加以及云基础架构负载的增加。

随着人工智能应用的不断扩展,定位于数据中心(或称“云端”)的人工智能应用普遍存在功耗高、实时性低、带宽不足、数据传输过程安全性较低等问题。预计,未来会有更多人工智能芯片部署于网络“边缘侧”。“边缘侧智能”专指靠近智能终端以及数据源头的网络边缘侧,融合了网络、计算、存储、应用的开放计算平台,已经成为人工智能芯片的重要发展趋势。

谷歌的人工智能布局正逐渐走向边缘测。在2018年7月举行的谷歌云端服务年会Google Cloud Next上,谷歌发布一款名为“Edge TPU”的人工智能芯片,作为小型人工智能加速器(体积仅为一美分硬币的1/6),可在物联网(IoT)设备中实现机器学习算法的训练任务,这款芯片将为边缘设备提供强大的计算和学习能力,已成为谷歌边缘计算战略的重要组成部分;同时,发布Cloud IoT Edge,这是一款能够将Google的云服务扩展到物联网网关和边缘设备的软件堆栈。2018年11月,英伟达公开了NVIDIA Jetson AGX Xavier机器人专用芯片平台、面向边缘计算的DRIVE AGX Xavier汽车级人工智能芯片等,致力于边缘侧数据感知、汇聚和推演,并基于这些芯片和平台开始向公司提供企业级解决方案,正在逐步从芯片制造商转变为方案提供商的角色。

人工智能芯片将继续在物联网领域扮演更重要的角色。相比于数据中心的人工智能加速器,位于“边缘侧”智能终端中的人工智能芯片需要更低的延迟性、更低的能耗、更小的体积和更低的成本;其算法要相对成熟,无需进行频繁的迭代更新。目前,越来越多的硬件厂商开始提供边缘处理的强化产品,例如边缘服务器、智能网关等产品。

3

各大芯片制造商在人工智能领域垂直领域的实践深化

各大芯片制造商除了在单纯的研发层面需要更有针对性地进行技术攻坚之外,在整个芯片领域和产业的应用、行业化纵深发展等配套层面也积极快速进行探索和发展,推进应用更加“落地”,推动人工智能芯片产品更加实用化。2018年,人工智能芯片领域的重大进展之一体现在各大人工智能芯片制造商立足于解决实际问题,在人工智能领域的实践正在不断深化。

在2018年11月举行的2018英特尔人工智能大会上,英特尔发布了英特尔神经计算棒二代(英特尔NCS 2),利用该计算棒可以在网络边缘构建更智能的人工智能算法和计算机视觉原型设备。英特尔NCS 2基于英特尔 Movidius Myriad X视觉处理单元(VPU),并得到英特尔 OpenVINO工具包的支持,与上一代神经计算棒相比性能更优,能够以可负担的成本加快深度神经网络推理应用的开发。英特尔NCS 2支持深度神经网络测试、调整和原型制作,可以帮助开发者进入实际应用的量产阶段。2018年11月,英特尔牵头的联合研发团队开发的野外智能相机搭载了Movidius人工智能视觉处理芯片,可完成东北虎及有蹄类动物识别,以及人类识别(用于反盗猎)等多重识别任务。

2018年,虽然高通收购恩智浦以失败结尾,但这笔收购案凸显高通的意图就是出自于拓展汽车芯片市场,智能汽车芯片的重要性也得以突显。2018年8月,特斯拉宣布独立开发的人工智能芯片已经准备就绪。2018年11月,早就成为特斯拉、沃尔沃供应商的英伟达发布了DRIVE AGX Xavier汽车级芯片。芯片的市场已经由PC、移动互联网时代开始走向“智能汽车”时代。

4

浅析人工智能芯片的发展趋势

作为人工智能技术的重要物理基础,人工智能芯片拥有巨大的产业价值和战略地位。人工智能芯片研发的核心在于芯片架构以及“感知-传输-处理/执行”全流程逻辑的研发:短期内以异构计算(多类型组合方式)为主,来加速各类应用算法的落地;中期侧重发展自重构、自学习、自适应的芯片,来支持算法的演进和类人(类脑)的自然智能;长期朝着“通用人工智能芯片”的方面发展。“通用人工智能芯片”是指能够支持和加速通用人工智能计算的芯片,能够让系统通过学习和训练,准确高效地处理任意智能主体(例如人)能够处理的任务,其面临通用性(算法和架构)和实现复杂度等两个主要难点。

但从大趋势来看,目前人工智能芯片发展尚处于的初级阶段,无论是科研还是产业应用都有巨大的创新空间。目前主流人工智能芯片的核心主要是利用乘加计算加速阵列来实现对卷积神经网络中最主要的卷积运算的加速。这一代人工智能芯片主要有如下三个方面的问题:(1)芯片功耗问题,内存大量访问和乘加计算阵列的大量运算,造成人工智能芯片整体功耗的增加;(2)内存带宽问题,基于深度学习的人工智能计算所需数据量巨大,造成内存带宽成为整个系统的瓶颈,计算框架的高度并行与扩展成为亟待解决的关键问题;(3)性能和灵活度之间的平衡问题,深度学习对算力要求非常高,提升算力的最好方法是做硬件加速,但是同时深度学习算法的发展也是日新月异,新的算法可能在已经固化的硬件加速器上无法得到很好的支持。

因此,可以预见下一代人工智能芯片将有如下发展趋势:(1)计算框架的高度并行与扩展;(2)更高效的大卷积解构与复用;(3)神经网络参数/计算位宽的迅速减少;(4)更多样的存储器定制设计;(5)更稀疏的大规模向量实现;(6)复杂异构环境下计算效率提升;(5)计算和存储一体化。

结束语

人工智能是目前研究的焦点,而为人工智能提供最底层硬件技术支持的芯片行业更是处于漩涡之中。随着人工智能相关技术在近年来的跨越式发展,人们越来越看好人工智能的前景及其潜在的爆发力,而能否发展出具有超高运算能力且符合市场的人工智能芯片成为人工智能平台的关键一役。英伟达在目前的市场上保持着绝对的领先地位,但随着包括谷歌、脸书、微软、亚马逊等众多科技巨头公司相继加入决战,人工智能芯片领域未来的格局如何,仍然待解。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    446

    文章

    47705

    浏览量

    408883
  • 人工智能
    +关注

    关注

    1775

    文章

    43723

    浏览量

    230496

原文标题:2018年国外人工智能芯片发展综述

文章出处:【微信号:drc_iite,微信公众号:全球技术地图】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    5G智能物联网课程之Aidlux下人工智能开发

    https://t.elecfans.com/v/27186.html *附件:引体向上测试案例_20240126.pdf 人工智能 工业检测:芯片模组外观检测实训part1 11分40秒 https
    发表于 04-01 10:40

    嵌入式人工智能的就业方向有哪些?

    于工业、农业、医疗、城市建设、金融、航天军工等多个领域。在新时代发展背景下,嵌入式人工智能已是大势所趋,成为当前最热门的AI商业化途径之一。
    发表于 02-26 10:17

    浅谈人工智能监管制度

    人工智能在提供便利的同时,也会产生诸如算法黑箱和信息茧房等风险,因此,对其进行监管十分重要。本文通过梳理欧盟、美国和英国人工智能监管制度,来探究域外人工智能监管问题。
    发表于 11-23 10:47 173次阅读

    探讨人工智能发展和国产FPAI芯片研究方向

     人工智能的实现需要算力,而算力的的实现则需要芯片的支撑,这是人工智能进行发展并实现产业化的关键。仍以GPT-3为例,1750亿参数,1000亿词汇语料库,需要1000块英伟达A100
    发表于 10-19 10:09 508次阅读

    ai人工智能机器人

    随着时间的推移,人工智能发展越来越成熟,智能时代也离人们越来越近,近几年人工智能越来越火爆,人工智能的应用已经开始渗透到各行各业,与生活交
    发表于 09-21 11:09

    《通用人工智能:初心与未来》-试读报告

    、社交、想象力、创造力、感知力,这是无法用逻辑和推理去定义和构造的。人工智能路途遥远,远远还不到与人类竞争的程度,而且也不会反生的。与其胡思乱想,不如好好学习发展人工智能,让社会的生产力继续提高,让
    发表于 09-18 10:02

    如何将人工智能应用到效能评估系统软件中去解决

      如何将人工智能应用到效能评估系统软件中去解决   华盛恒辉效能评估系统是一种非常实用的管理工具,它可以帮助组织和企业掌握其运营状况,优化业务流程,提高效率和生产力。然而,随着人工智能的迅猛
    发表于 08-30 12:58

    人工智能发展前景

    人工智能发展前景 人工智能(AI)是21世纪最热门的技术领域之一,其发展前景广阔。AI的发展将影响到人类的各个方面,从科学、技术到社会和文化
    的头像 发表于 08-17 12:37 3006次阅读

    人工智能简史 人工智能发展简史报告

    人工智能简史 人工智能发展简史报告 人工智能(AI)是一种智能模拟技术,可以实现人类智力任务,包括远程协作,自主学习和分析数据的能力。
    的头像 发表于 08-15 16:07 683次阅读

    人工智能危机有哪些

    人工智能危机有哪些  近年来,随着人工智能技术的发展和应用的广泛,越来越多的人开始关注人工智能所带来的危机。人工智能危机主要包括技术危机、伦
    的头像 发表于 08-15 16:07 1386次阅读

    人工智能的未来发展趋势

    为人们带来什么?在本文中,我们将探讨人工智能未来的发展趋势。 1. 更加智能化 AI技术不断升级,未来的人工智能将拥有更加智能化的特性。这意
    的头像 发表于 08-15 16:07 7507次阅读

    什么是人工智能芯片

    人工智能芯片是指专为人工智能算法设计的一种特殊芯片,它以高性能、低功耗、高速度、高精度为特点。人工智能
    的头像 发表于 08-14 15:33 2373次阅读

    为什么要发展人工智能

    中的奇迹般存在,而是正在逐步地成为现实。那么为什么要发展人工智能呢?在这篇文章中,我们将会探讨人工智能的必要性。 首先,人工智能可以为我们提供很多的便利。正如我们所知道的那样,
    的头像 发表于 08-12 17:27 1559次阅读

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI和机器学习对人类有很大益处。 每个国家对核武器的运用有两面性,可造可控;但AI智能
    发表于 06-27 10:48

    【书籍评测活动NO.16】 通用人工智能:初心与未来

    新的担忧,有些人认为人工智能将很快取代人类,人类的发展在不远的将来会面临极大挑战(机器人世界末日将会到来)。 《通用人工智能:初心与未来》 主要内容本书尝试给人们一个新的视角,即尽管
    发表于 06-21 14:41