0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU computing最新技术进展

mK5P_AItists 来源:未知 作者:李倩 2018-09-04 17:27 次阅读

摘要:英伟达的显卡对于游戏达人来说再为熟悉不过,并逐渐融入到我们的日常生活当中。

英伟达的显卡对于游戏达人来说再为熟悉不过,并逐渐融入到我们的日常生活当中。近日,世界上第一款“光线追踪”GPU“Quadro RTX GPU”的面世,更是被英伟达创始人兼CEO黄仁勋称为“自CUDA以来,英伟达推出最重要的一块GPU”。英伟达为了这块显卡,前后打磨了十年的时间。它的出现,将颠覆现有图形渲染计算。

我们荣幸地邀请到了英伟达亚太区架构主管赵立威先生,他围绕着《GPU计算前沿技术进展及其在AI领域的应用》的话题,与20余位创业者进行了深刻交流,人工智能领域的搬砖男女都赶紧看过来吧~

一、GPU computing最新技术进展

赵立威:我非常有幸在过去的20多年间,经历了IT从起步到大热的整个发展过程。20年前,我在IBM,那时候我自己都没有一台PC机,邮件都跑在mainframe上。我有一张软盘,它相当于我的密钥,把软盘插入办公室的诸多电脑之一,我就能访问我在主机上的邮件服务。这可以说是前PC时代。

过去这些年,计算形态从PC到移动计算到云再到现在的人工智能。但事实上AI并不是这两年才开始研究,几十年前就已经开始了。那么为什么现在人工智能这么火呢?它离不开三算的发展。何为三算?即算法,算力(计算力),算据(数据)。

图源:http://news.ikanchai.com/2017/1204/179891.shtml

那么这三算是怎样互相作用,然后驱动人工智能从2012年一下子发展到现在的状态呢?这里有一个小故事可以与大家分享。

大家可能都听说过Alex Krizhevsky,他在博士期间设计了人类历史上第一个真正意义上的深度神经网络AlexNet——一共是八个学习层,包含六千万个参数。他的导师Hinton(被称为“神经网络之父”)并不支持他将这个作为博士论文的研究方向,因为当时的计算都是基于CPU的计算方式,这样的神经网络模型训练一次就要几个月的时间;然后要手动调参,再重新训练,这样反复下来,想要得到一个靠谱的神经网络模型,大约需要几十遍;运气好的时候十几遍的训练次数,可能要花费数十年的时间。但是Alex作为一个典型的Geek并不放弃,在学习数学之余他还学习了大量与编程相关的知识,其中就包括CUDA。

CUDA是NVIDIA创造的一个并行计算平台和编程模型。它利用图形处理器(GPU)能力,实现计算性能的显著提高。NVIDIA是在2006年推出的CUDA,自那以后,股价从最初的7美元一路攀升到现在的260多美元。

Alex用CUDA重新对他的模型进行编程,然后买了两块当时非常强大的显卡GTX580,花了6天时间训练AlexNet,并且不断调优和完善。后来参加了李飞飞主导的ImageNet大赛,并且获得了当年的冠军。AlexNet当时能够达到的图像识别精度,遥遥领先于第二名。大赛之后,Alex和他的导师Hinton成立了公司,这个公司几个月以后被Google以4亿美金收购。这是一个靠GPU创富的故事,可以看到,GPU与深度神经网络的第一次结合创造了4亿美金的价值。

英伟达™精视™(NVIDIA® GeForce®) GTX 580

在这之后,我们经历了近似寒武纪时期的神经网络模型大爆发的时代。2012年之前,人们虽然一直在研究,但是没有足够的算力来支撑这些算法,但是新的计算方式GPU Computing的出现,支撑了同类型的神经网络模型的训练;从而促成了各种模型的爆发式增长,进而进入到人工智能的时代。

如今,大家可以使用Caffe、TensorFlow、Theano等等开源的深度学习平台来进行实现自己的算法,也可以在CUDA上进行编程。人工智能研究领域的头部公司,他们现在推荐的算法模型已经达到了相当复杂的程度,一个模型可以达到1个T甚至几个T的规模,包含几十亿甚至上百亿个参数,数据量更是可想而知。这样的模型训练起来难度就越发高。因此,三算就这样纠缠在一起,互相促进、互相提升。

大家都知道著名的摩尔定律,其内容是当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。这一定律揭示了信息技术进步的速度。但是根据OPEN AI的今年年初的测算,从AlexNet出现以后,到去年年底一共大概5年的时间,在人工智能模型的训练层面,我们对于计算力的需求提升了30万倍。

我们都知道在摩尔定律的初期25年间,实现了性能5年10倍,25年10万倍的提升。这是摩尔定律在CPU年代为我们带来的计算力的提升。但是这对于人工智能模型对计算力的需求是远远不够的。因此,为了满足这种计算力的需求,我们不断地在GPU层面打磨我们的技术,提升各方面的性能。在这样的基础之上,我们也看到越来越多的人开始基于CUDA去编程训练自己的模型,Google、Facebook等也基于CUDA构建自己的开源深度学习平台。

NVIDIA于2018年3月在GPU技术大会上推出了HGX-2 平台,以及以HGX-2为架构的 DGX-2服务器。它是一件高密集,强性能并具有极佳的热性能的电子产品。DGX-2架构的核心是NVSwitch内存结构,本质上,NVSwitch结构为GPU节点创建了一个512 GB的巨大的共享内存空间,以 10 千瓦的功耗,在TensorCore上达到近2Petaflops的算力。

HGX-2 平台的内嵌 NVSwitch 拓扑结构的框图(图源:NextPlatform)

所谓GPU Computing不是一个单单拼硬件的事,如何来把这些算力用到人工智能算法和实际应用场景下才是大多数人应该关注的重点。大家提到英伟达可能都觉得是一家芯片公司,但其实我们公司全球一共大概有一万两千人;其中一万一千人都是工程师,在这些工程师里,七千个都是软件工程师,他们共同来搭建和完善基于GPU Computing的人工智能生态。

目前来说,人工智能的应用场景比较多的集中在Consumer Internet,国内以BATJ、TMD为代表,美国主要是方佳、苹果、微软和Netflix等等。这些公司是人工智能领域的第一批先锋,他们在这个领域投入了大量的资金,堆积了很多的算力,把业内最有名的博士都招到他们公司,他们的每一个服务动辄就每天上亿的使用量(DAU,Daily Active User),因此又收集了大量的数据。李彦宏在2018 Create百度开发者大会上提到一个Intelligent Chasm的概念,可以理解为智能沟壑,说的是和这些头部公司所堆积的算力以及数据相比,全球其他所有公司的算力加起来可能也就是跟他们差不多的规模,甚至还不如。这种算力和数据的差距像天堑一样。

那么如何把这些看似高高在上的人工智能算法和还比较昂贵的算力,以及很难获取的数据,变得更加容易,这是我们过去已经做了的以及接下来的时间里要去做的工作。

以TensorRT为例,NVIDIA TensorRT是一种高性能神经网络推理(Inference)引擎,用于在生产环境中部署深度学习应用程序,应用有图像分类、分割和目标检测等,可提供最大的推理吞吐量和效率。TensorRT是第一款可编程推理加速器,能加速现有和未来的网络架构。通过TensorRT的大幅度加速,服务提供商能够以经济实惠的成本部署这些计算密集型人工智能工作负载。

二、AI行业案例分享

人工智能比较常用的应用场景除了互联网之外,还有自动驾驶、医疗、电信等等。

1. 推荐引擎

过去是人找信息,现在则转变为信息找人。大家可能都用过快手或者抖音之类的小视频APP,这些小视频的背后,都有神经网络算法在支撑。你在使用一个推荐引擎的同时,可能有几十个模型在对你进行评估,五年前可能只是sensing,感知你的需求,现在是从各种维度对你进行评估,多方面平衡,不光要吸引人点击,还要你停留足够长的时间;而吸引人点击和吸引人停留的算法又有很大的差别。

国内几乎所有大的互联网公司,都在训练自己的推荐模型,做到千人千面。推荐对于这些公司是非常重要的,因为互联网变现几乎都和推荐有关,电商类不用说,食品类比如国内的快手、抖音,国外的Netflix、Hulu,资讯类的比如Google news、今日头条,还有音乐类,社交类等等。用户的使用又在给公司提供新的数据,可以用于训练更有效的模型。这一方面提升了用户体验,但另一方面可能造成用户无法脱离这些产品

2. 医疗

在英伟达初创加速计划的会员中,有很大一部分都是人工智能+医疗的项目。医疗项目的一大挑战是诊断。目前来讲还是很难通过深度学习来做诊断,但市场仍然很大。根据一些相关报告上的数据,对于一些慢病诊断,使用深度学习算法进行辅助之后,可以将准确率提高30%-40%,同时成本下降一半。

以视网膜扫描为例。人们常说眼睛是心灵的窗户,事实上眼睛也是身体的窗户,人眼的视网膜上分布着丰富的毛细血管,通过扫描视网膜,可以检测到人身体上的一些问题,比如糖尿病的次生灾害之一就是视网膜的病变,以及心血管疾病。

在国内,能够通过视网膜扫描来进行诊断的医生比较少;而且在国内,部分医生是不能下诊断的。通过深度学习技术,可以将这些医生的经验进行收集,从而辅助诊断。目前这项技术还很难应用到医院里,但是一些保险公司非常愿意通过这种技术,来获得客户患病概率的一些信息,从而辅助制定保单金额。

3. 自动驾驶

为了进行自动驾驶的研发,英伟达有自己的一个server farm。这个serverfarm内有 1000台DGX-1,具有1个E(1E=1024P=1024*1024T)的浮点运算能力,用于自动驾驶模型的训练。一辆车在外面跑一天,会产生上T的数据量,一年可能是上P的数据量。但即使是这样,仅仅靠实车上路收集数据也远远不够,根据估算,自动驾驶车辆至少要跑10万英里,才能勉强满足上路的标准。就现在而言,自动驾驶的车辆脱把率并不高,Google的自动驾驶车辆大概是几千英里需要扶一次方向盘,其他的情况也基本一样。

我们现在的做法是把实车里的模型拿到server farm里,让他在服务器里的高度仿真模拟环境下进行训练,在训练的过程中产生新的数据,然后用这些数据再去训练新的模型。通过这种做法来尝试加速对自动驾驶车辆模型的训练。

图源:pixabay.com

在AI应用场景的分享之后,主讲人赵立威还向大家详细介绍了NVIDIA的新品Quadro RTX,它能够帮助游戏和电影行业实现实时的光线追踪和渲染。最后,他以英伟达在硅谷的新办公大楼“Endeavor”和“Voyager”作结,表达了英伟达在人工智能领域将不断努力,并期待人工智能技术带领人类走入未知领域的愿景。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4410

    浏览量

    126635
  • 显卡
    +关注

    关注

    16

    文章

    2356

    浏览量

    65840
  • 英伟达
    +关注

    关注

    22

    文章

    3316

    浏览量

    87713

原文标题:干货 | 加速AI发展!一文了解GPU Computing

文章出处:【微信号:AItists,微信公众号:人工智能学家】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    新技术在生物样本冷冻中的应用案例分析

    可以提供关于样本冻结和解冻过程的重要信息,还可用于研究生物分子在低温条件下的行为,从而推动了相关领域的研究进展。   二、新技术在生物样本冷冻中的优势和应用案例   1. 提高存活率和保存效果   新技术
    发表于 12-26 13:30

    风光互补技术及应用新进展

    风光互补技术及应用新进展   [hide]风光互补技术及应用新进展.rar[/hide] [此贴子已经被作者于2009-10-22 11:52:24编辑过
    发表于 10-22 11:51

    coolset新技术

    coolset新技术
    发表于 08-14 20:48

    电源新技术

    开关电源相关的新技术资料。
    发表于 09-09 13:57

    可以使用适用于云计算中HPC的GPU虚拟化吗

    to create a cluster of VMs using GPU virtualization incloud computing?How could this be implemented ?
    发表于 09-30 10:47

    新卫星天线的最近进展

    和Gilat都已经向客户提供了相控阵天线,而Phasor Solutions,Kymeta和C-COM等公司则正在开发基于新技术的创新性的天线系统,以迎接移动卫星通信的新纪元。本文将简要介绍一下上述三个公司在新卫星天线领域的最近进展
    发表于 07-16 07:23

    电能计量基础及新技术

    电能计量基础及新技术资料分享来自网络资源
    发表于 10-02 15:49

    手机的新技术盘点

    个过程中,有越来越多的人享受到了新技术给手机使用体验带来的巨大提升。然而新的一年已经来临,将有哪些手机新技术诞生?又有哪些新技术将在平民价位段中普及开来呢?希望本文能够给您一些指引。
    发表于 10-22 08:47

    5G承载网络需求与新技术进展

    近日在中国光谷”国际光电子博览会暨论坛(OVC EXPO2018)期间,“5G时代的信息通信产业高峰论坛”在中国光谷科技会展中心隆重举行。烽火通信技术专家马俊在现场发表了“5G时代的承载网络技术演进”的主题演讲,主要介绍了5G承载网络需求与
    发表于 02-03 07:58

    Imagination Rogue GPU技术有哪些优势?

    PowerVR 6系列GPU与竞争对手Mali-T600系列GPU的规格对比PowerVR的看家本领——TBDR渲染技术
    发表于 02-26 07:39

    GPU爆炸式发展背后的深层原因?

    Bifrost架构如何提高效率和性能?Mali-G71如何通过创新技术来提升GPU性能?GPU爆炸式发展背后的深层原因?
    发表于 03-11 06:48

    新华三在存储领域的最新技术及应用进展浅析

    等热点话题进行了深入的沟通与交流。紫光旗下新华三集团存储产品部总经理徐润安在大会上展示了新华三倾力打造的Memory-Driven的存储新常态,并系统地介绍了新华三在存储领域的最新技术及应用进展
    发表于 12-13 16:16 659次阅读

    新技术进展经常带来伦理和文化的问题

    在人类社会发展的历程中,新技术进展经常带来伦理和文化的问题,而伦理与文化瓶颈的突破,又往往为新技术发展提供条件。人机共处社会的伦理秩序和文化规范将出现何种变化,又将如何重建,或许一时还无法拿出答案,但已经成为不可回避的课题,值得
    的头像 发表于 11-08 09:23 3039次阅读

    景嘉微透露自研GPU进展:后端设计中

    除了CPU之外,国内公司也在GPU领域开始追赶国际水平。日前长沙景嘉微透露消息称,该公司研发的新一代GPU芯片目前正在后端设计中,后续的进展将在定期报告中进行披露。 虽然景嘉微没有透露所谓的下一代
    的头像 发表于 01-11 10:57 2338次阅读

    表面贴装技术(SMT)的发展和新技术进展

    表面贴装技术(SMT)的发展和新技术进展 SMT的起源可以追溯到20世纪60年代,经过多年发展已经达到了完全成熟的阶段。不仅成为了当今组装技术的主流,而且还在不断向更深层次发展。总体而
    的头像 发表于 11-01 11:00 674次阅读