0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

人工智能计算体系与通讯架构的革新展望

姚小熊27 来源:人工智能实验室 作者:人工智能实验室 2021-02-21 09:28 次阅读

人工智能从20世纪50年代开始,经历了60年起伏的发展历程。其中,AI共经历了2次发展的春天和冬天,现在正在经历第3个春天,即以数据为驱动力的深度学习。谷歌的AlphaGo、AlphaZero、AlphaFold是很好的标志性产品

佩德罗多明戈斯曾总结了 AI 的五大流派,包括符号、进化学派、类比学派、贝叶斯学派和连接机制。未来AI的发展 趋势最大的可能是借各种流派之长创造新的AI算法,既包含逻辑符号也有数据和知识,还要借鉴人类的进化和大脑的特点。所以,当前无论是科学研究还是产业发展,都在思考下一轮AI的突破点在什么地方。

算力需求飞速增长的瓶颈

对深度学习来说,半导体芯片架构领域的进步是不可或缺的发展动力。谷歌公司的杰夫狄恩曾说过:“数据+算法+算力=数据+100×算力”。也就是说,他认为在数据、算法和算力三大因素中,算力占据着绝对的主导地位,算法则相对来说没有那么重要。

随着时代的发展,深度学习在训练过程中产生的计算量可以分成两个阶段:在深度学习发展的初期阶段,训练产生的计算量的增长速率相对较慢;近10年间,计算量以每年10倍的速率增长,远远超过摩尔定律每18~24个月提高2倍的增长速率。

pIYBAGAxt3uAQqgyAABolUOK7sk763.jpg

深度学习训练过程中计算量需求的发展

以OpenAI发布的预训练模型GPT为例,来说明近几年来机器学习领域对算力需求的飞速增长。2018年6月发布的GPT-1是在约5GB的文本上进行无监督训练,针对具体任务,在小的有监督数据集上做微调,得到包含1.1亿参数的预训练模型;而2019年2月发布的GPT-2则是在约40GB文本上进行无监督训练,得到具有15亿参数的预训练模型;而2020年5月公布的GPT-3则是在 499B tokens(令牌)的数据基础上训练,得到包含1750亿参数的模型。在不到2年的时间内,模型参数从1.1亿的规模增长至1750亿,而单次训练GPT-3就需要花费1200万美元,模型在飞速发展的同时,带来的是巨大的算力要求和高成本的代价。

传统计算与通讯范式的瓶颈

人工智能领域对算力的需求驱动了新算力的发展。要想谋求更高效率的计算,就需要回到计算和通讯领域最基本的理论和范式。在过去的几十年间,涌现出了许许多多的定律和体系,而其中有三个定律和体系被视为计算与通讯范式的根本。

第一个是香农定律(Shannon Theroy)。香农是信息论的奠基者,他引入了信息熵的概念,为数字通信奠定了基矗其实香农定律定义了三个极限,分别为无损压缩极限E、信道传输极限C、有损压缩极限R(D)。目前,我们已经接近这些极限。

第二个是冯诺伊曼架构(Von neumann Structure)。在冯诺伊曼架构中,计算机由运算器、控制器、存储器、输入设备和输出设备5个基本部分组成,具有程序存储、共享数据、顺序执行的特点。冯诺伊曼架构简单且漂亮,是图灵机的优秀范例,至今仍被广泛地应用。然而,冯诺伊曼架构的设计构成了运算器和存储器间的瓶颈,这对深度学习的发展造成了一定的限制。

pIYBAGAxt4WANBz5AACM6kkoMkY827.jpg

信息论的研究方向

第三个是摩尔定律(Moore‘s Law)。戈登摩尔(Gordon Moore)总结认为,集成电路上可以容纳的晶体管数目大约在18 个月左右便会增加一倍。而现在晶体管数目的增长越来越慢,摩尔定律逐步趋向于饱和阶段,而我们对计算能力的需求却飞速 提升,不断提升的算力需求与芯片技术发展趋缓的矛盾日趋显现。

计算体系与通讯架构的革新展望

在过去的60年里,这三个基本理论在计算和 通讯领域建立了决定性的基础,然而日趋逼近的极限也使得当前AI技术的发展逐步接近瓶颈。为了避免技术的停滞不前,产业界或许可以从以下三个方面做出一些突破和革新。

首先,对信息重新定义。香农于上世纪40年代对信息熵、速率失真函数R(D)和信道容量C做出了定义,而这些定义是基于比特的基础实现的。以视频图像举例,过去我们一直采用比特来描述信息;后来我们从数字的层面使用像素、运动向量、宏块(macroblock)和区域(regions)结合的方式来描述图像;之后我们上升到从内容层面来描述图像,比如一个身体部位是脸部还是手部等;现在我们对图像的描述上升到语义层面,比如“是谁”“在做什么动作”“是否在睡觉”“眼睛在看什么”等,这些问题从语义的层面描述了图像传达的信息。当信息的描述方式发生变化时,熵的概念也发生了变化。比方说,过去我们用比特的形式来描述图像失真现象,而现在我们用生成对抗网络(Generative Adversarial Networks,GAN)生成图像,用肉眼来看GAN输入的图片和生成的图像几乎是一致的,但是从比特层面 来比较,会发现二者十分不同。因此,如何从语义、特征和内容的角度来定义熵与速率失真函数是我们未 来需要研究的问题。另外,香农理论从最开始的点到点通讯,扩展到后来的多用户信息论。但是在当下的互联网时代,面对海量的交互信息,部分香农理论已不再适用,学术界却没有提出一个新的完善的理论。 过去的信息更多的是人与人之间的传输,而现在的信息则更多地面向机器,比如3D Point Cloud、3D SS、Genomics、Geometry等,所以我们需要新的算法和新的标准。

o4YBAGAxt5CAGTDnAABnOG1e2q8638.jpg

计算体系与通讯架构的研究方向

第二,我们需要新的计算范式。包括量子计算、类脑计算和生物计算等在内的新的计算范式能够为计算瓶颈提供解决途径。

第三,我们需要新的计算体系和通讯架构突破冯诺伊曼体系架构的限制。首先,我们需要新的传感器、新的数据流架构和计算模式,以及高速的存储,这些都与传统的冯诺伊曼架构不同。我们还需要新的通讯架构,即5G技术和边缘计算。5G技术首次在应用层上实现了“三网合一”,比提升传输的速度更加有效。此外,5G技术更好地解决了延时问题并带来了新的应用,如百度的阿波罗项目中有一个服务叫做“云代驾”,通过5G技术让远程的安全操作员实时了解车辆所处的环境与状态,在自动驾驶无法完成的场景 下接管车辆,完成远程协助。但3G和4G网络的延迟使得“云代驾”模式无法成为现实,必须通过5G网络来解决延迟问题。很多人认为,当前的5G技术在能耗和覆盖率等方面还没有达到预期,但任何新技术的发展都需要时间,相信在未来的三五年后,5G技术能够为用户、工业和产业界带来巨大的变革。

芯片的升级对产业界的作用是显著的,近年来国内有许多公司在芯片领域有所成就。以百度的昆仑AI芯片为例,第一代昆仑芯片采用14nm先进工艺,2.5D封装,使用HBM内存,可以达到 512GB/s 的带宽。而预计于2021年量产的第二代昆仑芯片,采用7nm先进工艺,性能是第一代昆仑芯片的3倍,同时耗能减少,具备了大规模片间互联的能力,进步显著。
责任编辑:YYX

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 通讯
    +关注

    关注

    9

    文章

    834

    浏览量

    34349
  • 人工智能
    +关注

    关注

    1775

    文章

    43616

    浏览量

    230413
  • 深度学习
    +关注

    关注

    73

    文章

    5217

    浏览量

    119849
收藏 人收藏

    评论

    相关推荐

    5G智能物联网课程之Aidlux下人工智能开发

    课程类别 课程名称 视频课程时长 视频课程链接 课件链接 人工智能 参赛基础知识指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:参赛基础知识指引
    发表于 04-01 10:40

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能领域布局
    发表于 02-26 10:17

    ai人工智能机器人

    随着时间的推移,人工智能的发展越来越成熟,智能时代也离人们越来越近,近几年人工智能越来越火爆,人工智能的应用已经开始渗透到各行各业,与生活交融,成为人们无法拒绝,无法失去的一个重要存在
    发表于 09-21 11:09

    《通用人工智能:初心与未来》-试读报告

    取代人类了吗? 很多人都担心这个问题,其实这个就是有点杞人忧天了。人工智能是服务人类,而不是取代人类。人类是不知道多少万年进化的结果,而计算机是基于逻辑和推理的理论建立的,人类是复杂的是社会的,关于情感
    发表于 09-18 10:02

    如何将人工智能应用到效能评估系统软件中去解决

      如何将人工智能应用到效能评估系统软件中去解决   华盛恒辉效能评估系统是一种非常实用的管理工具,它可以帮助组织和企业掌握其运营状况,优化业务流程,提高效率和生产力。然而,随着人工智能的迅猛发展
    发表于 08-30 12:58

    人工智能的未来

    人工智能的未来 人工智能是一种新兴的技术,它正在快速发展和进步,并且正在改变我们生活的方方面面。自从第一台计算机诞生以来,人工智能一直是计算
    的头像 发表于 08-17 12:37 518次阅读

    人工智能计算器好不好

    人工智能计算器好不好?这是一个非常值得探究的问题。在本文中,我们将探讨人工智能计算器的优点和缺点,同时也会分析它对我们日常生活和工作的影响。 首先,让我们来看看
    的头像 发表于 08-15 16:07 900次阅读

    人工智能计算机的区别

    人工智能计算机都是现代技术领域中重要的概念,是计算机科学和信息技术中的两个重要领域。虽然这两个概念都与计算机有关,但它们之间具有不同的含义、理解和应用。本文将会详细回答
    的头像 发表于 08-09 08:09 1415次阅读
    <b class='flag-5'>人工智能</b>和<b class='flag-5'>计算</b>机的区别

    使用PowerEdge XE2420服务器进行零售参考架构的边缘计算

    本文件概述了参考架构,该架构利用Dell EMC PowerEdge XE2420的能力,处理与运行边缘计算动力服务有关的大量人工智能工作量f.。
    发表于 08-04 06:23

    燧原科技加入人工智能开放计算体系-DeepLink,共建AI软硬件生态

    2023年7月7日,燧原科技与上海人工智能实验室合作,基于人工智能开放计算体系-DeepLink共建AI软硬件生态,当前双方的合作主要基于燧原科技已量产的第二代训练产品云燧T20和第二
    的头像 发表于 07-07 15:45 262次阅读

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI和机器学习对人类有很大益处。 每个国家对核武器的运用有两面性,可造可控;但AI智能
    发表于 06-27 10:48

    【书籍评测活动NO.16】 通用人工智能:初心与未来

    之后的达特茅斯研讨会开始,用机器来模仿人类学习及其他方面的智能,即实现“人工智能”(Artificial Intelligence,AI)便成为计算机领域持续的研究热点。时至今日,以深度学习为代表
    发表于 06-21 14:41

    人工智能一例

    这句话里边有几个参数? 如果x=1则执行a 如果是单计算的话只有1这一个参数。 但如果是人工智能的话有如下几个参数, 逻辑门,如果则 未知数,符号x 常量,1 函数,a 很多复杂的智能都可以如此拆分
    发表于 06-10 01:05

    【EASY EAI Nano人工智能开发套件试用体验】开箱视频及核心板介绍

    今天收到了EASY EAI Nano人工智能开发套件,趁着热乎给大家做个开箱视频,希望各位看官对EASY EAI Nano人工智能开发套件有一个简单的了解,后面也对核心板做一些介绍
    发表于 05-31 19:45

    【EASY EAI Nano人工智能开发套件试用体验】EASY EAI Nano人工智能开发套件开箱及硬件初体验

    今天收到了EASY EAI Nano人工智能开发套件,为大家做个开箱及硬件评测。 打开快递包装,引入眼帘的是一个设计精美蓝色的大盒子,在盒子里有EASY EAI Nano人工智能开发板、天线、喇叭
    发表于 05-31 19:18