0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌发明用于神经网络任务的AI芯片

我快闭嘴 来源:爱集微 作者:嘉德IPR 2020-11-18 09:54 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

谷歌发明的用于神经网络任务的AI芯片,通过引入标准人工智能运算管芯,使得AI芯片可以应对多种复杂的网络结构,从而降低了芯片设计时长以及减少了设计的工作量。

自从谷歌公司的AlphaGo机器人战胜人类围棋之后,人工智能便一直活跃在人们的视野之中,与各种人工智能方法对应的是AI芯片。而在18年的Next云计算大会上,谷歌披露了自家抢攻IoT终端运算的战略武器,其中最引人关注的就是Edge TPU芯片的发布。

据悉,谷歌不仅为在自己的数据中心开发人工智能芯片,还打算在将其设计的Edge TPU用在其他公司生产的产品中。这种人工智能芯片在物联网应用以及智能终端设备中具有巨大的使用空间。

在AI芯片设计方面,随着神经网络的使用在人工智能计算领域中迅速增长,专用集成电路ASIC)的专用计算机的使用已经被用于处理神经网络,虽然这些方法可以用于设计AI芯片,但是随着神经网络的普及和针对其使用神经网络的任务范围的增长,较长的设计时间和不可忽略的非重复性工程成本将会加剧。

为此,谷歌在18年9月21日申请了一项名为“用于使用具有多个相同的管芯的单片封装处理神经网络任务的设备和机制”的发明专利(申请号:201880033593.8),申请人为谷歌有限责任公司。

根据该专利目前公开的资料,让我们一起来看看谷歌的这项专利技术吧。

谷歌发明用于神经网络任务的AI芯片

如上图,为该专利中发明的用于处理神经网络任务的系统,该系统主要包括主处理单元101和人工智能处理单元102,这种系统可以应用在服务器和物联网(IoT)设备中。AIPU 102是主处理单元101的协处理器,主处理单元通过通信路径104a和104b耦合到AIPU。

AIPU包括多个人工智能处理管芯(103a-103f),这些管芯的结构都是相同的,可以用来处理神经网络相关的计算任务,这个示意图中展示了6个这种处理管芯,而其数目可以基于由主要计算设备处理的神经网络模型的层数而变化,也正是这种标准处理管芯的引入,使得定制ASIC的挑战得以减轻。

也就是说,需要多少处理管芯是由要处理的任务所决定的,例如当这种神经网络处理器应用在智能恒温器上时,由于智能恒温器的神经网络模型的层数可能小于数据中心的计算设备,因为处理的任务会更加简单,因此其需要的管芯数也会更少。这样有利于节省硬件开销,避免不必要的算力浪费,下面我们来这个处于核心地位的管芯的内部逻辑吧。

谷歌发明用于神经网络任务的AI芯片

如上图,为人工智能处理单元的人工智能处理管芯的功能逻辑示意图,其中主要包括主机接口单元、缓冲器、控制器、缓冲器、计算单元以及输入输出(I/O)模块。可以看到在模块的四个角均有输入输出模块,因为输入输出模块的引脚被配置为双向的,使得I/O模块可以从源单元接收数据并向目的单元发送数据。

主机接口单元经过I/O引脚从控制器中接收数据,并经过I/O引脚将数据发送到主处理单元控制器。缓冲器中存储着数据,控制器负责从缓冲器中存取数据,这些数据包括各种指令数据以及神经网络的待处理数据,具体应用这种管芯的方法如下图所示。

谷歌发明用于神经网络任务的AI芯片

在人工智能处理管芯的方法流程图中可以看到,系统首先会接收输入数据以配置AIPU,这些配置数据也会传递到AIPU中的每个AIPD上,不同的神经网络处理任务会发送不同的数据,只有在管芯依据所要进行的任务正确配置的前提下,才可以正确的完成任务。

例如,如果由AIPU处理的神经网络的第一层需要第一组权重值而同时第二层需要另外一组第二组权重值时,则关联于神经网络的第一层相关联的配置参数将会于第二层进行区分。这样的设计方案也是由于神经网络每层的结构都可以不相同,为了灵活的应对层出不穷的神经网络结构。

在当AIPU接收到数据信号后,基于配置数据来配置每一个AIPD,最后将确认信号发送到主处理器,以等待任务的开始。

谷歌发明用于神经网络任务的AI芯片

最后,我们来看看这种基于神经网络模型来处理神经网络任务的流程图,首先将于神经网络相关的初始数据发送到AIPU,AIPU配置好后会执行相关层的计算任务,同时将计算结果发送到第二AIPD,最后将计算的结果从AIPU发送到主处理器中,并将神经网络的处理结果发送到用户。

以上就是谷歌发明的用于神经网络任务的设备及方法,通过引入标准人工智能运算管芯,使得AI芯片可以从容的应对不同复杂程度的神经网络以及数量变化不定的卷积核等参数,这样就可以跨多个产品使用标准管芯,从而使得芯片设计时长和非重复性工作都可以得以更有效的分摊。

关于嘉德

深圳市嘉德知识产权服务有限公司由曾在华为等世界500强企业工作多年的知识产权专家、律师、专利代理人组成,熟悉中欧美知识产权法律理论和实务,在全球知识产权申请、布局、诉讼、许可谈判、交易、运营、标准专利协同创造、专利池建设、展会知识产权、跨境电商知识产权、知识产权海关保护等方面拥有丰富的经验。
责任编辑:tzh

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    463

    文章

    54377

    浏览量

    468987
  • 谷歌
    +关注

    关注

    27

    文章

    6257

    浏览量

    111942
  • AI
    AI
    +关注

    关注

    91

    文章

    40936

    浏览量

    302515
  • 人工智能
    +关注

    关注

    1819

    文章

    50290

    浏览量

    266826
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    神经网络的初步认识

    日常生活中的智能应用都离不开深度学习,而深度学习则依赖于神经网络的实现。什么是神经网络神经网络的核心思想是模仿生物神经系统的结构,特别是大脑中神经
    的头像 发表于 12-17 15:05 446次阅读
    <b class='flag-5'>神经网络</b>的初步认识

    NMSIS神经网络库使用介绍

    :   神经网络卷积函数   神经网络激活函数   全连接层函数   神经网络池化函数   Softmax 函数   神经网络支持功能   该库具有
    发表于 10-29 06:08

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    模型。 我们使用MNIST数据集,训练一个卷积神经网络(CNN)模型,用于手写数字识别。一旦模型被训练并保存,就可以用于对新图像进行推理和预测。要使用生成的模型进行推理,可以按照以下步骤进行操作: 1.
    发表于 10-22 07:03

    CICC2033神经网络部署相关操作

    在完成神经网络量化后,需要将神经网络部署到硬件加速器上。首先需要将所有权重数据以及输入数据导入到存储器内。 在仿真环境下,可将其存于一个文件,并在 Verilog 代码中通过 readmemh 函数
    发表于 10-20 08:00

    液态神经网络(LNN):时间连续性与动态适应性的神经网络

    1.算法简介液态神经网络(LiquidNeuralNetworks,LNN)是一种新型的神经网络架构,其设计理念借鉴自生物神经系统,特别是秀丽隐杆线虫的神经结构,尽管这种微生物的
    的头像 发表于 09-28 10:03 1518次阅读
    液态<b class='flag-5'>神经网络</b>(LNN):时间连续性与动态适应性的<b class='flag-5'>神经网络</b>

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    AI芯片不仅包括深度学细AI加速器,还有另外一个主要列别:类脑芯片。类脑芯片是模拟人脑神经网络
    发表于 09-17 16:43

    神经网络的并行计算与加速技术

    随着人工智能技术的飞速发展,神经网络在众多领域展现出了巨大的潜力和广泛的应用前景。然而,神经网络模型的复杂度和规模也在不断增加,这使得传统的串行计算方式面临着巨大的挑战,如计算速度慢、训练时间长等
    的头像 发表于 09-17 13:31 1278次阅读
    <b class='flag-5'>神经网络</b>的并行计算与加速技术

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的未来:提升算力还是智力

    。 耦合振荡计算与传统的计算的区别: 3、神经符号计算 神经符号极端是指将基于神经网络的方法与基于符号知识的方法结合的AI计算。 神经符号计
    发表于 09-14 14:04

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    连接定义了神经网络的拓扑结构。 不同神经网络的DNN: 一、基于大模型的AI芯片 1、Transformer 模型与引擎 1.1 Transformer 模型概述 Transforme
    发表于 09-12 17:30

    MediaTek从芯片到应用全方位支持端侧AI

    NPU 是专为神经网络设计的 AI 处理单元,可为各种 AI 任务提供更强大的算力支持。
    的头像 发表于 08-16 10:01 2431次阅读

    无刷电机小波神经网络转子位置检测方法的研究

    摘要:论文通过对无刷电机数学模型的推导,得出转角:与三相相电压之间存在映射关系,因此构建了一个以三相相电压为输人,转角为输出的小波神经网络来实现转角预测,并采用改进遗传算法来训练网络结构与参数,借助
    发表于 06-25 13:06

    神经网络专家系统在电机故障诊断中的应用

    摘要:针对传统专家系统不能进行自学习、自适应的问题,本文提出了基于种经网络专家系统的并步电机故障诊断方法。本文将小波神经网络和专家系统相结合,充分发挥了二者故障诊断的优点,很大程度上降低了对电机
    发表于 06-16 22:09

    神经网络RAS在异步电机转速估计中的仿真研究

    众多方法中,由于其结构简单,稳定性好广泛受到人们的重视,且已被用于产品开发。但是MRAS仍存在在低速区速度估计精度下降和对电动机参数变化非常敏感的问题。本文利用神经网络的特点,使估计更为简单、快速
    发表于 06-16 21:54

    基于FPGA搭建神经网络的步骤解析

    本文的目的是在一个神经网络已经通过python或者MATLAB训练好的神经网络模型,将训练好的模型的权重和偏置文件以TXT文件格式导出,然后通过python程序将txt文件转化为coe文件,(coe
    的头像 发表于 06-03 15:51 1484次阅读
    基于FPGA搭建<b class='flag-5'>神经网络</b>的步骤解析

    AI神经网络降噪算法在语音通话产品中的应用优势与前景分析

    随着人工智能技术的快速发展,AI神经网络降噪算法在语音通话产品中的应用正逐步取代传统降噪技术,成为提升语音质量的关键解决方案。相比传统DSP(数字信号处理)降噪,AI降噪具有更强的环境适应能力、更高
    的头像 发表于 05-16 17:07 1830次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>神经网络</b>降噪算法在语音通话产品中的应用优势与前景分析