0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

嵌入式芯片中神经网络加速器如何支持本地化AI处理

454398 来源:ST社区 作者:ST社区 2022-12-20 18:25 次阅读

来源:ST社区

GPU和NNA(神经网络加速器)正在迅速成为AI应用的关键要素。随着不同企业开始挖掘神经网络在各种任务(比如自然语言处理、图片分类)中的潜力,集成人工智能元素的产品数量正在稳步的增长。与此同时,对于这些任务的处理也正在从传统的云端架构转移到设备本身上来,嵌入式芯片中集成了专用的神经网络加速器,可支持本地化AI处理。例如先进的驾驶辅助系统(ADAS)能够实时监控前方道路,还有集成语音识别类功能的消费电子产品,比如虚拟助理。基于神经网络的AI应用正在多个细分市场不断扩大。

Imagination公司的业务是为芯片设计提供必要的内核组件,我们在嵌入式图形处理器(GPU)和神经网络加速器(NNA)技术方面闻名,我们将这些技术授权给世界领先的芯片供应商。他们的产品被广泛应用在多个产品和服务中,因此Imagination在市场上占有着独特的位置,我们使得整个生态系统都能够参与到AI的发展中来。

不可否认,AI在很多应用中都是至关重要的,但是也有很多的挑战。其中之一就是协调好终端设备和云服务器之间的处理负载,将AI处理操作放在最佳的位置来完成。例如在消费者终端设备上进行本地化AI语音识别;对于“唤醒”指令或其他简单指令,因为本地设备无法存储庞大的知识数据库,要利用这些数据就必须在云服务器中实现很大一部分AI处理操作。目前的情况是很多市场上销售的产品都带有AI功能,但实际上它们只是在本地进行简单的模式匹配和识别,然后依赖云服务器完成进一步的AI处理。

这种情况将会逐渐改变,随着芯片工艺技术变得更加普遍,嵌入式神经网络加速器(NNA)将会变得几乎和CPU一样无处不在,这为在终端设备中提高人工智能处理能力创造了机会。例如我们希望看到智能安防摄像头能够熟练的监控特定事件,不再局限于简单的录像,使用终端设备AI功能来处理识别视野内的一些特征,比如道路上的车辆或人群中的面孔。这也会衍生一些其他功能,比如确定车辆的制造商和型号、或者是某些人获得授权。输入结果可能不是可识别的视频内容,可能只是描述这些结果的原始数据。将人工智能嵌入到安防摄像头中甚至可以减少不靠谱情况的发生从而降低成本,因为摄像头内的AI功能可以识别正常行为与可疑行为之间的区别。

虽然人工智能的应用数量在不断增加,但这并不意味着集成神经网特性的单个SoC是所有应用场景的发展方向。如果我们考虑让人工智能涉及大部分细分市场,由于使用该技术的产品在加工要求上有很大的不同,自然会出现多样化。分散的市场很难与通用的应用处理器一起结合使用,例如那些集成了NNA器件和GPU的处理器,事实上,“一刀切”的方式并不总是适用的。

虽然一些市场为SoC供应商提供了大量的机会,比如智能手机、汽车ADAS等,但是许多以使用AI为目标的市场需求量并不是很大。值得注意的是,一些产品可能需要人工智能来进行语音处理或图像识别,但并非两者都需要:智能照明系统供应商不太可能使用最初为智能手机而设计的SoC,仅仅是为了将人工智能引入到其应用中,这并不符合成本效益。解决这个问题的方法是创建专门的人工智能芯片,与主应用处理器一起作为配套芯片使用,这些器件可以承担原来由主应用处理器上的NNA核心来处理的AI任务,这具有明显的优势:SoC供应商可以提供一系列具有不同性能水平的终端AI器件;此外,OEM厂商还可以根据他们的期望在特定应用中处理AI任务,提供多个选项来适当的扩展或缩减产品解决方案。

那么人工智能市场将走向何方?我预计人们对人工智能的兴趣和需求都将继续增长,事实上,支撑这一目标的技术不断变得成熟。相反,几乎可以肯定的是,人们会意识到人工智能并不是解决所有问题的答案,炒作现象可能会有所减弱,许多公司也会转移注意力。他们将会利用人工智能的潜力来增强系统的能力,但是人工智能未必是这些系统的运行核心。

更进一步说,真正的人工智能——机器拥有意识,能够基于认知推理作出决策——这还需要10年或更长的时间。这意味着云互连在未来很多年都将至关重要,它不仅能提供必要的大规模并行计算资源(可能是通过量子机器),还能提供巨大的数据存储,人工智能依靠这些数据来理解周围的世界。更高带宽的通信技术有望在2019年问世,尤其是5G和802.11ax标准,因此相信云AI架构和互连带宽都将相应扩大。

PowerVR Series2NX架构

对于真正处于前沿的人工智能,我们需要构想出创新的方法来提高晶体管在硅片上的封装密度,同时使其既具有通过学习获得知识的能力又具备所需的推理技能,从而设计全新的SoC器件。

Imagination公司希望为芯片供应商提供关键的核心技术,从而构建世界领先的人工智能解决方案。PowerVR GPU提供了高性能的GPU计算能力,用于处理AI中的可视化操作,比如图像识别和排序、手势识别驱动接口以及实时视频分析等。PowerVR NNA(神经网络加速器)是任何前沿人工智能解决方案的核心,为高级推理和边缘数据处理提供必要的硬件加速。我们的GPU和NNA能够为高性能的AI处理提供一切必要的技术并使硅芯片获得优势。

人工智能的未来正在变得清晰…但是当它完成某些任务花费的时间比我们预期的时间要长时大家不要感到惊讶。

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    447

    文章

    47788

    浏览量

    409119
  • 嵌入式
    +关注

    关注

    4982

    文章

    18281

    浏览量

    288432
收藏 人收藏

    评论

    相关推荐

    用STM32CubeMX导入神经网络,aiRun的indata应该定义成什么格式呢?

    我用STM32CubeMX中的X-Cube-AI, 导入了一个处理时间序列的神经网络网络input是2维数据,如(10,256,2) 在Generate code之后,在main.
    发表于 03-13 07:38

    NanoEdge AI的技术原理、应用场景及优势

    能耗并提高数据安全性。本文将对 NanoEdge AI 的技术原理、应用场景以及优势进行综述。 1、技术原理 NanoEdge AI 的核心技术包括边缘计算、神经网络压缩和低功耗硬件设计。边缘计算
    发表于 03-12 08:09

    【国产FPGA+OMAPL138开发板体验】(原创)5.FPGA的AI加速源代码

    使用硬件加速器来进一步提升性能。我写的这个简化的代码只是为了帮助理解FPGA如何可能参与AI计算的过程。在实际的FPGA AI加速项目中,还需要考虑如何有效地
    发表于 02-12 16:18

    PCIe在AI加速器中的作用

    从线上购物时的“猜你喜欢”、到高等级自动驾驶汽车上的实时交通信息接收,再到在线视频游戏,所有的这些都离不开人工智能(AI加速器AI加速器是一种高性能的并行计算设备,旨在高效
    的头像 发表于 11-18 10:36 1226次阅读
    PCIe在<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>中的作用

    AI加速器架构设计与实现》+第2章的阅读概括

    。 从名字上就能看出来书里可能覆盖的内容是和CNN加速器有关的内容了。 作者在前言里说这本书主要讨论Inference(推理)的过程,“主要讨论神经网络硬件,尤其是芯片设计层面的内容”。这本书的第2,3章
    发表于 09-17 16:39

    AI加速器架构设计与实现》+学习和一些思考

    AI加速器设计的学习和一些思考 致谢 首先感谢电子发烧友论坛提供的书籍 然后为该书打个广告吧,32K的幅面,非常小巧方便,全彩印刷,质量精良,很有质感。 前言 设计神经网络首先要考虑的几个问题
    发表于 09-16 11:11

    FPGA加速神经网络的矩阵乘法

    电子发烧友网站提供《FPGA加速神经网络的矩阵乘法.pdf》资料免费下载
    发表于 09-15 14:50 0次下载
    FPGA<b class='flag-5'>加速</b><b class='flag-5'>神经网络</b>的矩阵乘法

    AI加速器架构设计与实现》+第一章卷积神经网络观后感

    AI加速器架构设计与实现》+第一章卷积神经网络观感    在本书的引言中也提到“一图胜千言”,读完第一章节后,对其进行了一些归纳(如图1),第一章对常见的神经网络结构进行了介绍,
    发表于 09-11 20:34

    人工神经网络和bp神经网络的区别

    人工神经网络和bp神经网络的区别  人工神经网络(Artificial Neural Network, ANN)是一种模仿人脑神经元网络结构和功能的计算模型,也被称为
    的头像 发表于 08-22 16:45 3434次阅读

    卷积神经网络和深度神经网络的优缺点 卷积神经网络和深度神经网络的区别

    深度神经网络是一种基于神经网络的机器学习算法,其主要特点是由多层神经元构成,可以根据数据自动调整神经元之间的权重,从而实现对大规模数据进行预测和分类。卷积
    发表于 08-21 17:07 2328次阅读

    卷积神经网络的介绍 什么是卷积神经网络算法

    的深度学习算法。CNN模型最早被提出是为了处理图像,其模型结构中包含卷积层、池化层和全连接层等关键技术,经过多个卷积层和池化层的处理,CNN可以提取出图像中的特征信息,从而对图像进行分类。 一、卷积神经网络算法 卷积
    的头像 发表于 08-21 16:49 1426次阅读

    卷积神经网络的基本原理 卷积神经网络发展 卷积神经网络三大特点

    中最重要的神经网络之一。它是一种由多个卷积层和池化层(也可称为下采样层)组成的神经网络。CNN 的基本思想是以图像为输入,通过网络的卷积、下采样和全连接等多个层次的处理,将图像的高层抽
    的头像 发表于 08-21 16:49 1442次阅读

    卷积神经网络的应用 卷积神经网络通常用来处理什么

    卷积神经网络的应用 卷积神经网络通常用来处理什么 卷积神经网络(Convolutional Neural Network,简称CNN)是一种在神经网
    的头像 发表于 08-21 16:41 3994次阅读

    如何使用TensorFlow将神经网络模型部署到移动或嵌入式设备上

    有很多方法可以将经过训练的神经网络模型部署到移动或嵌入式设备上。不同的框架在各种平台上支持Arm,包括TensorFlow、PyTorch、Caffe2、MxNet和CNTK,如Android
    发表于 08-02 06:43

    【书籍评测活动NO.18】 AI加速器架构设计与实现

    创新的芯片架构设计,这正面临新的挑战。本书从神经网络的分析出发,总结和提炼了AI加速器架构设计中常见的难点,以及解决这些难点的技术、方法和思想,是A
    发表于 07-28 10:50