0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

嵌入式芯片中神经网络加速器如何支持本地化AI处理

454398 来源:ST社区 作者:ST社区 2022-12-20 18:25 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

来源:ST社区

GPU和NNA(神经网络加速器)正在迅速成为AI应用的关键要素。随着不同企业开始挖掘神经网络在各种任务(比如自然语言处理、图片分类)中的潜力,集成人工智能元素的产品数量正在稳步的增长。与此同时,对于这些任务的处理也正在从传统的云端架构转移到设备本身上来,嵌入式芯片中集成了专用的神经网络加速器,可支持本地化AI处理。例如先进的驾驶辅助系统(ADAS)能够实时监控前方道路,还有集成语音识别类功能的消费电子产品,比如虚拟助理。基于神经网络的AI应用正在多个细分市场不断扩大。

Imagination公司的业务是为芯片设计提供必要的内核组件,我们在嵌入式图形处理器(GPU)和神经网络加速器(NNA)技术方面闻名,我们将这些技术授权给世界领先的芯片供应商。他们的产品被广泛应用在多个产品和服务中,因此Imagination在市场上占有着独特的位置,我们使得整个生态系统都能够参与到AI的发展中来。

不可否认,AI在很多应用中都是至关重要的,但是也有很多的挑战。其中之一就是协调好终端设备和云服务器之间的处理负载,将AI处理操作放在最佳的位置来完成。例如在消费者终端设备上进行本地化AI语音识别;对于“唤醒”指令或其他简单指令,因为本地设备无法存储庞大的知识数据库,要利用这些数据就必须在云服务器中实现很大一部分AI处理操作。目前的情况是很多市场上销售的产品都带有AI功能,但实际上它们只是在本地进行简单的模式匹配和识别,然后依赖云服务器完成进一步的AI处理。

这种情况将会逐渐改变,随着芯片工艺技术变得更加普遍,嵌入式神经网络加速器(NNA)将会变得几乎和CPU一样无处不在,这为在终端设备中提高人工智能处理能力创造了机会。例如我们希望看到智能安防摄像头能够熟练的监控特定事件,不再局限于简单的录像,使用终端设备AI功能来处理识别视野内的一些特征,比如道路上的车辆或人群中的面孔。这也会衍生一些其他功能,比如确定车辆的制造商和型号、或者是某些人获得授权。输入结果可能不是可识别的视频内容,可能只是描述这些结果的原始数据。将人工智能嵌入到安防摄像头中甚至可以减少不靠谱情况的发生从而降低成本,因为摄像头内的AI功能可以识别正常行为与可疑行为之间的区别。

虽然人工智能的应用数量在不断增加,但这并不意味着集成神经网特性的单个SoC是所有应用场景的发展方向。如果我们考虑让人工智能涉及大部分细分市场,由于使用该技术的产品在加工要求上有很大的不同,自然会出现多样化。分散的市场很难与通用的应用处理器一起结合使用,例如那些集成了NNA器件和GPU的处理器,事实上,“一刀切”的方式并不总是适用的。

虽然一些市场为SoC供应商提供了大量的机会,比如智能手机、汽车ADAS等,但是许多以使用AI为目标的市场需求量并不是很大。值得注意的是,一些产品可能需要人工智能来进行语音处理或图像识别,但并非两者都需要:智能照明系统供应商不太可能使用最初为智能手机而设计的SoC,仅仅是为了将人工智能引入到其应用中,这并不符合成本效益。解决这个问题的方法是创建专门的人工智能芯片,与主应用处理器一起作为配套芯片使用,这些器件可以承担原来由主应用处理器上的NNA核心来处理的AI任务,这具有明显的优势:SoC供应商可以提供一系列具有不同性能水平的终端AI器件;此外,OEM厂商还可以根据他们的期望在特定应用中处理AI任务,提供多个选项来适当的扩展或缩减产品解决方案。

那么人工智能市场将走向何方?我预计人们对人工智能的兴趣和需求都将继续增长,事实上,支撑这一目标的技术不断变得成熟。相反,几乎可以肯定的是,人们会意识到人工智能并不是解决所有问题的答案,炒作现象可能会有所减弱,许多公司也会转移注意力。他们将会利用人工智能的潜力来增强系统的能力,但是人工智能未必是这些系统的运行核心。

更进一步说,真正的人工智能——机器拥有意识,能够基于认知推理作出决策——这还需要10年或更长的时间。这意味着云互连在未来很多年都将至关重要,它不仅能提供必要的大规模并行计算资源(可能是通过量子机器),还能提供巨大的数据存储,人工智能依靠这些数据来理解周围的世界。更高带宽的通信技术有望在2019年问世,尤其是5G和802.11ax标准,因此相信云AI架构和互连带宽都将相应扩大。

PowerVR Series2NX架构

对于真正处于前沿的人工智能,我们需要构想出创新的方法来提高晶体管在硅片上的封装密度,同时使其既具有通过学习获得知识的能力又具备所需的推理技能,从而设计全新的SoC器件。

Imagination公司希望为芯片供应商提供关键的核心技术,从而构建世界领先的人工智能解决方案。PowerVR GPU提供了高性能的GPU计算能力,用于处理AI中的可视化操作,比如图像识别和排序、手势识别驱动接口以及实时视频分析等。PowerVR NNA(神经网络加速器)是任何前沿人工智能解决方案的核心,为高级推理和边缘数据处理提供必要的硬件加速。我们的GPU和NNA能够为高性能的AI处理提供一切必要的技术并使硅芯片获得优势。

人工智能的未来正在变得清晰…但是当它完成某些任务花费的时间比我们预期的时间要长时大家不要感到惊讶。

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53534

    浏览量

    459105
  • 嵌入式
    +关注

    关注

    5186

    文章

    20146

    浏览量

    328816
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NMSIS神经网络库使用介绍

    NMSIS NN 软件库是一组高效的神经网络内核,旨在最大限度地提高 Nuclei N 处理器内核上的神经网络的性能并最​​大限度地减少其内存占用。 该库分为多个功能,每个功能涵盖特定类别
    发表于 10-29 06:08

    SNN加速器内部神经元数据连接方式

    的数量级,而且生物轴突的延迟和神经元的时间常数比数字电路的传播和转换延迟要大得多,AER 的工作方式和神经网络的特点相吻合,所以受生物启发的神经形态处理器中的NoC或SNN
    发表于 10-24 07:34

    CICC2033神经网络部署相关操作

    读取。接下来需要使用扩展指令,完成神经网络的部署,此处仅对第一层卷积+池的部署进行说明,其余层与之类似。 1.使用 Custom_Dtrans 指令,将权重数据、输入数据导入硬件加速器内。对于权重
    发表于 10-20 08:00

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    AI芯片不仅包括深度学细AI加速器,还有另外一个主要列别:类脑芯片。类脑芯片是模拟人脑
    发表于 09-17 16:43

    神经网络的并行计算与加速技术

    问题。因此,并行计算与加速技术在神经网络研究和应用中变得至关重要,它们能够显著提升神经网络的性能和效率,满足实际应用中对快速响应和大规模数据处理的需求。
    的头像 发表于 09-17 13:31 886次阅读
    <b class='flag-5'>神经网络</b>的并行计算与<b class='flag-5'>加速</b>技术

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    Transformer和视觉Transformer模型。 ViTA是一种高效数据流AI加速器,用于在边缘设备上部署计算密集型视觉Transformer模型。 2、射频神经网络 2.1线性射频模拟
    发表于 09-12 17:30

    Andes晶心科技推出新一代深度学习加速器

    高效能、低功耗 32/64 位 RISC-V 处理器核与 AI 加速解决方案的领导供货商—Andes晶心科技(Andes Technology)今日正式发表最新深度学习加速器 Ande
    的头像 发表于 08-20 17:43 1841次阅读

    MAX78000采用超低功耗卷积神经网络加速度计的人工智能微控制技术手册

    的Maxim超低功耗微控制相结合。通过这款基于硬件的卷积神经网络(CNN)加速器,即使是电池供电的应用也可执行AI推理,同时功耗仅为微焦耳级。
    的头像 发表于 05-08 11:42 714次阅读
    MAX78000采用超低功耗卷积<b class='flag-5'>神经网络</b><b class='flag-5'>加速</b>度计的人工智能微控制<b class='flag-5'>器</b>技术手册

    MAX78002带有低功耗卷积神经网络加速器的人工智能微控制技术手册

    的Maxim超低功耗微控制相结合。通过这款基于硬件的卷积神经网络(CNN)加速器,即使是电池供电的应用也可执行AI推理,同时功耗仅为微焦耳级。
    的头像 发表于 05-08 10:16 600次阅读
    MAX78002带有低功耗卷积<b class='flag-5'>神经网络</b><b class='flag-5'>加速器</b>的人工智能微控制<b class='flag-5'>器</b>技术手册

    ETAS全新的嵌入式AI解决方案

    “将训练后的AI神经网络模型,自动化生成安全且高效的C代码,用于嵌入式系统” ,近日ETAS携全新的智能化工具Embedded AI Coder亮相2025上海国际车展。
    的头像 发表于 05-07 11:43 1578次阅读
    ETAS全新的<b class='flag-5'>嵌入式</b><b class='flag-5'>AI</b>解决方案

    【「芯片通识课:一本书读懂芯片技术」阅读体验】从deepseek看今天芯片发展

    的: 神经网络处理器(NPU)是一种模仿人脑神经网络的电路系统,是实现人工智能中神经网络计算的专用处理器,主要用于人工智能深度学习模型的
    发表于 04-02 17:25

    Banana Pi 发布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 计算与嵌入式开发

    RZ/V2N——近期在嵌入式世界2025上新发布,为 AI 计算、嵌入式系统及工自动提供强大支持。这款全新的计算平台旨在满足开发者和企业用
    发表于 03-19 17:54

    嵌入式AI加速器DRP-AI 详细介绍

    深度神经网络中使用的人工智能(AI)已经为IT领域提供了新的价值。虽然很多人期望用AI来实现嵌入式应用,但AI
    的头像 发表于 03-15 16:13 1523次阅读
    <b class='flag-5'>嵌入式</b><b class='flag-5'>AI</b><b class='flag-5'>加速器</b>DRP-<b class='flag-5'>AI</b> 详细介绍

    BP神经网络与卷积神经网络的比较

    多层。 每一层都由若干个神经元构成,神经元之间通过权重连接。信号在神经网络中是前向传播的,而误差是反向传播的。 卷积神经网络(CNN) : CNN主要由卷积层、池
    的头像 发表于 02-12 15:53 1307次阅读

    BP神经网络与深度学习的关系

    ),是一种多层前馈神经网络,它通过反向传播算法进行训练。BP神经网络由输入层、一个或多个隐藏层和输出层组成,通过逐层递减的方式调整网络权重,目的是最小
    的头像 发表于 02-12 15:15 1340次阅读