0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

嵌入式芯片中神经网络加速器如何支持本地化AI处理

454398 来源:ST社区 作者:ST社区 2022-12-20 18:25 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

来源:ST社区

GPU和NNA(神经网络加速器)正在迅速成为AI应用的关键要素。随着不同企业开始挖掘神经网络在各种任务(比如自然语言处理、图片分类)中的潜力,集成人工智能元素的产品数量正在稳步的增长。与此同时,对于这些任务的处理也正在从传统的云端架构转移到设备本身上来,嵌入式芯片中集成了专用的神经网络加速器,可支持本地化AI处理。例如先进的驾驶辅助系统(ADAS)能够实时监控前方道路,还有集成语音识别类功能的消费电子产品,比如虚拟助理。基于神经网络的AI应用正在多个细分市场不断扩大。

Imagination公司的业务是为芯片设计提供必要的内核组件,我们在嵌入式图形处理器(GPU)和神经网络加速器(NNA)技术方面闻名,我们将这些技术授权给世界领先的芯片供应商。他们的产品被广泛应用在多个产品和服务中,因此Imagination在市场上占有着独特的位置,我们使得整个生态系统都能够参与到AI的发展中来。

不可否认,AI在很多应用中都是至关重要的,但是也有很多的挑战。其中之一就是协调好终端设备和云服务器之间的处理负载,将AI处理操作放在最佳的位置来完成。例如在消费者终端设备上进行本地化AI语音识别;对于“唤醒”指令或其他简单指令,因为本地设备无法存储庞大的知识数据库,要利用这些数据就必须在云服务器中实现很大一部分AI处理操作。目前的情况是很多市场上销售的产品都带有AI功能,但实际上它们只是在本地进行简单的模式匹配和识别,然后依赖云服务器完成进一步的AI处理。

这种情况将会逐渐改变,随着芯片工艺技术变得更加普遍,嵌入式神经网络加速器(NNA)将会变得几乎和CPU一样无处不在,这为在终端设备中提高人工智能处理能力创造了机会。例如我们希望看到智能安防摄像头能够熟练的监控特定事件,不再局限于简单的录像,使用终端设备AI功能来处理识别视野内的一些特征,比如道路上的车辆或人群中的面孔。这也会衍生一些其他功能,比如确定车辆的制造商和型号、或者是某些人获得授权。输入结果可能不是可识别的视频内容,可能只是描述这些结果的原始数据。将人工智能嵌入到安防摄像头中甚至可以减少不靠谱情况的发生从而降低成本,因为摄像头内的AI功能可以识别正常行为与可疑行为之间的区别。

虽然人工智能的应用数量在不断增加,但这并不意味着集成神经网特性的单个SoC是所有应用场景的发展方向。如果我们考虑让人工智能涉及大部分细分市场,由于使用该技术的产品在加工要求上有很大的不同,自然会出现多样化。分散的市场很难与通用的应用处理器一起结合使用,例如那些集成了NNA器件和GPU的处理器,事实上,“一刀切”的方式并不总是适用的。

虽然一些市场为SoC供应商提供了大量的机会,比如智能手机、汽车ADAS等,但是许多以使用AI为目标的市场需求量并不是很大。值得注意的是,一些产品可能需要人工智能来进行语音处理或图像识别,但并非两者都需要:智能照明系统供应商不太可能使用最初为智能手机而设计的SoC,仅仅是为了将人工智能引入到其应用中,这并不符合成本效益。解决这个问题的方法是创建专门的人工智能芯片,与主应用处理器一起作为配套芯片使用,这些器件可以承担原来由主应用处理器上的NNA核心来处理的AI任务,这具有明显的优势:SoC供应商可以提供一系列具有不同性能水平的终端AI器件;此外,OEM厂商还可以根据他们的期望在特定应用中处理AI任务,提供多个选项来适当的扩展或缩减产品解决方案。

那么人工智能市场将走向何方?我预计人们对人工智能的兴趣和需求都将继续增长,事实上,支撑这一目标的技术不断变得成熟。相反,几乎可以肯定的是,人们会意识到人工智能并不是解决所有问题的答案,炒作现象可能会有所减弱,许多公司也会转移注意力。他们将会利用人工智能的潜力来增强系统的能力,但是人工智能未必是这些系统的运行核心。

更进一步说,真正的人工智能——机器拥有意识,能够基于认知推理作出决策——这还需要10年或更长的时间。这意味着云互连在未来很多年都将至关重要,它不仅能提供必要的大规模并行计算资源(可能是通过量子机器),还能提供巨大的数据存储,人工智能依靠这些数据来理解周围的世界。更高带宽的通信技术有望在2019年问世,尤其是5G和802.11ax标准,因此相信云AI架构和互连带宽都将相应扩大。

PowerVR Series2NX架构

对于真正处于前沿的人工智能,我们需要构想出创新的方法来提高晶体管在硅片上的封装密度,同时使其既具有通过学习获得知识的能力又具备所需的推理技能,从而设计全新的SoC器件。

Imagination公司希望为芯片供应商提供关键的核心技术,从而构建世界领先的人工智能解决方案。PowerVR GPU提供了高性能的GPU计算能力,用于处理AI中的可视化操作,比如图像识别和排序、手势识别驱动接口以及实时视频分析等。PowerVR NNA(神经网络加速器)是任何前沿人工智能解决方案的核心,为高级推理和边缘数据处理提供必要的硬件加速。我们的GPU和NNA能够为高性能的AI处理提供一切必要的技术并使硅芯片获得优势。

人工智能的未来正在变得清晰…但是当它完成某些任务花费的时间比我们预期的时间要长时大家不要感到惊讶。

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    463

    文章

    54494

    浏览量

    469905
  • 嵌入式
    +关注

    关注

    5210

    文章

    20692

    浏览量

    337593
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    RZ/V2M:助力嵌入式设备的Vision AI高性能芯片

    概述 RZ/V2M芯片集成了AI专用加速器(DRP - AI)和4K兼容的图像信号处理器(ISP),具备强大的实时人类和
    的头像 发表于 04-01 13:50 221次阅读

    探索MAX78002:低功耗卷积神经网络加速器AI微控制

    探索MAX78002:低功耗卷积神经网络加速器AI微控制 在当今的科技领域,人工智能(AI)的发展日新月异,对计算能力的需求也与日俱增。
    的头像 发表于 03-27 17:10 187次阅读

    边缘 AI 加速的 Arm® Cortex®‑M0+ MCU 如何为电子产品注入更强智能

    关键要点 · 集成神经处理单元 (NPU) 的德 TI 微控制 (MCU) 可为边缘 AI 提供硬件加速,帮助设计人员在功耗受限、成本敏感
    的头像 发表于 03-25 09:22 326次阅读
    边缘 <b class='flag-5'>AI</b> <b class='flag-5'>加速</b>的 Arm® Cortex®‑M0+ MCU 如何为电子产品注入更强智能

    嵌入式AI开发必看:杜绝幻觉,才是工业级IDE的核心底气

    ”与“工业安全”的对立,为嵌入式开发提供“高效+可靠”的全新路径,推动AI技术从实验室走向工业产线,加速企业数字转型与智能升级。 ▌降低
    发表于 03-18 13:49

    面向嵌入式部署的神经网络优化:模型压缩深度解析

    更多参数、每次推理需要更多算术运算,使其难以部署在嵌入式硬件上。 对于嵌入式系统而言,资源极其有限。内存空间受限,因此在桌面或云平台上轻松运行的模型可能无法放入芯片内的闪存。此外,较高的运算量(MACs/FLOPs)和推理延
    的头像 发表于 02-24 15:37 5507次阅读
    面向<b class='flag-5'>嵌入式</b>部署的<b class='flag-5'>神经网络</b>优化:模型压缩深度解析

    AMD重磅打造边缘AI,CES2026官宣这颗嵌入式处理器

    电子发烧友网报道(文/黄晶晶)数据显示,边缘AI嵌入式处理器市场将随 AIoT、工业 4.0、自动驾驶等领域渗透加速增长,预计 2026-2030 年复合增长率维持 20% 以上。AB
    的头像 发表于 01-07 15:19 1.1w次阅读
    AMD重磅打造边缘<b class='flag-5'>AI</b>,CES2026官宣这颗<b class='flag-5'>嵌入式</b><b class='flag-5'>处理器</b>!

    重磅合作!Quintauris 联手 SiFive,加速 RISC-V 在嵌入式AI 领域落地

    (ADAS); 嵌入式平台的 AI 与机器学习加速器; 工业物联网与自动系统(开放标准架构的优势能充分发挥)。 对咱们开发者来说,这波合作最大的好处就是能拿到集成
    发表于 12-18 12:01

    CNN卷积神经网络设计原理及在MCU200T上仿真测试

    CNN算法简介 我们硬件加速器的模型为Lenet-5的变型,网络粗略分共有7层,细分共有13层。包括卷积,最大池层,激活层,扁平层,全连接层。下面是各层作用介绍: 卷积层:提取特征。“不全
    发表于 10-29 07:49

    NMSIS神经网络库使用介绍

    NMSIS NN 软件库是一组高效的神经网络内核,旨在最大限度地提高 Nuclei N 处理器内核上的神经网络的性能并最​​大限度地减少其内存占用。 该库分为多个功能,每个功能涵盖特定类别
    发表于 10-29 06:08

    SNN加速器内部神经元数据连接方式

    的数量级,而且生物轴突的延迟和神经元的时间常数比数字电路的传播和转换延迟要大得多,AER 的工作方式和神经网络的特点相吻合,所以受生物启发的神经形态处理器中的NoC或SNN
    发表于 10-24 07:34

    CICC2033神经网络部署相关操作

    读取。接下来需要使用扩展指令,完成神经网络的部署,此处仅对第一层卷积+池的部署进行说明,其余层与之类似。 1.使用 Custom_Dtrans 指令,将权重数据、输入数据导入硬件加速器内。对于权重
    发表于 10-20 08:00

    【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片

    AI芯片不仅包括深度学细AI加速器,还有另外一个主要列别:类脑芯片。类脑芯片是模拟人脑
    发表于 09-17 16:43

    神经网络的并行计算与加速技术

    问题。因此,并行计算与加速技术在神经网络研究和应用中变得至关重要,它们能够显著提升神经网络的性能和效率,满足实际应用中对快速响应和大规模数据处理的需求。
    的头像 发表于 09-17 13:31 1342次阅读
    <b class='flag-5'>神经网络</b>的并行计算与<b class='flag-5'>加速</b>技术

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    Transformer和视觉Transformer模型。 ViTA是一种高效数据流AI加速器,用于在边缘设备上部署计算密集型视觉Transformer模型。 2、射频神经网络 2.1线性射频模拟
    发表于 09-12 17:30

    Andes晶心科技推出新一代深度学习加速器

    高效能、低功耗 32/64 位 RISC-V 处理器核与 AI 加速解决方案的领导供货商—Andes晶心科技(Andes Technology)今日正式发表最新深度学习加速器 Ande
    的头像 发表于 08-20 17:43 3161次阅读