0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

边缘AI广泛应用推动并行计算崛起及创新GPU渗透率快速提升

互联网资讯 来源:Dennis Laudick 作者:Dennis Laudick 2025-06-11 14:57 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

作者: Imagination Technologies 的产品管理副总裁 Dennis Laudick

人工智能AI)在边缘计算领域正经历着突飞猛进的高速发展,根据IDC的最新数据,全球边缘计算支出将从2024年的2280亿美元快速增长到2028年的3780亿美元*。这种需求的增长速度,以及在智能制造、智慧城市等数十个行业中越来越多的应用场景中出现的渗透率快速提升,也为执行计算任务的硬件设计以及面对多样化场景的模型迭代的速度带来了挑战。

AI不仅是一项技术突破,它更是软件编写、理解和执行方式的一次永久性变革。传统的软件开发基于确定性逻辑和大多是顺序执行的流程,而如今这一范式正在让位于概率模型、训练行为以及数据驱动的计算。这并不是一时的潮流。AI 代表了计算机科学的一次根本性、不可逆的转变 —— 从基于规则的编程,迈向自适应的、基于学习的系统,这些系统正逐步被集成到越来越广泛的计算问题与能力中。

这一转变也对硬件提出了相应的变革需求。在AI架构和算法不断演进(并将持续演进)的时代,为狭窄定义任务而打造的高度专用芯片的旧模式已不再适用。为了满足不断变化的AI需求(尤其是在边缘侧),我们需要具备与工作负载同样动态、适应能力强的计算平台。

这正是通用并行处理器(即GPU)成为边缘AI未来的关键所在,并开始取代专门的处理器,如神经网络处理器(NPU)。这不仅仅是性能上的考量——它关乎灵活性、可扩展性,以及与未来软件发展趋势的同步。

Makimoto波动理论与“灵活性”的回归

要理解这一转变,我们只需回顾“Makimoto波动理论”:这是由日本工程师牧本次雄(Tsugio Makimoto)提出的一个概念,描述了计算产业在不同阶段不断在“标准化”与“定制化”之间摆动的趋势,其背后是市场需求、技术创新和软件复杂性等因素的持续变化。

(Makimoto波动理论展现了计算产业在“灵活性”与“专用性”之间的历史摆动。而当前AI的发展轨迹,标志着计算正再次呈现出在“灵活性”和“通用平台”之间的摆动。)

这一模型与AI硬件的演变过程高度契合。在AI发展的早期阶段,工作负载较为明确且稳定,此时采用NPU等固定功能加速器是合理的。这类处理器对特定任务(例如使用CNN进行图像分类或目标检测)进行了深度优化。

但如今AI已进入高速演进阶段。我们已走出简单、静态模型的时代,迈入混合网络、Transformer架构、基础模型和持续创新的浪潮之中。为去年AI打造的定制硬件,根本无法跟上当今的发展节奏。

正如我们在本文一开始所介绍的那样,当一个行业不得不去面对超高的增长率,以及每天都在不断出现的新应用场景和为此而快速迭代的模型,使我们再次站在了“Makimoto拐点”上——从专用硬件,回归到可扩展、可适配的通用计算平台。

AI是一个并行计算问题,而非专用计算问题

AI的本质在于并行计算。深度学习严重依赖并发操作——矩阵运算、张量乘法、向量计算——这些正是GPU天生擅长的工作负载。能够同时渲染数百万像素的架构,如今正好可以处理数百万神经元的激活。

如今的通用GPU早已不仅仅用于图形处理。它们拥有可编程管线、计算着色器,以及日益增强的AI中心化设计,不仅能加速传统负载,也能支持新兴的AI工作负载,是边缘AI中强大而灵活的计算引擎。

相比之下,像NPU这样的专用处理器则难以应对持续的变革。它们对特定操作进行了优化,而当AI领域快速演进时,这些芯片便迅速被淘汰。显然,面对这种全新的软件范式,我们需要的是一种通用的、并行的、灵活的硬件平台—— GPU。

为什么通用平台在边缘侧更具优势

边缘AI不仅需要性能,更需要适应性、可重用性与较长的生命周期;随着AI处理器的设计越来越复杂,且随着市场规模的扩大会吸引更多的玩家,大家都争相采用更先进的工艺来实现性价比和功耗的优化,以及在生态建设方面的大量花费,使得每个芯片项目的投入正变得越来越高。针对这些技术经济学挑战,现代GPU等通用并行处理器在这几个方面均具备明显优势:

灵活性:可编程,能够支持新的模型类型而无需更换硬件;

可扩展性:可适配从物联网IoT传感器到智能摄像头再到自动驾驶汽车等各种边缘设备;

软件生态成熟:拥有丰富的开源工具与开发标准(如OpenCL、LiteRT和TVM);

可持续性:延长产品生命周期,减少不断重新设计芯片的需求。

简而言之,GPU的通用并行计算从架构层面就为AI的持续演进而设计。而GPU领域内的本身创新也在快速验证这一趋势,例如Imagination在不久前发布的E系列GPU就具有突破性的高效并行处理架构,在提供卓越图形性能的同时,针对人工智能工作负载,其 INT8/FP8 算力可在 2 到 200 TOPS 之间扩展。

展望未来

尽管有越来越多的证据说明GPU具备的优势,市场仍然习惯将AI加速与NPU或定制芯片划等号。但正如图形行业早年发现,固定功能的图形管线无法跟上游戏创新的节奏;如今AI行业也发现:固定硬件无法匹配快速变化的软件需求。

是时候重新教育整个生态了。边缘AI的未来不属于那些高度优化但功能狭窄的芯片,而是属于可编程的、可适配的并行计算平台,它们能与智能软件共同成长并扩展。诸如Imagination全新的E系列GPU,它为未来的边缘应用提供了一种通用且可编程的解决方案,涵盖图形渲染、桌面和智能手机等领域,可实现自然语言处理、工业计算机视觉以及自动驾驶等应用。

几十年前,Makimoto就洞察了这一趋势。如今,我们正在亲身经历他的远见——顺应着通用性和灵活性的浪潮前行。GPU不再是追赶者,它已处于领先位置。

关于作者

Dennis Laudick担任Imagination Technologies的产品管理副总裁。在加入公司之前,Dennis曾在Arm任职超过13年,担任汽车、AI和GPU相关业务的产品与市场领导职务。在此之前,他还曾在多家半导体与OEM巨头企业担任高级管理岗位。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5099

    浏览量

    134447
  • 边缘AI
    +关注

    关注

    0

    文章

    201

    浏览量

    5842
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    为啥 AI 计算速度这么惊人?—— 聊聊 GPU、内存与并行计算

    提到AI,大家常说它“算得快”,其实是指AI能在眨眼间处理海量数据。可它为啥有这本事?答案就藏在“GPU+高速内存+并行计算”这trio(组合)里。咱们可以把
    的头像 发表于 12-05 14:35 219次阅读
    为啥 <b class='flag-5'>AI</b> <b class='flag-5'>计算</b>速度这么惊人?—— 聊聊 <b class='flag-5'>GPU</b>、内存与<b class='flag-5'>并行计算</b>

    一文看懂AI大模型的并行训练方式(DP、PP、TP、EP)

    大家都知道,AI计算(尤其是模型训练和推理),主要以并行计算为主。AI计算中涉及到的很多具体算法(例如矩阵相乘、卷积、循环层、梯度运算等),
    的头像 发表于 11-28 08:33 828次阅读
    一文看懂<b class='flag-5'>AI</b>大模型的<b class='flag-5'>并行</b>训练方式(DP、PP、TP、EP)

    神经网络的并行计算与加速技术

    问题。因此,并行计算与加速技术在神经网络研究和应用中变得至关重要,它们能够显著提升神经网络的性能和效率,满足实际应用中对快速响应和大规模数据处理的需求。神经网络并行
    的头像 发表于 09-17 13:31 884次阅读
    神经网络的<b class='flag-5'>并行计算</b>与加速技术

    Axelera AI边缘计算加速智能创新解决方案

    。AxeleraAI凭借其卓越的AI加速解决方案,致力于协助企业快速部署高性能、低功耗的边缘计算平台,广泛应用于智慧城市、智慧交通及工业检测
    的头像 发表于 07-17 11:00 1094次阅读
    Axelera <b class='flag-5'>AI</b>:<b class='flag-5'>边缘</b><b class='flag-5'>计算</b>加速智能<b class='flag-5'>创新</b>解决方案

    AI芯片:加速人工智能计算的专用硬件引擎

    人工智能(AI)的快速发展离不开高性能计算硬件的支持,而传统CPU由于架构限制,难以高效处理AI任务中的大规模并行计算需求。因此,专为
    的头像 发表于 07-09 15:59 895次阅读

    并行计算崛起:为什么GPU将在边缘AI中取代NPU

    。这并不是一时的潮流。AI代表了计算机科学的一次根本性、不可逆的转变——从基于规则的编程,迈向自适应的、基于学习的系统,这些系统正逐步被集成到越来越广泛计算问题与
    的头像 发表于 06-06 14:55 504次阅读
    <b class='flag-5'>并行计算</b>的<b class='flag-5'>崛起</b>:为什么<b class='flag-5'>GPU</b>将在<b class='flag-5'>边缘</b><b class='flag-5'>AI</b>中取代NPU

    Imagination与澎峰科技携手推动GPU+AI解决方案,共拓计算生态

    的繁荣发展。 本次合作将聚焦以下两大方向: 联合打造面向AI应用的高性能计算解决方案   依托 Imagination GPU并行计算和能效
    发表于 05-21 09:40 1108次阅读

    读懂极易并行计算:定义、挑战与解决方案

    GPU经常与人工智能同时提及,其中一个重要原因在于AI与3D图形处理本质上属于同一类问题——它们都适用极易并行计算。什么是极易并行计算?极易并行计算
    的头像 发表于 04-17 09:11 648次阅读
    读懂极易<b class='flag-5'>并行计算</b>:定义、挑战与解决方案

    DeepSeek推动AI算力需求:800G光模块的关键作用

    数据传输速率,减少带宽瓶颈,成为数据中心和AI集群架构优化的重点。光模块速率的跃升不仅提升了传输效率,也为大规模并行计算任务提供了必要的带宽保障。 800G光模块如何解决DeepSeek大规模算力
    发表于 03-25 12:00

    AI边缘计算爆发增长,紫光国芯LPDDR助力低延迟应用创新 | 贞光科技代理品牌

    引言近年来,随着物联网(IoT)设备的激增和人工智能(AI)的广泛应用边缘计算作为一种新兴的计算模式,正迅速
    的头像 发表于 03-10 17:12 910次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>边缘</b><b class='flag-5'>计算</b>爆发增长,紫光国芯LPDDR助力低延迟应用<b class='flag-5'>创新</b> | 贞光科技代理品牌

    FPGA+AI王炸组合如何重塑未来世界:看看DeepSeek东方神秘力量如何预测......

    。• AI加速器的开发:FPGA被广泛用于开发专为AI算法优化的加速器,例如深度学习推理加速器。这种定制化的硬件设计能够显著提升AI应用的效
    发表于 03-03 11:21

    GPU加速计算平台的优势

    传统的CPU虽然在日常计算任务中表现出色,但在面对大规模并行计算需求时,其性能往往捉襟见肘。而GPU加速计算平台凭借其独特的优势,吸引了行业内人士的
    的头像 发表于 02-23 16:16 756次阅读

    AI赋能边缘网关:开启智能时代的新蓝海

    ,可完成电力负荷精准预测、故障快速定位。据市场研究机构预测,到2025年,AI边缘网关市场规模将突破千亿美元,年复合增长超过60%。 产业新机遇已经显现。对于硬件制造商,需要开发更高
    发表于 02-15 11:41

    xgboost的并行计算原理

    在大数据时代,机器学习算法需要处理的数据量日益增长。为了提高数据处理的效率,许多算法都开始支持并行计算。XGBoost作为一种高效的梯度提升树算法,其并行计算能力是其受欢迎的原因
    的头像 发表于 01-19 11:17 1570次阅读

    直播预告|RISC-V 并行计算技术沙龙,邀您与国内外专家共探 AI 时代无限可能

    的发展趋势备受瞩目。而并行计算作为提升AI性能的关键技术,与RISC-V的结合为行业注入了全新的可能与动力。为了推动RISC-V在人工智能、科学计算
    的头像 发表于 01-14 09:52 934次阅读
    直播预告|RISC-V <b class='flag-5'>并行计算</b>技术沙龙,邀您与国内外专家共探 <b class='flag-5'>AI</b> 时代无限可能