0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

为什么跑AI往往用GPU而不是CPU?

颖脉Imgtec 2024-04-24 08:27 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

今天,人工智能AI)已经在各个领域遍地开花,无论身处哪个行业,使用AI来帮助获取业务洞察,并建立竞争优势,已经非常常见。不过一个有趣的现象是,在用户采购AI基础设施时,几乎所有厂商都会强调其支持GPU的能力,并且支持的GPU数量越多,就代表其AI性能越强大。那么问题来了,为什么是GPU而不是CPU

GPU难道不是我们日常使用的电脑里的,用于提高游戏性能或设计图形所需的图形处理单元吗?为什么在AI方面,我们计算机里的“大脑”(CPU)反而很少提及呢?


一、为什么AI需要GPU?

要了解为什么GPU更适合AI,我们就要从GPU的诞生说起。图形处理单元 (GPU) 最初开发用于生成计算机图形,是具有专用内存的专用处理器,通常执行渲染图形所需的浮点运算。从GPU的诞生我们可以看到,GPU是专为计算机开发的,旨在提高它们处理3D图形的能力。这种特性决定了GPU仅用于参与任务或应用程序代码的某些部分,而不是整个过程。因此,GPU通常有较多的内核,用于处理频繁且彼此独立的简单计算。而CPU又被称为通用处理器,因为它几乎可以运行任何类型的计算。不过CPU通常只有几个内核,即使是服务器专用的CPU也不过几十个内核,与GPU动辄成百上千个内核相比完全不是一个数量级。但这并不意味着CPU不够好,CPU内核虽然更少,但比数千个GPU内核更强大。例如同时处理操作系统、处理电子表格、播放高清视频、提取大型zip文件,这些是GPU根本无法完成的。说到这里,你该明白GPU和CPU的区别了吧。总结一下,CPU最擅长按顺序处理单个更复杂的计算,而GPU更擅长并行处理多个但更简单的计算。至于为什么AI需要的GPU,答案也很明显了,因为训练AI模型的过程需要同时对所有数据样本执行几乎相同的操作,而GPU的架构设计具有快速同时处理多个任务所需的并行处理能力。

不过要注意的是,尽管GPU非常适合于AI模型算法,但并不意味着GPU在所有情况下都适用:

1、规模较小的训练CPU完全可以执行训练AI模型所需的算法,特别是如果数据集规模相对较小,可以使用CPU避免高昂的前期成本。2、非并行算法本质上,GPU是为图形处理而设计的,因此当某个AI模型算法并不是并行算法时,CPU就是更好的选择。某些涉及逻辑或密集内存要求的AI算法也是CPU的强项。


二、GPU与AI计算

现在的AI计算,都在抢购GPU。英伟达也因此赚得盆满钵满,为什么会这样呢?原因很简单,因为AI计算和图形计算一样,也包含了大量的高强度并行计算任务。深度学习是目前最主流的人工智能算法。从过程来看,包括训练(training)和推理(inference)两个环节。训练环节,通过投喂大量的数据,训练出一个复杂的神经网络模型。在推理环节,利用训练好的模型,使用大量数据推理出各种结论。训练环节由于涉及海量的训练数据,以及复杂的深度神经网络结构,所以需要的计算规模非常庞大,对芯片的算力性能要求比较高。而推理环节,对简单指定的重复计算和低延迟的要求很高。它们所采用的具体算法,包括矩阵相乘、卷积、循环层、梯度运算等,分解为大量并行任务,可以有效缩短任务完成的时间。GPU凭借自身强悍的并行计算能力以及内存带宽,可以很好地应对训练和推理任务,已经成为业界在深度学习领域的首选解决方案。

目前,大部分企业的AI训练,采用的是英伟达的GPU集群。如果进行合理优化,一块GPU卡,可以提供相当于数十甚至上百台CPU服务器的算力。


三、AI与算力

AI与算力是当今社会科技进步的两大驱动力,它们的融合与创新正推动着各个行业的发展,引领我们进入一个全新的智能时代。算力,作为AI技术的基石,为AI提供了强大的计算能力和数据处理能力。随着技术的不断进步,算力的提升使得AI模型能够处理更大规模的数据,实现更复杂的算法,从而提升AI的性能和准确度。算力的发展,使得AI在图像识别、语音识别、自然语言处理等领域取得了巨大的突破,为我们的生活带来了诸多便利。而AI的崛起,也反过来促进了算力的发展。随着AI应用领域的不断拓展,对于算力的需求也日益增长。为了满足这种需求,人们不断研发新的芯片、算法和架构,推动算力的不断提升。同时,AI技术的发展也催生了一系列新的应用场景,如自动驾驶智能家居、智能医疗等,这些应用都需要强大的算力支持,从而推动了算力技术的不断突破和创新。AI与算力的结合,正在推动各行各业的发展。在制造业中,AI与算力技术可以帮助企业实现智能制造、智能供应链等,提高生产效率和产品质量。在医疗领域,AI与算力技术可以帮助医生实现精准诊断、个性化治疗等,提高医疗水平和患者满意度。在金融领域,AI与算力技术可以帮助银行、保险等机构实现风险评估、智能投顾等,提高金融服务的智能化水平。总之,AI与算力是当今科技进步的重要驱动力,它们的融合与创新正推动着我们进入一个全新的智能时代。在未来的发展中,我们需要不断关注技术趋势、加强人才培养、加强监管和规范,推动AI与算力技术的健康发展,为人类创造更加美好的未来。

本文来源:渲大师

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5271

    浏览量

    136070
  • AI
    AI
    +关注

    关注

    91

    文章

    41115

    浏览量

    302607
  • 人工智能
    +关注

    关注

    1820

    文章

    50325

    浏览量

    266967
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    国产来袭!2nm AI GPU

    电子发烧友网报道(文/黄山明)在当前,GPU已经从最初的游戏图形渲染工具,逐渐演变为智能时代的核心。简单来说,如果没有GPU,今天我们所熟知的ChatGPT、自动驾驶、AI绘画等技术根本无法在合理
    的头像 发表于 04-15 07:02 8377次阅读

    内存要取代GPU?HBM之父警告:以英伟达GPU为核心的架构要被颠覆

    主板和CPU成为了主角。   最近“HBM之父”金正浩教授也语出惊人,提出未来内存将成为主角:“GPUCPU将会被集成到内存(HBM和HBF)里,沦为内存中的一个组件”。   倒反
    的头像 发表于 04-03 09:54 7119次阅读
    内存要取代<b class='flag-5'>GPU</b>?HBM之父警告:以英伟达<b class='flag-5'>GPU</b>为核心的架构要被颠覆

    AI智能体推动芯片需求从GPU扩展至CPU

    4月20日有消息称,摩根士丹利分析指出,随着AI自主性不断提升,其对芯片的需求正从图形处理器(GPU)向中央处理器(CPU)扩展,这一趋势将重塑数据中心建设模式,并促使投资范畴从当前主导AI
    的头像 发表于 04-21 10:55 1831次阅读

    基于openEuler平台的CPUGPU与FPGA异构加速实战

    随着 AI、视频处理、加密和高性能计算需求的增长,单一 CPU 已无法满足低延迟、高吞吐量的计算需求。openEuler 作为面向企业和云端的开源操作系统,在 多样算力支持 方面表现出色,能够高效调度 CPU
    的头像 发表于 04-08 11:02 710次阅读
    基于openEuler平台的<b class='flag-5'>CPU</b>、<b class='flag-5'>GPU</b>与FPGA异构加速实战

    GPU不是AI的唯一解:英伟达Groq LPU证明,推理赛道需要“另一条腿”

    大会上,英伟达CEO黄仁勋正式发布了Vera Rubin AI超级计算机平台。这一平台的问世,不仅标志着英伟达战略从单一的GPU主导转向涵盖CPUGPU与LPU等技术的全栈“
    的头像 发表于 03-24 11:27 6040次阅读
    <b class='flag-5'>GPU</b><b class='flag-5'>不是</b><b class='flag-5'>AI</b>的唯一解:英伟达<b class='flag-5'>用</b>Groq LPU证明,推理赛道需要“另一条腿”

    使用NORDIC AI的好处

    Nordic 的 Edge AI 主要有以下几个好处(基于官方资料总结): 极低功耗、延长电池寿命 在本地运行 AI,减少无线传输次数,而无线收发是最耗电的部分。设备只需上传“结果/事件”,
    发表于 01-31 23:16

    瑞芯微SOC智能视觉AI处理器

    RK3568B2: 一款性能均衡、接口丰富的中高端AIoT应用处理器,是RK3568的优化版本,主打稳定与可靠性。CPU/GPU: 延续RK3568的4核A55 + G52 GPU架构,性能可靠
    发表于 12-19 13:44

    AI硬件全景解析:CPUGPU、NPU、TPU的差异化之路,一文看懂!​

    CPU作为“通用基石”,支撑所有设备的基础运行;GPU凭借并行算力,成为AI训练与图形处理的“主力”;TPU在Google生态中深耕云端大模型训练;NPU则让AI从“云端”走向“身边”
    的头像 发表于 12-17 17:13 2265次阅读
    <b class='flag-5'>AI</b>硬件全景解析:<b class='flag-5'>CPU</b>、<b class='flag-5'>GPU</b>、NPU、TPU的差异化之路,一文看懂!​

    【RK3568 NPU实战】别再闲置你的NPU!手把手带你迅为资料通Android AI检测Demo,附完整流程与效果

    【RK3568 NPU实战】别再闲置你的NPU!手把手带你迅为资料通Android AI检测Demo,附完整流程与效果
    的头像 发表于 11-10 15:58 1249次阅读
    【RK3568 NPU实战】别再闲置你的NPU!手把手带你<b class='flag-5'>用</b>迅为资料<b class='flag-5'>跑</b>通Android <b class='flag-5'>AI</b>检测Demo,附完整流程与效果

    AI模型的配置AI模型该怎么做?

    STM32可以AI,这个AI模型怎么搞,知识盲区
    发表于 10-14 07:14

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战

    的工作吗? 从书中也了解到了AI芯片都有哪些?像CPUGPU、FPGA、ASIC都是AI芯片。 其他的还是知道的,FPGA属于AI芯片这个
    发表于 09-12 16:07

    CPUGPU,渲染技术如何重塑游戏、影视与设计?

    渲染技术是计算机图形学的核心内容之一,它是将三维场景转换为二维图像的过程。渲染技术一直在不断演进,从最初的CPU渲染到后来的GPU渲染,性能和质量都有了显著提升。从CPUGPU:技术
    的头像 发表于 09-01 12:16 1127次阅读
    从 <b class='flag-5'>CPU</b> 到 <b class='flag-5'>GPU</b>,渲染技术如何重塑游戏、影视与设计?

    AI的未来,属于那些既能写代码,又能焊电路的“双栖人才”

    我们要强调的是,AI不是取代工程师,而是 成就工程师的最大杠杆 。你不必是Transformer作者,但你可以把Llama压到你的STM32上;你不必是GPU架构师,但你可以RK35
    发表于 07-30 16:15

    【VisionFive 2单板计算机试用体验】1、开箱初体验(刷系统+静态IP设置+GPU分测评)

    GPU分 首先用clinfo命令查看一下GPU,当然也可以在debain-system setting-about界面看到BXE-4-32GPU benchmark软件一般
    发表于 07-09 21:50

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】+NVlink技术从应用到原理

    前言 【「算力芯片 | 高性能 CPU/GPU/NPU 微架构分析」书中的芯片知识是比较接近当前的顶尖芯片水平的,同时包含了芯片架构的基础知识,但该部分知识比较晦涩难懂,或许是由于我一直从事的事芯片
    发表于 06-18 19:31