0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

FPGA还是GPU?AI主芯片将如何选择

FPGA设计论坛 来源:未知 2023-02-05 22:35 次阅读

尽管模仿人类思想和想法的软件算法人工智能的基础,但硬件也是一个重要组成部分,这就是现场可编程门阵列 (FPGA) 和图形处理单元(GPU)发挥重要作用的地方。

人工智能 (AI) 是指能够以与人类相同的方式做出决策的非人类机器智能。这包括沉思、适应能力、意图能力和判断力。机器视觉机器人自动化、认知计算、机器学习计算机视觉都是人工智能市场的应用。人工智能正在汽车、消费电子、媒体和娱乐以及半导体等多个行业领域迅速获得关注,预示着下一次伟大的技术变革。

半导体预计将在未来几年持续增长。随着全球对机器学习设备的需求不断增长,许多属于 EDA电子设计自动化)、显卡、游戏、多媒体行业的主要市场参与者正在投资提供创新的高速计算处理器。虽然人工智能主要基于模仿人类思想和想法的软件算法,但硬件也是一个重要组成部分。现场可编程门阵列 (FPGA) 和图形处理单元 (GPU) 是大多数 AI 操作的两种主要硬件解决方案。据先行研究组预测,2021年全球人工智能硬件市场规模为104.1亿美元,预计到2030年将达到892.2亿美元,2022-2030年复合年增长率为26.96%


FPGA 和 GPU 概述

FPGA 概述

具有可重新编程逻辑门的硬件电路称为现场可编程门阵列 (FPGA)。当芯片在现场使用时,用户可以通过覆盖配置来设计独特的电路。这与不能重新编程的标准芯片形成对比。使用 FPGA 芯片,您可以构建从简单的逻辑门到多核芯片组的任何东西。FPGA 的使用非常流行,其中内部电路是必不可少的,并且预计会发生变化。FPGA 应用涵盖 ASIC 原型设计、汽车、多媒体、消费电子产品以及更多领域。根据应用要求,可选择低端、中端或高端 FPGA 配置。Lattice 半导体的 ECP3 和 ECP5 系列、Xilinx 的 Artix-7/Kintex-7 系列和 Intel 的 Stratix 系列是一些流行的低功耗和低设计密度的 FPGA 设计。

逻辑块是使用具有有限输入的查找表 (LUT) 构建的,并使用基本存储器(例如 SRAM 或闪存)来构建以存储布尔函数。每个 LUT 都链接到一个多路复用器和一个触发器寄存器以支持时序电路。同样,许多 LUT 可用于创建复杂的功能。

FPGA 更适合嵌入式应用,并且比 CPU 和 GPU 使用的功率更低。这些电路不受 GPU 等设计的限制,可用于定制数据类型。此外,FPGA 的可编程性使得修改它们变得更加简单。


使用 FPGA 的优势

高效节能

借助 FPGA,设计人员可以精确调整硬件以满足应用程序的要求。凭借其低功耗能力,可以最大限度地降低 AI 和 ML 应用程序的整体功耗。这可以延长设备的使用寿命并降低培训的总体成本。

易于灵活

FPGA 为处理 AI/ML 应用程序提供了可编程性的灵活性。可以根据需要对一个单独的块或整个块进行编程。

减少延迟

FPGA 擅长处理短语并减少延迟。减少延迟是指计算系统以最小延迟响应的能力。这在视频监控、视频预处理和后处理以及文本识别等实时数据处理应用中至关重要,在这些应用中,每一微秒都至关重要。因为它们在没有操作系统的裸机环境中运行,所以 FPGA 和 ASIC 比 GPU 更快。

并行处理

FPGA 的操作和能源效率由于它们能够同时执行多项任务甚至指定设备的特定部分用于特定功能而得到显提高。少量分布式内存包含在 FPGA 特殊架构的结构中,使它们更接近处理器。

GPU 概述

图形处理单元 (GPU) 的最初目的是创建计算机图形和虚拟现实环境,这些环境依赖于复杂的计算和浮点功能来渲染几何对象。没有它们,现代人工智能基础设施将不完整,并且非常适合深度学习过程。

人工智能需求大量数据可供研究和学习以取得成功。要运行人工智能算法并移动大量数据,需要大量的计算能力。GPU 可以执行这些任务,因为它们的创建是为了快速处理生成图形和视频所需的大量数据。它们在机器学习和人工智能应用中的广泛使用部分归功于它们的高计算能力。

GPU 可以同时处理多项计算。因此,可以分布式训练程序,从而大大加快机器学习活动。使用 GPU,您可以添加多个资源需求较低的内核,而不会影响性能或功率。市场上有各种类型的 GPU,通常分为以下几类,例如数据中心 GPU、消费级 GPU 和企业级 GPU。


使用 GPU 的优势

内存带宽

GPU 具有良好的内存带宽,因此在深度学习应用程序中它们往往可以快速执行计算。在大型数据集上训练模型时,GPU 消耗的内存更少。凭借高达 750GB 的内存带宽,它们可以真正加速 AI 算法的快速处理。

多核

通常,GPU 由许多可以组合在一起的处理器集群组成。这使得可以极大地提高系统的处理能力,特别是对于具有并行数据输入、卷积神经网络 (CNN) 和 ML 算法训练的 AI 应用程序。

灵活性

由于 GPU 的并行能力,您可以将 GPU 分组到集群中并在这些集群之间分配作业。另一种选择是使用具有专用集群的单个 GPU 来训练特定算法。具有高数据吞吐量的 GPU 可以并行地对许多数据点执行相同的操作,从而使它们能够以无与伦比的速度处理大量数据。

数据集大小

对于模型训练,AI 算法需要大量数据集,这会导致内存密集型计算。GPU 是高效处理具有许多大于 100GB 的数据点的数据集的最佳选择之一。自并行处理开始以来,它们提供了有效处理基本相同或非结构化数据所需的原始计算能力。


运行 AI 应用程序的两个主要硬件选择是 FPGA 和 GPU。尽管 GPU 可以处理 AI 和深度学习所需的海量数据,但它们在能效、热问题、耐用性以及使用新 AI 算法更新应用程序的能力方面存在局限性。FPGA 为神经网络和 ML 应用程序提供了显着优势。这些包括易于 AI 算法更新、可用性、耐用性和能源效率。

此外,在为 FPGA 创建软件方面取得了重大进展,这使得编译和编程变得更加简单。为了让您的 AI 应用程序取得成功,您必须调查您的硬件可能性。正如所说,在确定行动方案之前,请仔细权衡您的选择。





扫描二维码获取

更多精彩

FPGA设计论坛





欢迎关注至芯科技

至芯官网:www.zxopen.com

至芯科技技术论坛:www.fpgaw.com

至芯科技淘宝网址:

https://zxopen.taobao.com

至芯科技FPGA初级课程(B站):

https://space.bilibili.com/521850676

至芯科技FPGA在线课程(腾讯课堂):

https://zxopenbj.ke.qq.com/

至芯科技-FPGA 交流群(QQ):282124839

更多资料下载欢迎注册http://www.fpgaw.com

扫码加微信回复加群

邀请您加入FPGA学习交流群




欢迎加入至芯科技FPGA微信学习交流群,这里有一群优秀的FPGA工程师、学生、老师、这里FPGA技术交流学习氛围浓厚、相互分享、相互帮助、叫上小伙伴一起加入吧!


原文标题:FPGA还是GPU?AI主芯片将如何选择

文章出处:【微信公众号:FPGA设计论坛】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1606

    文章

    21348

    浏览量

    594231

原文标题:FPGA还是GPU?AI主芯片将如何选择

文章出处:【微信号:gh_9d70b445f494,微信公众号:FPGA设计论坛】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    中高端FPGA如何选择

    随着国产FPGA的崛起,中低端产品中,很多国产FPGA都是不错的选择,性价比很高。高端FPGA中,往往还是以AMD和Intel为主,但最近这
    发表于 04-24 15:09

    FPGA芯片你了解多少?

    的缺点。 FPGA和CPU、GPU、ASIC的芯片等核心区别是其底层逻辑运算单元的连线及逻辑布局未固化,用户可通过 EDA 软件对逻辑单元和开关阵列编程,进行功能配置,从而去实现特定功能的集成电路
    发表于 04-17 11:13

    AI服务器异构计算深度解读

    AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要
    发表于 04-12 12:27 193次阅读
    <b class='flag-5'>AI</b>服务器异构计算深度解读

    FPGA在深度学习应用中或将取代GPU

    对神经网络进行任何更改,也不需要学习任何新工具。不过你可以保留你的 GPU 用于训练。” Zebra 提供了将深度学习代码转换为 FPGA 硬件指令的抽象层 AI 硬件前景
    发表于 03-21 15:19

    到底什么是ASIC和FPGA

    ASIC和FPGA的区别,还有它们和CPU、GPU之间的区别。 ASIC和FPGA,本质上都是芯片。AISC是全定制芯片,功能写死,没办法
    发表于 01-23 19:08

    FPGA、ASIC、GPU谁是最合适的AI芯片

    CPU、GPU遵循的是冯·诺依曼体系结构,指令要经过存储、译码、执行等步骤,共享内存在使用时,要经历仲裁和缓存。 而FPGA和ASIC并不是冯·诺依曼架构(是哈佛架构)。以FPGA为例,它本质上是无指令、无需共享内存的体系结
    发表于 01-06 11:20 650次阅读
    <b class='flag-5'>FPGA</b>、ASIC、<b class='flag-5'>GPU</b>谁是最合适的<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>?

    ASIC和GPU,谁才是AI计算的最优解?

    电子发烧友网报道(文/周凯扬)随着AI计算开始有着风头盖过通用计算开始,不少芯片厂商都将其视为下一轮技术革新。CPU、GPUFPGA和ASIC纷纷投入到这轮
    的头像 发表于 12-03 08:31 1546次阅读
    ASIC和<b class='flag-5'>GPU</b>,谁才是<b class='flag-5'>AI</b>计算的最优解?

    大模型算驱动AI服务器行业报告

    AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要
    发表于 11-28 09:18 124次阅读
    大模型算驱动<b class='flag-5'>AI</b>服务器行业报告

    FPGA和CPU、GPU有什么区别?为什么越来越重要?

    ,在数据中心高性能计算及 AI 训练中,CPU 这一“主角”的重要性下降,而以往的“配角们”,即 GPUFPGA、TPU、DPU 等的加速器的重要性在上升。 图3:MLP网络本质是并行的乘法和累加
    发表于 11-09 14:09

    ai芯片gpu芯片有什么区别?

    ai芯片gpu芯片有什么区别? AI芯片GPU
    的头像 发表于 08-08 18:02 4376次阅读

    AI芯片GPU芯片的区别

    人工智能(AI芯片和图形处理单元(GPU芯片都是现代计算机中使用的重要组件。虽然两者可以用于处理大规模数据,但它们的设计目的是不同的。在本文中,我们将深入探讨两种
    的头像 发表于 08-07 17:42 4610次阅读

    AI芯片的应用场景和发展趋势

    AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要分为
    的头像 发表于 08-06 16:18 1093次阅读

    AI芯片的优势和主要挑战 AI芯片和存储芯片的区别

      AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要
    的头像 发表于 08-03 17:19 2516次阅读

    省成本还是省时间,AI计算上的GPU与ASIC之选

    电子发烧友网报道(文/周凯扬)随着AI计算逐渐蚕食通用计算的份额,数据中心的硬件市场已经开始出现了微妙的变化。最抢手的目前已经成了GPU,反观CPU、ASIC和FPGA等硬件,开始成为陪衬。但高昂
    的头像 发表于 07-17 00:01 1019次阅读
    省成本<b class='flag-5'>还是</b>省时间,<b class='flag-5'>AI</b>计算上的<b class='flag-5'>GPU</b>与ASIC之选

    安防领域典型AI芯片有三种,为何偏偏是FPGA称雄?

    和话语权的决定性因素之一 。 FPGA在安防应用中独具优势 从技术方面来看, AI芯片的典型代表包括GPUFPGA和ASIC三种 。不过,
    的头像 发表于 06-17 17:30 696次阅读