0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI芯片,就是GPU吗?

晶扬电子 来源:晶扬电子 2023-06-27 17:08 次阅读

最近,随着人工智能的大肆宣传,我们注意到大多数人都默认所有人工智能工作负载将始终在 GPU 上运行。对于这一思路,我们认为,随着更广泛的芯片发挥作用,现实情况可能会有所不同。

需要明确的是,GPU 非常适合人工智能工作,并且不会对 Nvidia 的股价构成威胁。我们所说的人工智能实际上是应用统计学,更具体地说是非常先进的统计回归模型。

这些问题的核心是矩阵代数,涉及相当简单的数学问题,例如一个数字乘以另一个数字,但需要大规模完成。GPU 的设计采用较小的内核(更简单的数学),且数量较多(大规模)。因此,使用这些处理器代替具有较少数量较大内核的 CPU 是有意义的。

现在,这种情况变得有点模糊了。其一,GPU 变得更加昂贵。他们更擅长人工智能数学,但在某些时候转向 CPU 开始在经济上变得有意义。

人工智能半导体市场实际上分为三个部分:训练、云推理和边缘推理。目前的训练基本上与 Nvidia 相当,但这只是市场的一小部分。云推理将是一个更大的市场——随着越来越多的人使用这些人工智能模型,对推理的需求将会增长,目前大部分工作将在云中完成。对于许多公司来说,扩大产能的成本似乎非常昂贵。半导体分析师迪伦·帕特尔(Dylan Patel)像往常一样,对这个数学进行了最好的阐述,但足以说明推理费用可能会成为未来一年左右消费者采用人工智能的主要障碍。

“考虑到 GPU 的成本和相对稀缺性,我们认为许多公司将开始探索 GPU 的替代品来运行推理工作负载,特别是对于将这些 AI 结果与其他功能(如搜索或社交媒体)相结合的公司,这些工作负载在很大程度上仍然运行得最好无论如何,在CPU上。”Dylan Patel说。

展望未来,我们怀疑人工智能的经济学将需要更多的推理工作来进行边缘计算,这意味着消费者需要付费购买设备。这意味着手机和 PC 将需要人工智能功能,这可能意味着它们在 CPU 和移动 SoC 上运行。

AMD 最近推出了内置于其客户端 CPU 中的人工智能功能,而苹果公司的 A 系列移动处理器和 M 系列 CPU 中都配备了神经引擎。我们预计这很快就会在边缘设备中普及。

当然,许多公司正在寻求构建人工智能加速器——专门用于进行人工智能数学计算的专用芯片。但事实证明,这仅适用于像谷歌这样控制其所有软件的公司。这些专用芯片的一个重要问题是,它们往往针对一组特定的工作负载或人工智能模型进行过度设计,当这些模型发生变化时,这些芯片就会失去性能优势。

所有这些都导致了半导体领域最不为人知的领域之一——FPGA。这些是“可编程”芯片(“P”代表可编程),这意味着它们在生产后可以重新用于不同的任务。这些与专门构建的 ASIC 处于相反的一端,专为 AI 加速器等特定任务而设计。

FPGA 已经存在多年了。半导体的经济学通常意味着,超过一定的容量阈值,ASIC 更有意义,但对于工业和航空航天系统等小容量应用,它们的工作效果非常好。因此,FPGA 无处不在,涉及数十个终端市场,但我们对它们不太熟悉,因为它们通常不会出现在普通消费者每天使用的大批量电子产品中。

人工智能的出现稍微改变了这种计算方式。对于这些工作负载,FPGA 可能对底层模型频繁变化的人工智能推理需求有意义。在这里,FPGA 的可编程性超过了 FPGA 使用的典型经济性。需要明确的是,我们认为 FPGA 不会成为使用数千个 GPU 的大规模人工智能系统的有力竞争对手,但我们确实认为,随着人工智能进一步渗透到电子领域,FPGA 的应用范围将会扩大。

简而言之,GPU 可能仍然是大部分人工智能领域的主导芯片,尤其是对于高调、大容量的模型。但除此之外,我们认为替代芯片的使用将成为生态系统的重要组成部分,这是一个比今天看起来更大的机会。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4424

    浏览量

    126724
  • 人工智能
    +关注

    关注

    1776

    文章

    43899

    浏览量

    230646
  • AI芯片
    +关注

    关注

    17

    文章

    1657

    浏览量

    34407

原文标题:AI芯片,就是GPU吗?

文章出处:【微信号:晶扬电子,微信公众号:晶扬电子】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    6家计算芯片厂商业绩两极分化!GPU、CPU卷向高端,AI芯片加速渗透至大模型产业

    ,业绩如何呢? 计算芯片包括AI芯片、CPU、GPU等关键环节,电子发烧友网统计了海光信息、澜起科技、景嘉微、寒武纪、云天励飞、龙芯中科等不同产业链环节的企业在2023年的财报,从他们
    的头像 发表于 04-28 05:54 1487次阅读
    6家计算<b class='flag-5'>芯片</b>厂商业绩两极分化!<b class='flag-5'>GPU</b>、CPU卷向高端,<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>加速渗透至大模型产业

    生成式AI带火的不止GPU,网络芯片迎来下一轮大战

    下几乎可以和强大的AI算力画上等号。   然而,真正将这些GPU连接起来的,还是靠以太网交换机、路由这类网络芯片。随着数据中心解耦趋势愈发明显,相继认识到这一点的网络芯片厂商都开始新一
    的头像 发表于 06-30 01:08 1165次阅读
    生成式<b class='flag-5'>AI</b>带火的不止<b class='flag-5'>GPU</b>,网络<b class='flag-5'>芯片</b>迎来下一轮大战

    FPGA在深度学习应用中或将取代GPU

    基础设施,人们仍然没有定论。如果 Mipsology 成功完成了研究实验,许多正受 GPU 折磨的 AI 开发者将从中受益。 GPU 深度学习面临的挑战 三维图形是 GPU 拥有如此
    发表于 03-21 15:19

    2024年,GPU能降价吗?

    首当其冲的就是A100GPU。OpenAI使用的是3,617台HGXA100服务器,包含近3万块英伟达GPU。国内云计算相关专家认为,做好AI大模型的算力最低门槛是1万枚英伟达A100
    的头像 发表于 01-03 15:57 438次阅读
    2024年,<b class='flag-5'>GPU</b>能降价吗?

    ASIC和GPU,谁才是AI计算的最优解?

    电子发烧友网报道(文/周凯扬)随着AI计算开始有着风头盖过通用计算开始,不少芯片厂商都将其视为下一轮技术革新。CPU、GPU、FPGA和ASIC纷纷投入到这轮AI革命中来,但斩获的战果
    的头像 发表于 12-03 08:31 1444次阅读
    ASIC和<b class='flag-5'>GPU</b>,谁才是<b class='flag-5'>AI</b>计算的最优解?

    #芯片 #AI 世界最强AI芯片H200性能大揭秘!

    芯片AI
    深圳市浮思特科技有限公司
    发布于 :2023年11月15日 15:54:37

    英国加入全球AI芯片大战

    GPU最初是为视频游戏设计的产品,现已成为英伟达成功的核心。ChatGPT等AI模型的动力就是由英伟达芯片提供的。目前英伟达的GPU是全球应
    的头像 发表于 08-26 14:50 807次阅读

    ai芯片gpu芯片有什么区别?

    ai芯片gpu芯片有什么区别? AI芯片GPU
    的头像 发表于 08-08 18:02 4137次阅读

    AI芯片GPU芯片的区别

    人工智能(AI芯片和图形处理单元(GPU芯片都是现代计算机中使用的重要组件。虽然两者可以用于处理大规模数据,但它们的设计目的是不同的。在本文中,我们将深入探讨两种
    的头像 发表于 08-07 17:42 4285次阅读

    ai芯片和传统芯片的区别 GPU与CPU的架构对比

    AI芯片在处理大规模数据和复杂计算任务(例如深度学习算法)时具有更高的计算性能。它们通常集成了多个高性能的计算单元,如GPU(图形处理器)或专门的神经网络处理器(NPU)。
    的头像 发表于 08-05 16:11 5027次阅读
    <b class='flag-5'>ai</b><b class='flag-5'>芯片</b>和传统<b class='flag-5'>芯片</b>的区别 <b class='flag-5'>GPU</b>与CPU的架构对比

    Ai 部署的临界考虑电子指南

    虽然GPU解决方案对训练,AI部署需要更多。 预计到2020年代中期,人工智能行业将增长到200亿美元,其中大部分增长是人工智能推理。英特尔Xeon可扩展处理器约占运行AI推理的处理器单元的70
    发表于 08-04 07:25

    AI芯片的优势和主要挑战 AI芯片和存储芯片的区别

      AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要
    的头像 发表于 08-03 17:19 2253次阅读

    国产AI芯片进展几何?国产AI芯片之争才刚刚开始

    近日,芯片巨头AMD推出全新AI GPU MI300系列芯片,与英伟达在AI 算力市场展开竞争。
    的头像 发表于 07-04 09:45 1690次阅读
    国产<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>进展几何?国产<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>之争才刚刚开始

    AI开发测试关于CPU和GPU的资源配比

    GPU服务器相对CPU服务器来说是非常昂贵的,大约是美金和人民币汇率的差距(以8卡GPU服务器为例),而且在芯片紧缺的年代,GPU到货周期还比较长!面对资源昂贵、算力又是
    发表于 06-25 11:31 1169次阅读
    <b class='flag-5'>AI</b>开发测试关于CPU和<b class='flag-5'>GPU</b>的资源配比

    AMD甩出最强AI芯片 单个GPU跑大模型

    专为生成式AI设计的GPU:HBM密度是英伟达H100的2.4倍,带宽是英伟达H100的1.6倍。
    的头像 发表于 06-20 10:47 653次阅读