0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ASIC芯片:全球玩家及竞争格局

架构师技术联盟 来源:架构师技术联盟 2023-05-15 15:02 次阅读

头部厂商纷纷切入AI ASIC领域,技术路径不同。

谷歌15年发布第一代TPU(ASIC)产品,TPU产品持续迭代升级。英特尔19年收购人工智能芯片公司Habana Labs,22年发布AI ASIC芯片Gaudi 2,性能表现出色;IBM研究院22年底发布AI ASIC芯片AIU,有望23年上市;三星第一代AIASIC芯片Warboy NPU芯片已于近日量产。

头部厂商纷纷切入 AI ASIC领域,看好ASIC在人工智能领域的长期成长性。

谷歌:谷歌为AI ASIC芯片的先驱,于15年发布第一代TPU(ASIC)产品,大幅提升AI推理的性能;17年发布TPU v2,在芯片设计层面,进行大规模架构更新,使其同时具备AI推理和AI训练的能力;谷歌TPU产品持续迭代升级,21年发布TPU v4,采用7nm工艺,峰值算力达275TFLOPS,性能表现全球领先。

英特尔:19年底收购以色列人工智能芯片公司Habana Labs,22年发布Gaudi 2 ASIC芯片。从架构来看,Gaudi架构拥有双计算引擎(MME和TPC),可以实现MME和TPC并行计算,大幅提升计算效率;同时,其将RDMA技术应用于芯片互联,大幅提升AI集群的并行处理能力;从性能来看,Gaudi 2在ResNET-50、BERT、BERT Phase-1、BERT Phase-2模型的训练吞吐量优于英伟达A100,性能表现优异。

头部厂商纷纷切入AI ASIC领域,技术路径不同。本文内容来自“GPT-5后NLP大模型逐步走向收敛,ASIC将大有可为”,详细介绍谷歌——全球AI ASIC先驱,TPU产品持续迭代,以及英特尔——收购Habana Lab,Gaudi 2性能表现出色。

1、ASIC具有性能高、体积小、功率低等特点

ASIC具有性能高、体积小、功率低等特点。AI芯片指专门用于运行人工智能算法且做了优化设计的芯片,为满足不同场景下的人工智能应用需求,AI芯片逐渐表现出专用性、多样性的特点。根据设计需求,AI芯片主要分为中央处理器CPU)、图形处理器(GPU)、现场可编程逻辑门阵列(FPGA)、专用集成电路(ASIC)等,相比于其他AI芯片,ASIC具有性能高、体积小、功率低等特点。

CPU-》GPU-》ASIC,ASIC成为AI芯片重要分支。

1)CPU阶段:尚未出现突破性的AI算法,且能获取的数据较为有限,传统CPU可满足算力要求;

2)GPU阶段:2006年英伟达发布CUDA架构,第一次让GPU具备了可编程性,GPU开始大规模应用于AI领域;

3)ASIC阶段:2016年,Google发布TPU芯片(ASIC类),ASIC克服了GPU价格昂贵、功耗高的缺点,ASIC芯片开始逐步应用于AI领域,成为AI芯片的重要分支。

a073239e-f2cf-11ed-90ce-dac502259ad0.png

ASIC芯片在推理领域具有明显优势,有望在该领域率先出现爆品。根据CSET数据,ASIC芯片在推理领域优势明显,其效率和速度约为CPU的100-1000倍,相较于GPU和FPGA具备显著竞争力。尽管ASIC芯片同样可以应用于训练领域(例如TPU v2、v3、v4),但我们认为其将在推理领域率先出现爆品。

a08cd06e-f2cf-11ed-90ce-dac502259ad0.png

预计ASIC在AI芯片的占比将大幅提升。根据McKinsey Analysis数据,在数据中心侧,25年ASIC在推理/训练应用占比分别达到40%、50%;在边缘侧,25年ASIC在推理/训练应用占比分别达到70%、70%,ASIC在AI芯片的占比将大幅提升。

a0a318b0-f2cf-11ed-90ce-dac502259ad0.png

2、多种类AI芯片并存,头部厂商纷纷切入ASIC领域

多种类AI芯片并存,头部厂商纷纷切入ASIC领域。

英伟达延续GPU路线,22年发布H100芯片,目前广泛应用于云端训练和推理;

AMD利用自身技术积累,将CPU和GPU集成在一起,推出Instinct MI300芯片,预计23年H2上市。

头部厂商开始切入ASIC领域,Google为AI ASIC芯片的先驱,21年推出TPU v4,运算效能大幅提升;英特尔19年收购Habana Lab,22年推出Gaudi2 ASIC芯片;IBM、三星等头部厂商亦纷纷切入ASIC领域。

a0b4cce0-f2cf-11ed-90ce-dac502259ad0.png

3、谷歌:全球AI ASIC先驱,TPU产品持续迭代;性能表现,A100《TPU v4《H100

谷歌为全球AI ASIC先驱,TPU产品持续迭代。谷歌2015年发布TPU v1,与使用通用CPU和GPU的神经网络计算相比,TPU v1带来了15~30倍的性能提升和30~80倍的能效提升,其以较低成本支持谷歌的很多服务,仅可用于推理;17年发布TPU v2,用于加速大量的机器学习和人工智能工作负载,包括训练和推理;18年发布TPU v3,算力和功率大幅增长,其采用了当时最新的液冷技术;20年和21年分别发布TPU v4i和v4,应用7nm工艺,晶体管数大幅提升,算力提升,功耗下降。

a0cee06c-f2cf-11ed-90ce-dac502259ad0.png

TUP v4性能表现优于英伟达A100。TPU v4的性能表现在BERT、ResNet、DLRM、RetinaNet、MaskRCNN下分别为A100的1.15x、1.67x、1.05x、1.87x和1.37x,性能表现优于英伟达A100。

TUP v4性能表现略逊于H100,但功耗管理能力出色。根据《AI and ML Accelerator Survey and Trends》数据,英伟达H100的峰值性能表现高于TUP v4,而TUP v4作为ASIC芯片,在功耗管理方面表现出色,峰值功率低于H100。

a0f01e76-f2cf-11ed-90ce-dac502259ad0.png

4、谷歌:TPU v1架构

统一缓冲器(Unified Buffer)和矩阵乘法单元(MMU)占据53%的芯片总面积。TPU v1主要包括统一缓冲器(Unified Buffer)、矩阵乘法单元(MMU)、累加器(Accumulators)、激活流水线电路(Activation Pipeline)、DDAM等,其中统一缓冲器和矩阵乘法单元面积占比最高,合计达53%。

TPU v1工作流程:

1)芯片启动,缓冲区和DDR3为空;

2)用户加载TPU编译的模型,将权重放入DDR3内存;

3)主机用输入值填充激活缓冲区;

4)发送控制信号将一层权重加载到矩阵乘法单元;

5)主机触发执行,激活并通过矩阵乘法单元传播到累加器;

6)通过激活流水线电路,新层替换缓冲区的旧层;

7)重复步骤4-7,直到最后一层;

8)最后一层的激活被发送给主机。

a10a0534-f2cf-11ed-90ce-dac502259ad0.png

5、谷歌:TPU v2架构,基于TPU v1的大规模架构更新

a13559dc-f2cf-11ed-90ce-dac502259ad0.png

TPU v2内核数增加值2个。TPU v1仅有1个Tensor Core,导致管道更为冗长。TPU v2的内核数增加为2个,对编译器也更为友好。

MXU利用率提升。TPU v1的MXU包含256*256个乘积累加运算器,由于部分卷积计算规模小于256*256,导致单个大核的利用率相对较低;而TPU v2的单核MXU包含128*128个乘积累加运算器,在一定程度上,提升了MXU利用率。

a1585ec8-f2cf-11ed-90ce-dac502259ad0.png

6、谷歌:TPU v3延续v2架构,性能提升,TDP优化

谷歌TPU v3延续v2架构,性能提升。TPU V3在v2架构的基础上,矩阵乘法单元(MXU)数量提升翻倍,时钟频率加快30%,内存带宽加大30%,HBM容量翻倍,芯片间带宽扩大了30%,可连接的节点数为先前4倍,性能大幅提升。

采用液冷技术,TDP优化。TPU v3采用液冷技术,峰值算力为TPU v2的2.67倍,而TDP仅为TPU v2的1.61倍,TDP大幅优化。

7、谷歌:TPU v4,硬件性能进一步提升

MXU数量翻倍,峰值算力大幅提升。从硬件提升来看,根据Google Cloud数据,TPU v4芯片包含2个TensorCore,每个TensorCore包含4个MXU,是TPUv3的2倍;同时,HBM带宽提升至1200 GBps,相比上一代,提升33.33%。从峰值算力来看,TPU v4的峰值算力达275 TFLOPS,为TPU v3峰值算力的2.24倍。

a1766ab2-f2cf-11ed-90ce-dac502259ad0.png

谷歌的超级计算机构想:将4*4*4(64)个TPU v4芯片连接成1个立方体结构(Cube),再将4*4*4个立方体结构(Cube)连接成共有4096个TPU v4芯片的超级计算机,其中物理距离较近TPU v4芯片(即同一个Cube中的4*4*4个芯片)采用常规电互联方式,距离较远的TPU(例如Cube之间的互联)间用光互连。采用光互连技术可以有效避免“芯片等数据”的情形出现,进而提升计算效率。

可重配置光互连技术可以进一步提升计算性能。谷歌TPU v4通过加入光路开关(OCS)的方式,可以根据具体模型数据流来调整TPU之间的互联拓扑,实现最优性能,可重配置光互连技术可以将性能提升至先前的1.2-2.3倍。

可重配置光互连技术提升计算机的稳定性。若计算机中部分芯片出现故障,可以通过该技术绕过故障芯片,进而不会影响整个系统的工作。

a18e5794-f2cf-11ed-90ce-dac502259ad0.png

8、英特尔:Gaudi架构实现MME和TPC并行运算

英特尔收购Habana Lab。Habana Labs成立于2016年,总部位于以色列,是一家为数据中心提供可编程深度学习加速器厂商,2019年发布第一代Gaudi。英特尔于2019年底收购Habana Lab,旨在加快其在人工智能芯片领域的发展,2022年发布Gaudi 2。

Gaudi架构实现MME和TPC并行运算。Gaudi架构包含2个计算引擎,即矩阵乘法引擎(MME)和TPC(张量处理核心);Gaudi架构使得MME和TPC计算时间重叠,进行并行运算,进而大幅提升计算效率。

Gaudi 2延续上一代架构,硬件配置大幅提升。Gaudi 2架构基本与上一代相同,TPC数量从8个提升至24个,HBM数量从4个提升至6个(总内存从32GB提升至96GB),SRAM存储器提升一倍,RDMA从10个提升至24个,同时集成了多媒体处理引擎,硬件配置大幅提升。

a1a87160-f2cf-11ed-90ce-dac502259ad0.png

RDMA技术用于芯片互联,大幅提升并行处理能力。RDMA是一种远端内存直接访问技术,具有高速、超低延迟和极低CPU使用率的特点。Gaudi将RDMA集成在芯片上,用于实现芯片间互联,大幅提升AI集群的并行处理能力;同时,Gaudi支持通用以太网协议,客户可以将Gaudi放入现有的数据中心,使用标准以太网构建AI集群。

Gaudi 2性能表现出色。根据《Habana Gaudi 2 White Paper》披露数据,Gaudi 2在ResNET-50、BERT、BERT Phase-1、BERT Phase-2模型的训练吞吐量分别为A100(40GB,7nm)的2.0、2.4、2.1、3.3x,性能表现出色。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    447

    文章

    47832

    浏览量

    409213
  • asic
    +关注

    关注

    34

    文章

    1158

    浏览量

    119269
  • 人工智能
    +关注

    关注

    1776

    文章

    43919

    浏览量

    230649

原文标题:ASIC芯片:全球玩家及竞争格局

文章出处:【微信号:架构师技术联盟,微信公众号:架构师技术联盟】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    专用集成电路asic是不是芯片

    ASIC(Application Specific Integrated Circuit)是专用集成电路的缩写,是一种用于特定应用的定制芯片ASIC芯片是一种针对具体应用而设计、制造
    的头像 发表于 04-19 15:24 188次阅读

    “百模大战”竞争格局报告发布,云天天书大模型入选典型案例

    3月24日,在2024全球开发者大会“百模大战”商业发展讲坛上,亿欧智库正式发布《2024中国“百模大战”竞争格局分析报告》,从当前行业“百模大战”的现状入手,深入分析了当前大模型市场格局
    的头像 发表于 03-26 14:01 174次阅读
    “百模大战”<b class='flag-5'>竞争</b><b class='flag-5'>格局</b>报告发布,云天天书大模型入选典型案例

    2月国内动力电池企业竞争格局的“微变”开始显露端倪

    本周,随着2月动力电池产销数据的公布,国内电池企业竞争格局的“微变”开始显露端倪。
    的头像 发表于 03-17 09:45 610次阅读

    院士称全球芯片产业格局即将重构

    中国工程院院士邬贺铨在大会上对RISC-V的发展给予了高度评价。他表示,RISC-V正进入应用爆发期,成为芯片指令集架构的第三极,为全球芯片产业格局的重构带来了重大机遇。
    的头像 发表于 03-14 15:41 5010次阅读

    IDC:全球智能手机产业维持平缓增长,竞争格局变化不大

    鉴于当前国际政治经济形势尚未有显著改善,以及供应链各方面的谨慎态度,预计未来全球智能手机行业将继续稳健增长,保持现有竞争格局
    的头像 发表于 03-06 09:37 172次阅读

    线路板行业的上下游竞争格局:谁是行业的领导者和后来者?

    线路板行业的上下游竞争格局:谁是行业的领导者和后来者?
    的头像 发表于 03-01 10:54 283次阅读

    英伟达为什么要下场定制ASIC芯片?英伟达能称霸吗?

    最近,有消息传出英伟达正在建立一个新的业务部门,这个部门专注为云计算公司和其他公司设计定制芯片ASIC)。
    的头像 发表于 02-25 16:33 682次阅读
    英伟达为什么要下场定制<b class='flag-5'>ASIC</b><b class='flag-5'>芯片</b>?英伟达能称霸吗?

    到底什么是ASIC和FPGA?

    的要求,越来越高。通用的算力芯片,已经无法满足用户的需求。 于是,越来越多的企业,开始加强对专用计算芯片的研究和投资力度。而ASIC(Application Specific Integrated
    发表于 01-23 19:08

    ASIC芯片开发过程

    电子发烧友网站提供《ASIC芯片开发过程.ppt》资料免费下载
    发表于 12-25 10:04 1次下载

    FPGA | 竞争冒险和毛刺问题

    FPGA从1984 年到今天,发展经历了30 多年时间。它可以替代其他 PLD 或者各种中小规模数字逻辑芯片在数字系统中广泛应用,也是实现具有不同逻辑功能ASIC 的有效办法。 FPGA 融合了
    发表于 11-02 17:22

    FPGA和ASIC的优劣势 FPGA和ASIC的应用场景及前景

      FPGA和ASIC是数字电路中常见的实现方式,因此人们经常会想要了解哪种芯片在未来的发展中更具有前途。然而,这取决于具体的应用场景和需求。在本文中,我们将探讨FPGA和ASIC的优劣势,并分析哪种
    发表于 08-14 16:40 1221次阅读

    全球GPU呈现“一超一强”竞争格局

    目前英伟达产品 DGX GH200 已发布,互连技术强大,算力进一步升级。5月 29 日,英伟达在其发布会上,正式发布最新的 GH200 Grace Hopper 超级芯片,以及拥有 256 个 GH200 超级芯片的 NVIDIA DGX GH200 超级计算机。
    的头像 发表于 08-14 11:51 1293次阅读
    <b class='flag-5'>全球</b>GPU呈现“一超一强”<b class='flag-5'>竞争</b><b class='flag-5'>格局</b>

    一文读懂ASIC芯片

    在集成电路界ASIC被认为是一种为专门目的而设计的集成电路,是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。ASIC的特点是面向特定用户的需求,ASIC在批量生产时与通用集成电路相比具有体积更小、功耗更低、可靠性提
    的头像 发表于 06-19 11:07 4081次阅读

    什么是ASICASIC中的“特定应用”是什么意思?

    没有关于 ASIC 确切含义的官方声明,而且许多电子专业人士可能并不总是就 ASIC 到底是什么或特定组件是否应归类为 ASIC 达成一致。
    发表于 06-15 09:41 407次阅读
    什么是<b class='flag-5'>ASIC</b>?<b class='flag-5'>ASIC</b>中的“特定应用”是什么意思?

    连接器行业最新状况:竞争充分,行业集中度不断提升

    具有市场全球化和分工专业化的特征,行业竞争较为充分,竞争格局相对稳定。由于连接器下游应用广泛,因此涉及到很多技术壁垒较高的细分产品和应用领域,部分历史悠久、规模庞大的海外企业在多个应用
    发表于 05-12 15:46