0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ChatGPT AI兴起,芯片、服务器、智能算力浪潮来袭

智能计算芯世界 来源:智能计算芯世界 2023-04-12 09:49 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

AI 需要多元异构算力提供支持,拉动 AI 芯片需求。人工智能算法需要从海量的图像、语音、视频等非结构化数据中挖掘信息。从大模型的训练、场景化的微调以及推理应用场景,都需要算力支撑。而以 CPU 为主的通用计算能力已经无法满足多场景的 AI 需求。以 CPU+AI 芯片(GPUFPGAASIC)提供的异构算力,并行计算能力优越、具有高互联带宽,可以支持 AI 计算效力实现最大化,成为智能计算的主流解决方案。

服务器中的 CPU 和 AI 卡的数量并不固定,会根据客户应用需求调整,对于 AI 服务器来讲,较为常见的是配备 2 个 CPU,以及八个 AI 卡。而相比于 AI 服务器,传统的通用服务器则以 CPU 为主。因此,AI 的发展将极大拉动 GPGPU、TPU、NPU 等 AI 芯片的需求。

AI 计算需要多元异构算力提供支持,将极大拉动GPGPU、AISC 等 AI 芯片的需求。中国 AI 芯片市场规模有望快速增长,据艾瑞咨询发布的《2022 年中国人工智能产业研究报告(Ⅴ)》,预计 2027 年达到 2164 亿元。

中国 AI 芯片市场将保持高速增长,AI 推理芯片份额有望持续提升,国产化 AI 芯片占比有望提升。2022 年,中国的 AI 芯片市场规模约 385 亿元。随着 AI 发展以及智算中心建设浪潮,该市场预计将保持高增长趋势。据艾瑞咨询测算,到 2027 年,中国的 AI 芯片市场规模预计将达到 2164 亿元。另外,在我国高性能及 AI 服务器中, GPGPU 凭借其优秀的性能和通用能力占比 92%, 剩下份额由 AISC 和 FPGA 分享。随着 AI 模型的优化落地,AI 推理芯片的占比将日益提升。据艾瑞咨询,2022 年,中国 AI 训练芯片以及 AI 推理芯片的占比分别为 47.2%和 52.8%。

871e72e8-d8c3-11ed-bfe3-dac502259ad0.png

AI 芯片领域的三类玩家。大模型的训练需要大规模的训练数据以及强大的计算资源,需要多卡多机协同完成。这对 AI 芯片本身的性能,以及多卡多机的互联提出了很高的要求。目前,在 AI 芯片领域,有三类玩家。一种是以 Nvidia、AMD 为代表的实力强劲的老牌芯片巨头,这些企业积累了丰富的经验,产品性能突出。

另一种是以 Google、百度、华为为代表的云计算巨头,这些企业纷纷布局通用大模型,并自己开发了 AI 芯片、深度学习平台等支持大模型发展。如 google 的TensorFlow 以及 TPU,华为的鲲鹏昇腾、CANN 及 Mindspore。

最后是一些小而美的 AI 芯片独角兽,如寒武纪、壁仞等。

英伟达占据 80%以上中国加速卡市场份额,国产 AI 芯片亟待发展。根据 IDC 的数据显示,2021年中国加速卡的出货数量已经超过 80 万片,其中 Nvidia 占据了超过 80%的市场份额。剩下的份额有 AMD、百度、寒武纪、燧原科技、新华三、华为、Intel赛灵思等品牌。

872f555e-d8c3-11ed-bfe3-dac502259ad0.png

1、英伟达:全球 GPU 龙头

英伟达占据芯片市场绝对优势。长期以来,英伟达在高端GPU市场占据绝对主导地位,现如今已量产的主流 A100 芯片相比前代产品 V100,性能得到显著提高,代表当今高端芯片水平。最新一代 H100 芯片也已经亮相,即将量产。天数智芯数据显示,2021 年英伟达在中国云端 AI 训练芯片市场的份额达到 90%。据 IDC,在 2021 年中国出货的 80 多万张加速卡中,英伟达占据超过 80%份额。芯片的研发周期较长,英伟达具有绝对先行优势,虽然目前国内企业突破英伟达垄断仍然任重道远,但寒武纪、华为 AI 芯片快速发展,有望逐步进行国产替代。

8743fb3a-d8c3-11ed-bfe3-dac502259ad0.png

受制裁影响,英伟达对部分产品性能进行 “阉割”,推出“中国版芯片”A800、H800。2022 年10 月,美国发布了针对中国的先进计算与半导体产品的出口管制,限制美国企业向中国出口先进高端芯片设备。在新管制的限制下,英伟达的 A100、H100 被禁止售卖给中国,而采用 12nm 工艺、性能较低的 V100 GPU 芯片不在管控之列。针对此次制裁,英伟达对 A100 的部分性能进行“阉割”,推出 A800。

相比于 A100,A800 在单卡计算性能上没有差别,但是互联带宽从600GB/s 下降到了 400GB/s,在一定程度上影响了如大模型训练等多卡互联场景的性能。目前,A800 已实现量产,并在中国规模化落地应用。英伟达还推出了旗舰芯片 H100 的替代版 H800,目前还未量产。

875329de-d8c3-11ed-bfe3-dac502259ad0.png

2、海光信息:国产高性能 CPU 和 GPGPU 领军企业

海光信息专注于研发、设计和销售高端处理器(CPU 以及 GPGPU),持续技术创新、产品迭代。海光信息的主要产品为应用于服务器和工作站等设备中的通用处理器(CPU)和协处理器(DCU,即 GPGPU)。海光处理器性能出众,同时软硬件生态丰富、工具链完整、应用迁移成本低。另外,海光 CPU 与 DCU 虽脱胎于 AMD,但经过多年独立自主研发迭代,已经实现自主可控、安全可靠,是***之光。目前,苏州昆山、成都等多地超算中心已经搭载海光 CPU 与 DCU,为社会提供优质算力。

海光 CPU 一、二代均已商业化, 三代初亮相,四代有序研发中。海光 DCU 一代已商业化应用,二代研发中。公司持续技术创新和演进,坚持走“销售一代, 验证一代, 研发一代”的产品开发策略。公司建立了完善的高端处理器的研发环境和流程,持续开发多代产品,产品性能不断提高,同时功能不断完善丰富。海光 CPU 的四代产品中,海光一号和海光二号均实现了商业化应用,海光三号已亮相发布会,海光四号处于研发阶段。海光 DCU 于 2018 年启动 DCU 第一代产品深算一号的产品研发,于 2020 年 1 月启动了深算二号的研发,截至 2022 年 6 月,深算一号已实现商业化应用。

87659aba-d8c3-11ed-bfe3-dac502259ad0.png

海光 DCU 某些硬件性能与英伟达的 A100、AMD 的 MI100 相近。海光 DCU 双精度计算能力突出。据北京大学高性能计算系统中标公告(HCZB-2021-ZB0364),海光信息的 DCU Z100 的通用计算核心达到 8192 个。其关键性能指标实现:FP64 10.8TFlops,显存 32GB HBM2,对比全球芯片巨头的高端 AI 芯片不遑多让。英伟达 A100 的相关指标为:FP64 9.7 TFlops、显存40/80GB HBM2。AMD MI100 的相关指标为:FP64 11.5 TFlops、显存 32GB HBM2。

877491a0-d8c3-11ed-bfe3-dac502259ad0.png

海光 DCU 生态丰富,工具链完整。海光的 DCU 脱胎于 AMD,兼容主流生态——开源 ROCmGPU 计算生态,支持 TensorFlow、Pytorch 和 PaddlePaddle 等主流深度学习框架、适配主流应软件。ROCm 又被称为类 CUDA,现有 CUDA 上运行的应用可以低成本迁移到基于 ROCm 的海光平台上运行。

2022 年,海光发布国内首个全精度(FP64)异构计算平台,该平台搭载 CPU 海光三号和 DCU海光深算,涵盖数值模拟、AI 训练、AI 推理所需的多样算力,实现了智能计算与数值运算的深度融合。同时,此平台可全面支持 TensorFlow、PyTorch、Caffe2 等主流 AI 深度学习框架,目前已超过 1000 种应用软件部署在该平台上。

3、寒武纪:国产 AI 芯片先行者

寒武纪始终深耕芯片研发,不断推陈出新、实现技术进步。寒武纪成立于 2016 年,专注人工智能芯片产品的研发与创新。公司成立之初便开始了对 AI 芯片领域的探索创新。并在 2016 年年底成功研发出全球首款 AI 手机芯片——寒武纪 1A 。2017 年,这款芯片被搭载于华为的高端系统级芯片麒麟 970,应用于 Mate10 手机,并获得了广泛好评。芯片可以在功耗极低的前提下,涵盖人脸识别、语音识别、图像增强等多种功能。此后,寒武纪又陆续推出了多款 AI 芯片产品,包括云端训练芯片 MLU100、边缘推理芯片 MLU270、车载推理芯片 MLU290 等 。这些产品都具有高性能、低功耗、高集成度等特点,在图像识别、语音识别、自然语言处理等领域都有着优异的表现。

8782e9d0-d8c3-11ed-bfe3-dac502259ad0.png

思元 370 是寒武纪的首款训练推理一体芯片,也是其云端产品的第三代。思元 370 采用了 7nm 制程工艺,并成为首款采用 Chiplet 技术的人工智能芯片。该芯片最大算力可达 256TOPS(INT8),是上一代云端推理产品思元 270 算力的两倍,同时该芯片还支持 LPDDR5 内存,内存带宽是 270的三倍,因此可以在板卡有限的功耗范围内为人工智能芯片分配更多的能源,从而输出更高的算力。思元 370 智能芯片还采用了先进的 Chiplet 技术,支持灵活的芯粒组合,仅用单次流片便可以实现多款智能加速卡产品的商用。目前,该公司已推出三款加速卡:MLU370-S4、MLU370-X4和 MLU370-X8,包含应用于计算密度高的数据中心、针对专注人工智能推理相关业务的互联网厂商需求和应用于对算力带宽要求高的训练任务,满足用户的多样化需求。

新一代训练芯片寒武纪 590 还未量产,据悉训练能力突出。寒武纪最新一代云端智能训练芯片思元 590 还未正式发布,据寒武纪董事长在 2022 WAIC 上介绍,思元 590 采用全新的 MLUarch05架构,实测训练性能较在售产品有了显著提升。思元 590 可提供更大的内存容量和更高的内存带宽,其 PCIe 接口也较上代实现了升级。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53589

    浏览量

    459772
  • 算法
    +关注

    关注

    23

    文章

    4762

    浏览量

    97234
  • 人工智能
    +关注

    关注

    1813

    文章

    49780

    浏览量

    261862

原文标题:ChatGPT AI兴起,芯片、服务器、智能算力浪潮来袭

文章出处:【微信号:AI_Architect,微信公众号:智能计算芯世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI服务器电源测试解决方案:为巨擘注入稳定之魂

    在人工智能浪潮之巅,AI服务器电源作为驱动万亿参数模型奔腾不息的“心脏”,其性能至关重要。这颗心脏能否在极限负载下强劲搏动,在复杂工况中稳定运行,直接决定了整个
    的头像 发表于 12-03 13:56 234次阅读

    觉醒 · AI共生——上海永铭电子2025AI服务器电容应用专题会议圆满落幕

    随着人工智能浪潮席卷全球,AI正以前所未有的速度爆发式增长。在这场决定未来的技术竞速中,稳定、高效、可靠的电力供应是
    的头像 发表于 11-03 14:00 549次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>觉醒 · <b class='flag-5'>AI</b>共生——上海永铭电子2025<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电容应用专题会议圆满落幕

    AI 服务器备用电源:高效、可靠与智能的未来保障

    电子发烧友网综合报道 随着人工智能技术的飞速发展,AI 服务器已成为数据中心的核心引擎。然而,需求的指数级增长也带来了前所未有的电源挑战
    的头像 发表于 10-09 02:38 4596次阅读

    天波科普:超过30T的边缘计算服务器可以做什么?

    网关的能力边界,也涉及到高低。那么,目前边缘计算服务器到多少算高呢?以广东天波AI边缘
    的头像 发表于 09-28 11:18 455次阅读
    天波科普:<b class='flag-5'>算</b><b class='flag-5'>力</b>超过30T的边缘计算<b class='flag-5'>服务器</b>可以做什么?

    多达 48 个计算节点!Firefly 推出 CSC2-N48 AI 服务器

    Firefly最新推出CSC2-N48服务器,内置48个分布式计算节点,单节点可提供6TOPS-157TOPS,可选瑞芯微、
    的头像 发表于 08-20 16:37 1307次阅读
    多达 48 个计算节点!Firefly 推出 CSC2-N48 <b class='flag-5'>AI</b> <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>

    AI 芯片浪潮下,职场晋升新契机?

    在科技飞速发展的当下,AI 芯片已然成为众多行业变革的核心驱动力。从互联网巨头的数据中心,到我们日常使用的智能手机、智能家居设备,AI
    发表于 08-19 08:58

    之后看存,英韧科技洞庭-N3X SSD推动AI和边缘计算存储升级

    洞庭-N3X以前所未有的速度和效率重新定义了数据存储,契合AI服务器和AIPC的发展需求,为移动计算、边缘计算和实时分析领域的下一波创新浪潮提供了动力。01在人工智能
    的头像 发表于 08-11 10:12 970次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>之后看存<b class='flag-5'>力</b>,英韧科技洞庭-N3X SSD推动<b class='flag-5'>AI</b>和边缘计算存储升级

    能发布超节点服务器,128颗BM1690芯片组成

    电子发烧友网综合报道 在2025世界人工智能大会上,能最新发布了一款超节点服务器,可提供多达8T显存空间以及巨大的FP8,形成一台强大
    的头像 发表于 08-03 07:33 7160次阅读
    <b class='flag-5'>算</b>能发布超节点<b class='flag-5'>服务器</b>,128颗BM1690<b class='flag-5'>芯片</b>组成

    借势 RISC-V与 AI 浪潮,元石智打造新范式

    与RISC-V架构崛起的双重浪潮下,国产服务器系统行业正迎来关键发展机遇。 武汉元石智科技有限公司(下文简称“元石智”)作为国产服务器
    的头像 发表于 07-25 14:51 453次阅读
    借势 RISC-V与 <b class='flag-5'>AI</b> <b class='flag-5'>浪潮</b>,元石智<b class='flag-5'>算</b>打造<b class='flag-5'>算</b><b class='flag-5'>力</b>新范式

    一文看懂AI集群

    最近这几年,AI浪潮席卷全球,成为整个社会的关注焦点。大家在讨论AI的时候,经常会提到AI
    的头像 发表于 07-23 12:18 1050次阅读
    一文看懂<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    AI原生架构升级:RAKsmart服务器在超大规模模型训练中的突破

    近年来,随着千亿级参数模型的崛起,AI训练对的需求呈现指数级增长。传统服务器架构在应对分布式训练、高并发计算和显存优化等场景时逐渐显露瓶颈。而RAKsmart为超大规模模型训练提供
    的头像 发表于 04-24 09:27 628次阅读

    智能服务器应用领域

    智能服务器应用领域 一、‌金融行业‌ 智能风控与投顾‌:通过
    的头像 发表于 04-21 09:09 1250次阅读
    <b class='flag-5'>智能</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>应用领域

    智能最具潜力的行业领域

    智能最具潜力的行业领域 一、金融行业 智能风控与精准服务‌:大型银行通过
    的头像 发表于 04-11 08:20 1059次阅读
    <b class='flag-5'>智能</b><b class='flag-5'>算</b><b class='flag-5'>力</b>最具潜力的行业领域

    RAKsmart服务器如何重塑AI高并发格局

    AI大模型参数量突破万亿级、实时推理需求激增的当下,传统服务器架构的并发处理能力已逼近物理极限。RAKsmart通过“硬件重构+软件定义”的双引擎创新,推出新一代AI服务器解决方案。
    的头像 发表于 04-03 10:37 699次阅读

    Firefly 服务器系列:覆盖多个领域的高解决方案

    服务器覆盖60~1570TOPS强劲,支持Transformer架构下大语言模型的私有化部署,如Gemma-2B、ChatGLM3
    的头像 发表于 02-19 16:34 1406次阅读
    Firefly <b class='flag-5'>服务器</b>系列:覆盖多个领域的高<b class='flag-5'>算</b><b class='flag-5'>力</b>解决方案