0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA CPU+GPU超级芯片终于量产

硬件世界 来源:硬件世界 2023-05-30 14:45 次阅读

2022年3月,NVIDIA发布了首款数据中心CPU Grace、新一代高性能计算GPU Hopper,同时利用它们打造了两颗“超级芯片”(Super Chip),一是Grace CPU二合一,二是Grace CPU+Hopper GPU二合一,看起来都极为酷炫。

现在,足足14个月过去了,NVIDIA终于宣布,GH200 Grace Hopper超级芯片已经全面投产,将为复杂AI、HPC工作负载提供澎湃的动力。

再加上Grace CPU、Hopper GPU、Ada Lovelace GPU、BlueField DPU等全套系统方案,NVIDIA现在已经有400多种配置,可满足市场对生成式AI的激增需求。

欧洲和美国的超大规模云服务商、超算中心,将会成为接入GH200系统的首批客户。

同时,黄仁勋还公布了Grace Hopper的更多细节,尤其是它的CPU、GPU之间使用NVLink-C2C互连技术,总带宽高达900GB/s,相比传统的PCIe 5.0通道超出足足7倍,能够满足要求最苛刻的生成式AI和HPC应用,功耗也降低了超过80%。

Grace Hopper是一块CPU+GPU合体的超级芯片,CPU是NVIDIA自研的72核处理器,Neoverse V2内核,拥有480GB LPDDR5内存,512GB/s带宽。

GPU部分是H100,FP64性能34TFLOPS,但更强的是INT8性能,AI运算能力达到了3958TFLOPS,带96GB HBM3内存。

同时,NVIDIA发布了针对AI推出的大内存DGX GH200超算系统,配备了256个Grace Hopper芯片,总计1.8万CPU核心,144TB内存,相比之前涨了500倍。

AI运算对内存容量的要求更高,所以DGX GH200通过最新的NVLink、NVLink Switch等技术连接了256块Grace Hooper超级芯片,实现了极为夸张的性能及内存。

GH200总计有256块Grace Hooper芯片,因此总计18432个CPU核心,144TB HBM3内存,AI性能达到了1 exaFLOPS,也就是100亿亿次。

这是什么概念?当前最强的TOP500超算也就是百亿亿次性能,只不过这个性能是HPC计算的,NVIDIA的是百亿亿次AI性能。

45b302e0-fe68-11ed-90ce-dac502259ad0.jpg

为了让256个超级芯片互联,GH200还使用了256块单口400Gb/s InfiniBand互联芯片,256个双口200Gb/s InfiniBand芯片,还有96组L1 NVLink、36组L2 NVLink开关等等,设计非常复杂。

NVIDIA表示,谷歌、Meta及微软是首批获得DGX H200系统的公司,后续他们还会开放给更多客户,运行客户定制。

不过DGX H200还不是最强的,NVIDIA今年晚些时候会推出名为NVIDIA Helios的AI超算系统,由4组GH200组成,总计1024个Grace Hooper超级芯片,576TB HBM内存。

黄仁勋还向传统的CPU服务器集群发起“挑战”,认为在人工智能加速计算这一未来方向上,GPU服务器有着更为强大的优势。

根据黄仁勋在演讲上展示的范例,训练一个LLM大语言模型,将需要960个CPU组成的服务器集群,这将耗费大约1000万美元(约合人民币7070万元),并消耗11千兆瓦时的电力。

45ce1166-fe68-11ed-90ce-dac502259ad0.png

相比之下,同样以1000万美元的成本去组建GPU服务器集群,将以仅3.2千兆瓦时的电力消耗,训练44个LLM大模型。

45fca774-fe68-11ed-90ce-dac502259ad0.png

如果同样消耗11千兆瓦时的电量,那么GPU服务器集群能够实现150倍的加速,训练150个LLM大模型,且占地面积更小。

而当用户仅仅想训练一个LLM大模型时,则只需要一个40万美元左右,消耗0.13千兆瓦时电力的GPU服务器即可。

换言之,相比CPU服务器,GPU服务器能够以4%的成本和1.2%的电力消耗来训练一个LLM,这将带来巨大的成本节省。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4595

    浏览量

    101724
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4422

    浏览量

    126710
  • 超级芯片
    +关注

    关注

    0

    文章

    26

    浏览量

    8784

原文标题:领先几光年!NVIDIA CPU+GPU超级芯片终于量产

文章出处:【微信号:hdworld16,微信公众号:硬件世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热 Embedding 全置于
    的头像 发表于 04-20 09:39 163次阅读

    AI服务器异构计算深度解读

    AI服务器按芯片类型可分为CPU+GPUCPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%)
    发表于 04-12 12:27 85次阅读
    AI服务器异构计算深度解读

    RISC-V芯片新突破:CPUGPU一体化核心设计

    X-Silicon 的芯片与其他架构不同,其设计将 CPUGPU 的功能结合到单核架构中。这与 Intel 和 AMD 的典型设计不同,后者有独立的 CPU 核心和
    发表于 04-07 10:41 123次阅读
    RISC-V<b class='flag-5'>芯片</b>新突破:<b class='flag-5'>CPU</b>与<b class='flag-5'>GPU</b>一体化核心设计

    NVIDIA推出搭载GB200 Grace Blackwell超级芯片NVIDIA DGX SuperPOD™

    NVIDIA 于太平洋时间 3 月 18 日发布新一代 AI 超级计算机 —— 搭载 NVIDIA GB200 Grace Blackwell 超级
    的头像 发表于 03-21 09:49 332次阅读

    NVIDIA 推出 Blackwell 架构 DGX SuperPOD,适用于万亿参数级的生成式 AI 超级计算

    基于先进的 NVIDIA 网络、NVIDIA 全栈 AI 软件和存储技术,可将集群中 Grace Blackwell 超级芯片的数量扩展至数万个,通过
    发表于 03-19 10:56 106次阅读
    <b class='flag-5'>NVIDIA</b> 推出 Blackwell 架构 DGX SuperPOD,适用于万亿参数级的生成式 AI <b class='flag-5'>超级</b>计算

    深度解读Nvidia AI芯片路线图

    Nvidia是一个同时拥有 GPUCPU和DPU的计算芯片和系统公司。Nvidia通过NVLink、NVSwitch和NVLink C2C
    发表于 03-13 09:25 371次阅读
    深度解读<b class='flag-5'>Nvidia</b> AI<b class='flag-5'>芯片</b>路线图

    Nvidia与AMD新芯片,突破PCIe瓶颈

    AMD 和 NvidiaGPU 都依赖 PCI 总线与 CPU 进行通信。CPUGPU 有两个不同的内存域,数据必须通过 PCI
    的头像 发表于 03-08 14:15 234次阅读
    <b class='flag-5'>Nvidia</b>与AMD新<b class='flag-5'>芯片</b>,突破PCIe瓶颈

    大模型算驱动AI服务器行业报告

    AI服务器按芯片类型可分为CPU+GPUCPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%)
    发表于 11-28 09:18 118次阅读
    大模型算驱动AI服务器行业报告

    NVIDIA GPU的核心架构及架构演进

    在探讨 NVIDIA GPU 架构之前,我们先来了解一些相关的基本知识。GPU 的概念,是由 NVIDIA 公司在 1999 年发布 Geforce256 图形处理
    发表于 11-21 09:40 439次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b>的核心架构及架构演进

    NVIDIA Grace Hopper超级芯片横扫MLPerf推理基准测试

    Hopper超级芯片首次亮相 MLPerf 行业基准测试,其运行了所有数据中心推理测试,进一步扩大了NVIDIA H100 Tensor Core GPU的领先优势。   总体测试结
    发表于 09-13 09:45 165次阅读
    <b class='flag-5'>NVIDIA</b> Grace Hopper<b class='flag-5'>超级</b><b class='flag-5'>芯片</b>横扫MLPerf推理基准测试

    NVIDIA Grace Hopper 超级芯片横扫 MLPerf 推理基准测试

    超级芯片 首次亮相 MLPerf 行业基准测试,其运行了所有数据中心推理测试,进一步扩大了 NVIDIA H100 Tensor Core GPU 的领先优势。 总体测试结果表明,
    的头像 发表于 09-12 20:40 277次阅读

    NVIDIA最强CPU芯片架构——NVIDIA Grace CPU

    NVIDIA Grace Hopper Superchip将节能、高带宽的 NVIDIA Grace CPU 与功能强大的 NVIDIA H100 Hopper
    发表于 08-30 10:45 980次阅读
    <b class='flag-5'>NVIDIA</b>最强<b class='flag-5'>CPU</b><b class='flag-5'>芯片</b>架构——<b class='flag-5'>NVIDIA</b> Grace <b class='flag-5'>CPU</b>

    NVIDIA CPU+GPU超级芯片大升级!

    NVIDIA官方宣布了新一代GH200 Grace Hopper超级芯片平台,全球首发采用HBM3e高带宽内存,可满足世界上最复杂的生成式AI负载需求。
    的头像 发表于 08-10 09:37 955次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>CPU+GPU</b><b class='flag-5'>超级</b><b class='flag-5'>芯片</b>大升级!

    COMPUTEX2023 | 为加速生成式 AI 而设计的 NVIDIA Grace Hopper 超级芯片全面投产

    年 5 月 29 日 —  NVIDIA 于今日宣布 NVIDIA GH200 Grace Hopper 超级芯片 全面投产,将为全球各地即将上线的系统提供运行复杂 AI 和 HPC
    的头像 发表于 05-30 01:40 656次阅读
    COMPUTEX2023 | 为加速生成式 AI 而设计的 <b class='flag-5'>NVIDIA</b> Grace Hopper <b class='flag-5'>超级</b><b class='flag-5'>芯片</b>全面投产

    NVIDIA Grace 掀起新型节能 Arm 超级计算机的新浪潮

    公布了一个基于 NVIDIA Grace CPU 超级芯片超级计算机,为基于 Arm Neoverse 平台的新型节能
    的头像 发表于 05-23 07:10 381次阅读