0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA GB200 CPU+GPU超级芯片功耗达2700W

要长高 2024-07-31 13:02 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

7月31日,集邦咨询发布的最新报告揭示了AI服务器领域的一个重要趋势:随着计算能力与功耗的同步攀升,特别是NVIDIA计划在年底推出的下一代Blackwell平台将带来显著的功耗增长,液冷散热技术正逐步成为行业标配,预计今年底其市场渗透率将达到10%。

报告进一步指出,NVIDIA的Blackwell平台预计将在2025年正式大规模部署,接替当前的Hopper平台,成为高端市场的核心力量,占据近83%的市场份额。Blackwell B200单芯片的功耗已飙升至1000W,而由一颗Grace CPU与两颗Blackwell GPU组成的GB200超级芯片更是惊人地达到了2700W,这一数字远超前辈产品。

回顾历史,Hopper家族的H100与H200 GPU功耗均为700W,而H20则相对较低,为400W。Grace+Hopper超级芯片的功耗也达到了1000W。随着NVIDIA在服务器领域的布局深化,如HGX服务器预装8颗GPU,以及NVL36、NVL72等更高密度配置的推出,整体功耗分别攀升至70千瓦与140千瓦,对散热技术提出了前所未有的挑战。

为应对这一挑战,NVL36服务器计划在2024年底率先上市,初期将采用风冷与液冷并行的散热方案。而紧随其后的NVL72服务器,则计划在2025年直接优先采用液冷技术,其整体设计与散热系统的复杂性也显著增加。

NVIDIA预计,到2025年,基于GB200的NVL36服务器出货量有望达到6万台,同时Blackwell GPU的总出货量预计将介于210万至220万颗之间。这一预测进一步凸显了液冷散热技术在未来AI服务器市场中的关键地位。

在液冷散热系统的构成中,冷却分配单元(CDU)扮演着至关重要的角色,负责调节系统内冷却液的流量,确保温度得到有效控制。目前,维谛技术(Vertiv)是NVIDIA AI服务器方案中的主要CDU供应商,同时奇鋐、双鸿、台达电、CoolIT等企业也在积极进行测试验证,以期在这一新兴市场中占据一席之地。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11216

    浏览量

    222952
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109094
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5099

    浏览量

    134461
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    锦富技术斩获液冷板订单

    随着AI技术的发展和应用需求激增,市场对GPU性能的要求持续攀升,推动GPU芯片加速迭代升级。当前,GPU产品正从B200向新一代B300演
    的头像 发表于 10-28 17:39 1399次阅读

    GB10超级芯片开卖!正式杀入AI PC

    上,英伟就正式发布了首款个人超级电脑Project DIGITS,其搭载了由英伟与联发科合作开发的NVIDIA GB10 Grace B
    的头像 发表于 07-09 01:21 3739次阅读

    AI服务器电源技术研讨会部分演讲嘉宾确认

    AI服务器电源是2025-2026年AI硬件确定的增量,英伟超级芯片GB200功率到2700W,是传统服务器电源的5-7倍,但其面临的挑战
    的头像 发表于 06-24 10:07 783次阅读
    AI服务器电源技术研讨会部分演讲嘉宾确认

    总功率超198kW,AI服务器电源对元器件提出了哪些要求?

    芯片GB200功率到2700W,是传统服务器电源的5-7倍,但其面临的挑战同样不小。 超高功率需求与空间限制。 AI服务器(如搭载英伟Blackwell B100/B
    的头像 发表于 06-17 10:36 961次阅读
    总功率超198kW,AI服务器电源对元器件提出了哪些要求?

    低电压大电流时代:AI服务器XPU电源国产方案来了

    随着AI技术爆发式发展,算力芯片巨头不断刷新性能极限:AMD推出的Instinct MI300X加速卡最大功耗已达560W,英伟新一代GB200
    的头像 发表于 05-23 09:59 809次阅读
    低电压大电流时代:AI服务器XPU电源国产方案来了

    新思科技携手英伟加速芯片设计,提升芯片电子设计自动化效率

    解决方案在英伟 GPU和英伟 CUDA-X库上所实现的加速 基于英伟 GB200 Grace Blackwell
    发表于 03-19 17:59 437次阅读

    鸿海GB200 AI服务器顺利完成英伟交付目标

    据台媒报道,鸿海近期在AI服务器领域取得了显著成果。为确保英伟超级AI芯片GB200的出货进度,鸿海在中国台湾和越南等地的厂区在农历新年期间进行了大规模动员,总计投入超过5000人全
    的头像 发表于 02-06 17:59 1322次阅读

    英伟GB200 NVL72服务器出货量调低

    近日,天风国际证券分析师郭明錤发布报告指出,英伟GB200 NVL72服务器的出货量将低于预期。据悉,由于该服务器的组装量产时间多次延期,导致今年的出货量预估范围调整至2.5万至3.5万台之间。
    的头像 发表于 01-22 18:16 1332次阅读

    英伟Blackwell芯片机架出现故障 订单下滑

    Blackwell GB200机架订单。 一些客户正在等待改进版本的机架,或者计划购买该公司旧款的AI芯片。 微软最初计划在其位于凤凰城的一家工厂中安装至少5万块Blackwell芯片GB2
    的头像 发表于 01-14 15:39 664次阅读

    MediaTek与NVIDIA携手设计GB10 Grace Blackwell超级芯片

    MediaTek与NVIDIA近日宣布了一项重要合作,双方将共同设计NVIDIA GB10 Grace Blackwell超级芯片。这款
    的头像 发表于 01-13 10:48 887次阅读

    英伟推出GB200 NVL4芯片!液冷UQD快接头崛起

    英伟GB200 NVL4高功耗芯片亮相,超算散热革新加速。UQD快速接头作为液冷关键部件,于变局中登场,迎来机遇曙光。 在 2024 年美国超级
    的头像 发表于 01-10 16:58 1802次阅读
    英伟<b class='flag-5'>达</b>推出<b class='flag-5'>GB200</b> NVL4<b class='flag-5'>芯片</b>!液冷UQD快接头崛起

    MediaTek与NVIDIA携手打造超级芯片

    近日,在即将举行的CES2025消费电子展上,MediaTek宣布了一项重大合作——与NVIDIA共同设计NVIDIA GB10 Grace Blackwell超级
    的头像 发表于 01-10 13:49 818次阅读

    MediaTek与NVIDIA携手打造GB10 Grace Blackwell超级芯片

    MediaTek近日正式宣布与NVIDIA携手合作,共同设计NVIDIA GB10 Grace Blackwell超级芯片。这款
    的头像 发表于 01-08 15:32 1302次阅读

    英伟GB200出货在即,驱动被动元件需求新高峰

    随着英伟GB200即将大规模出货,被动元件市场将迎来新一轮的采购热潮。据业界观察,AI服务器对于积层陶瓷电容(MLCC)的需求量远超传统服务器,增幅超过一倍,并且单价更为优越。因此,如国巨、华新科等被动元件供应商有望显著提升其利润。
    的头像 发表于 01-07 17:21 2325次阅读

    联发科与NVIDIA合作 为NVIDIA 个人AI超级计算机设计NVIDIA GB10超级芯片

    联发科近日宣布与NVIDIA合作设计NVIDIA GB10 Grace Blackwell超级芯片,将应用于
    的头像 发表于 01-07 16:26 830次阅读