0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达AI服务器NVLink版与PCIe版有何区别?又如何选择呢?

智能计算芯世界 来源:智能计算芯世界 2024-03-19 11:21 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人工智能领域,英伟达作为行业领军者,推出了两种主要的GPU版本供AI服务器选择——NVLink版(实为SXM版)与PCIe版。这两者有何本质区别?又该如何根据应用场景做出最佳选择呢?让我们深入探讨一下。

** NVLink版的服务器**

SXM架构,全称Socketed Multi-Chip Module,是英伟达专为实现GPU间超高速互连而研发的一种高带宽插座式解决方案。这一独特的设计使得GPU能够无缝对接于英伟达自家的DGX和HGX系统。这些系统针对每一代英伟达GPU(包括最新款的H800、H100、A800、A100以及之前的P100、V100等型号)配备了特定的SXM插座,确保GPU与系统之间实现最高效率的连接。举例来说,一张展示8块A100 SXM卡在浪潮NF5488A5 HGX系统上并行工作的图片,直观展示了这种强大的整合能力。

在HGX系统主板上,8个GPU通过NVLink技术进行了紧密耦合,构建出前所未有的高带宽互联网络。具体来说,每一个H100 GPU会连接至4个NVLink交换芯片,从而实现GPU之间的惊人传输速度——高达900 GB/s的NVLink带宽。此外,每个H100 SXM GPU还通过PCIe接口CPU相连,确保任意GPU产生的数据都能快速传送到CPU进行处理。

wKgZomX5BQCAAGCPAAaUZ9psNS4086.jpg

进一步强化这种高性能互联的是NVSwitch芯片,它把DGX和HGX系统板上的所有SXM版GPU串联在一起,形成了一个高效的GPU数据交换网络。未削减功能的A100 GPU可达到600GB/s的NVLink带宽,而H100更是提升至900GB/s,即便是针对特定市场优化过的A800、H800也能保持400GB/s的高速互连性能。

wKgZomX5BQGAcsa3AAFipZOOabM282.jpg

谈及DGX和HGX的不同之处,NVIDIA DGX可视为出厂预装且高度可扩展的完整服务器解决方案,其在同等体积内的性能表现堪称业界翘楚。多台NVIDIA DGX H800可通过NVSwitch系统轻松组合,形成包含32个乃至64个节点的超级集群SuperPod,足以应对超大规模模型训练的严苛需求。而HGX则属于原始设备制造商(OEM)定制整机方案。

** PCIe版的服务器**

相比于SXM版GPU的全域互联,PCIe版GPU的互联方式更为传统和受限。在这种架构下,GPU仅仅通过NVLink Bridge与相邻的GPU实现直接连接,如图所示,GPU 1仅能直接连接至GPU 2,而非直接相连的GPU(如GPU 1与GPU 8)间的通信则必须通过较慢的PCIe通道来实现,这过程中还需要借助CPU的协助。目前最先进的PCIe标准提供的最大带宽仅为128GB/s,远不及NVLink的超高带宽。

wKgaomX5BQCAFaBNAAMHnYTn5TA366.jpg

然而,尽管在GPU间互联带宽上PCIe版稍逊一筹,但单就GPU卡本身的计算性能而言,PCIe版与SXM版并无显著差异。对于那些并不极端依赖于GPU间高速互连的应用场景,如中小型模型训练、推理应用部署等,GPU间互联带宽的高低并不会显著影响整体性能。

对比A100 PCIe与A100 SXM各项参数的图表显示两者的计算核心性能并无太大差别。

wKgaomX5BQCAIuqBAAILd99fRPs781.jpg

** 该如何选择?**

PCIe版GPU的优势主要体现在其出色的灵活性和适应性。对于工作负载较小、追求GPU数量配置灵活性的用户,PCIe版GPU无疑是个绝佳选择。例如,某些GPU服务器仅需配备4张或者更少的GPU卡,此时采用PCIe版即可方便地实现服务器的小型化,可轻松嵌入1U或2U服务器机箱,同时降低了对数据中心机架空间的要求。

此外,在推理应用部署环境中,我们经常通过虚拟化技术将资源拆分和细粒度分配,实现CPU与GPU的一对一匹配。在这个场景下,PCIe版GPU因其较低的能耗(约300W/GPU)和普遍兼容性而受到青睐。而相比之下,SXM版GPU在HGX架构中的功率消耗可能达到500W/GPU,虽然牺牲了一些能效比,却换取了顶级的互联性能优势。

综上所述,NVLink版(SXM版)GPU与PCIe版GPU各自服务于不同的市场需求。对于对GPU间互连带宽有着极高需求的大规模AI模型训练任务,SXM版GPU凭借其无可匹敌的NVLink带宽和极致性能,成为了理想的计算平台。而对于那些重视灵活性、节约成本、注重适度性能和广泛兼容性的用户,则可以选择PCIe版GPU,它尤其适合轻量级工作负载、有限GPU资源分配以及各类推理应用部署场景。

企业在选购英伟达AI服务器时,务必充分考虑当前业务需求、未来发展规划以及成本效益,合理评估两种GPU 服务器版本的优劣,以便找到最适合自身需求的解决方案。最终的目标是在保证计算效能的同时,最大化投资回报率,并为未来的拓展留足空间。



审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109110
  • PCIe
    +关注

    关注

    16

    文章

    1422

    浏览量

    87560
  • 交换芯片
    +关注

    关注

    0

    文章

    91

    浏览量

    11557
  • 英伟达
    +关注

    关注

    23

    文章

    4041

    浏览量

    97689
  • GPU芯片
    +关注

    关注

    1

    文章

    306

    浏览量

    6402

原文标题:英伟达AI服务器NVLink版与PCIe版的差异与选择

文章出处:【微信号:AI_Architect,微信公众号:智能计算芯世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    市值近4万亿美元!英伟GB300服务器正式出货

    突破 4 万亿美元市值,但 3.92 万亿美元已是有史以来全球科技公司的最高市值。分析人士认为,英伟必将正式加冕为历史上市值最高的公司。   除了股市表现亮眼,英伟
    的头像 发表于 07-06 05:28 6538次阅读
    市值近4万亿美元!<b class='flag-5'>英伟</b><b class='flag-5'>达</b>GB300<b class='flag-5'>服务器</b>正式出货

    GPU猛兽袭来!HBM4、AI服务器彻底引爆!

    电子发烧友网报道(文/黄晶晶)日前,多家服务器厂商表示因AI服务器需求高涨拉高业绩增长。随着AI服务器需求旺盛,以及
    的头像 发表于 06-02 06:54 6468次阅读

    轻量云服务器和云服务器区别:2025年终极选择指南

    资源、稳定计算性能及完整管理权限,支持垂直与水平扩展,适合企业级应用和高并发场景。选择取决于业务需求:轻量服务器适用于成本敏感型场景,标准云服务器则为高性能、高稳定性要求的业务提供保障。关键是根据实际负载和增长预期合理选型,下文
    的头像 发表于 09-01 13:58 728次阅读
    轻量云<b class='flag-5'>服务器</b>和云<b class='flag-5'>服务器</b><b class='flag-5'>区别</b>:2025年终极<b class='flag-5'>选择</b>指南

    继HBM之后,英伟带火又一AI内存模组!颠覆AI服务器与PC

    Attached Memory Module,即小型化压缩附加内存模组,是英伟主导开发的一种新型内存模块,是适用于数据中心 AI 服务器的新型高
    的头像 发表于 07-27 07:50 4325次阅读

    ai服务器是什么?与普通服务器什么区别

    AI服务器并非简单的硬件堆砌,而是专门为人工智能任务设计的高性能计算系统。其核心目标是高效处理海量数据并行计算(如矩阵乘法、模型推理),并针对AI工作负载(如深度学习训练、大模型推理)进行全方位优化。
    的头像 发表于 06-24 16:39 2961次阅读

    AI服务器电源技术研讨会部分演讲嘉宾确认

    AI服务器电源是2025-2026年AI硬件确定的增量,英伟超级芯片GB200功率到2700W,是传统
    的头像 发表于 06-24 10:07 795次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源技术研讨会部分演讲嘉宾确认

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】+NVlink技术从应用到原理

    的我还没接触过大模型的内容以及后期从事的视觉检测分析技术,再后来不论是自己的PC还是工作服务器,基本都是单旗舰卡,也没过多接触过NVlink技术(实际是后续都只在顶级卡上用NVlink,多卡组不起
    发表于 06-18 19:31

    总功率超198kW,AI服务器电源对元器件提出了哪些要求?

    芯片GB200功率到2700W,是传统服务器电源的5-7倍,但其面临的挑战同样不小。 超高功率需求与空间限制。 AI服务器(如搭载英伟Bl
    的头像 发表于 06-17 10:36 973次阅读
    总功率超198kW,<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源对元器件提出了哪些要求?

    服务器和独立服务器区别在哪?一文读懂如何选择

    面对云服务器与独立服务器选择,许多人常因概念模糊而纠结。云服务器和独立服务器区别在于资源分配
    的头像 发表于 05-19 10:19 448次阅读

    萨瑞微电子SiC 和 GaN赋能AI服务器电源系统

    01AI服务器电源的核心挑战与技术需求超高功率密度:单机架功率已从传统服务器的数千瓦提升至数十千瓦(如英伟DGX-2需10kW,未来GB3
    的头像 发表于 04-03 14:41 982次阅读
    萨瑞微电子SiC 和 GaN赋能<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源系统

    如何在RAKsmart服务器上实现企业AI模型部署

    AI模型的训练与部署需要强大的算力支持、稳定的网络环境和专业的技术管理。RAKsmart作为全球领先的服务器托管与云计算服务提供商,已成为企业部署AI模型的理想
    的头像 发表于 03-27 09:46 765次阅读

    鸿海GB200 AI服务器顺利完成英伟交付目标

    据台媒报道,鸿海近期在AI服务器领域取得了显著成果。为确保英伟超级AI芯片GB200的出货进度,鸿海在中国台湾和越南等地的厂区在农历新年期
    的头像 发表于 02-06 17:59 1331次阅读

    英伟GB200 NVL72服务器出货量调低

    近日,天风国际证券分析师郭明錤发布报告指出,英伟GB200 NVL72服务器的出货量将低于预期。据悉,由于该服务器的组装量产时间多次延期,导致今年的出货量预估范围调整至2.5万至3.
    的头像 发表于 01-22 18:16 1341次阅读

    英伟GB300 AI服务器预计2025年Q2发布,强化水冷散热需求

    近日,据供应链最新消息,英伟正紧锣密鼓地设计其下一代GB300 AI服务器,并预计在2025年第二季度正式发布。随后,该产品将在第三季度进入试产阶段,标志着
    的头像 发表于 01-06 10:19 1877次阅读

    英伟GB300 AI服务器订单配置初定

    近日,据业界消息透露,英伟已初步敲定了其下一代GB300 AI服务器产品线的订单配置。预计英伟
    的头像 发表于 12-25 10:52 1606次阅读