0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达AI服务器NVLink版与PCIe版有何区别?又如何选择呢?

智能计算芯世界 来源:智能计算芯世界 2024-03-19 11:21 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人工智能领域,英伟达作为行业领军者,推出了两种主要的GPU版本供AI服务器选择——NVLink版(实为SXM版)与PCIe版。这两者有何本质区别?又该如何根据应用场景做出最佳选择呢?让我们深入探讨一下。

** NVLink版的服务器**

SXM架构,全称Socketed Multi-Chip Module,是英伟达专为实现GPU间超高速互连而研发的一种高带宽插座式解决方案。这一独特的设计使得GPU能够无缝对接于英伟达自家的DGX和HGX系统。这些系统针对每一代英伟达GPU(包括最新款的H800、H100、A800、A100以及之前的P100、V100等型号)配备了特定的SXM插座,确保GPU与系统之间实现最高效率的连接。举例来说,一张展示8块A100 SXM卡在浪潮NF5488A5 HGX系统上并行工作的图片,直观展示了这种强大的整合能力。

在HGX系统主板上,8个GPU通过NVLink技术进行了紧密耦合,构建出前所未有的高带宽互联网络。具体来说,每一个H100 GPU会连接至4个NVLink交换芯片,从而实现GPU之间的惊人传输速度——高达900 GB/s的NVLink带宽。此外,每个H100 SXM GPU还通过PCIe接口CPU相连,确保任意GPU产生的数据都能快速传送到CPU进行处理。

wKgZomX5BQCAAGCPAAaUZ9psNS4086.jpg

进一步强化这种高性能互联的是NVSwitch芯片,它把DGX和HGX系统板上的所有SXM版GPU串联在一起,形成了一个高效的GPU数据交换网络。未削减功能的A100 GPU可达到600GB/s的NVLink带宽,而H100更是提升至900GB/s,即便是针对特定市场优化过的A800、H800也能保持400GB/s的高速互连性能。

wKgZomX5BQGAcsa3AAFipZOOabM282.jpg

谈及DGX和HGX的不同之处,NVIDIA DGX可视为出厂预装且高度可扩展的完整服务器解决方案,其在同等体积内的性能表现堪称业界翘楚。多台NVIDIA DGX H800可通过NVSwitch系统轻松组合,形成包含32个乃至64个节点的超级集群SuperPod,足以应对超大规模模型训练的严苛需求。而HGX则属于原始设备制造商(OEM)定制整机方案。

** PCIe版的服务器**

相比于SXM版GPU的全域互联,PCIe版GPU的互联方式更为传统和受限。在这种架构下,GPU仅仅通过NVLink Bridge与相邻的GPU实现直接连接,如图所示,GPU 1仅能直接连接至GPU 2,而非直接相连的GPU(如GPU 1与GPU 8)间的通信则必须通过较慢的PCIe通道来实现,这过程中还需要借助CPU的协助。目前最先进的PCIe标准提供的最大带宽仅为128GB/s,远不及NVLink的超高带宽。

wKgaomX5BQCAFaBNAAMHnYTn5TA366.jpg

然而,尽管在GPU间互联带宽上PCIe版稍逊一筹,但单就GPU卡本身的计算性能而言,PCIe版与SXM版并无显著差异。对于那些并不极端依赖于GPU间高速互连的应用场景,如中小型模型训练、推理应用部署等,GPU间互联带宽的高低并不会显著影响整体性能。

对比A100 PCIe与A100 SXM各项参数的图表显示两者的计算核心性能并无太大差别。

wKgaomX5BQCAIuqBAAILd99fRPs781.jpg

** 该如何选择?**

PCIe版GPU的优势主要体现在其出色的灵活性和适应性。对于工作负载较小、追求GPU数量配置灵活性的用户,PCIe版GPU无疑是个绝佳选择。例如,某些GPU服务器仅需配备4张或者更少的GPU卡,此时采用PCIe版即可方便地实现服务器的小型化,可轻松嵌入1U或2U服务器机箱,同时降低了对数据中心机架空间的要求。

此外,在推理应用部署环境中,我们经常通过虚拟化技术将资源拆分和细粒度分配,实现CPU与GPU的一对一匹配。在这个场景下,PCIe版GPU因其较低的能耗(约300W/GPU)和普遍兼容性而受到青睐。而相比之下,SXM版GPU在HGX架构中的功率消耗可能达到500W/GPU,虽然牺牲了一些能效比,却换取了顶级的互联性能优势。

综上所述,NVLink版(SXM版)GPU与PCIe版GPU各自服务于不同的市场需求。对于对GPU间互连带宽有着极高需求的大规模AI模型训练任务,SXM版GPU凭借其无可匹敌的NVLink带宽和极致性能,成为了理想的计算平台。而对于那些重视灵活性、节约成本、注重适度性能和广泛兼容性的用户,则可以选择PCIe版GPU,它尤其适合轻量级工作负载、有限GPU资源分配以及各类推理应用部署场景。

企业在选购英伟达AI服务器时,务必充分考虑当前业务需求、未来发展规划以及成本效益,合理评估两种GPU 服务器版本的优劣,以便找到最适合自身需求的解决方案。最终的目标是在保证计算效能的同时,最大化投资回报率,并为未来的拓展留足空间。



审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5685

    浏览量

    110111
  • PCIe
    +关注

    关注

    16

    文章

    1477

    浏览量

    88907
  • 交换芯片
    +关注

    关注

    0

    文章

    94

    浏览量

    11662
  • 英伟达
    +关注

    关注

    23

    文章

    4115

    浏览量

    99604
  • GPU芯片
    +关注

    关注

    1

    文章

    307

    浏览量

    6553

原文标题:英伟达AI服务器NVLink版与PCIe版的差异与选择

文章出处:【微信号:AI_Architect,微信公众号:智能计算芯世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    市值近4万亿美元!英伟GB300服务器正式出货

    突破 4 万亿美元市值,但 3.92 万亿美元已是有史以来全球科技公司的最高市值。分析人士认为,英伟必将正式加冕为历史上市值最高的公司。   除了股市表现亮眼,英伟
    的头像 发表于 07-06 05:28 7424次阅读
    市值近4万亿美元!<b class='flag-5'>英伟</b><b class='flag-5'>达</b>GB300<b class='flag-5'>服务器</b>正式出货

    GPU猛兽袭来!HBM4、AI服务器彻底引爆!

    电子发烧友网报道(文/黄晶晶)日前,多家服务器厂商表示因AI服务器需求高涨拉高业绩增长。随着AI服务器需求旺盛,以及
    的头像 发表于 06-02 06:54 6992次阅读

    硅光成AI胜负手?英伟20亿美元战略投资Marvell

    纳入英伟 AI 生态体系,并在硅光子技术领域展开深度合作,旨在帮助客户更高效地搭建 AI 算力基础设施。   构建 “异构计算” 新范式 根据双方签署的战略协议,此次合作的核心围绕
    的头像 发表于 04-06 07:02 1.1w次阅读

    普通服务器电源与AI服务器电源的区别(上)

    普通服务器电源与AI服务器电源的区别,为相关测试及应用工作提供参考。输出电压精度方面的区别输出电压精度是
    的头像 发表于 01-12 09:31 1396次阅读
    普通<b class='flag-5'>服务器</b>电源与<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源的<b class='flag-5'>区别</b>(上)

    液冷重塑AI服务器电源?对材料器件要求

    随着AI服务器功率密度持续攀升,传统风冷方案正逐步逼近极限。单机柜功率从过去的二三十千瓦,快速跃升至如今的几百千瓦,对散热提出了极致要求。高热流密度使散热系统成为制约服务器性能释放的关键瓶颈。在这一背景下,液冷散热不再只是“可选
    的头像 发表于 12-13 16:46 1879次阅读
    液冷重塑<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源?对材料器件<b class='flag-5'>有</b><b class='flag-5'>何</b>要求

    罗姆强势入局AI服务器800VDC电源方案 原创

    % 。 AI 训练耗电量是网络搜索的 10 倍以上 。 AI 服务器 GPU 性能增长的同时功率持续飙升。以 英伟 为例,其 GPU 的
    的头像 发表于 12-13 00:25 8674次阅读

    罗姆强势入局AI服务器800VDC电源方案

    的10倍以上。   AI服务器GPU性能增长的同时功率持续飙升。以英伟为例,其GPU的TDP热设计功耗从H100的700W,攀升至B300的1.4KW,明年VR200将
    的头像 发表于 12-12 15:42 5352次阅读
    罗姆强势入局<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>800VDC电源方案

    轻量云服务器和云服务器区别:2025年终极选择指南

    资源、稳定计算性能及完整管理权限,支持垂直与水平扩展,适合企业级应用和高并发场景。选择取决于业务需求:轻量服务器适用于成本敏感型场景,标准云服务器则为高性能、高稳定性要求的业务提供保障。关键是根据实际负载和增长预期合理选型,下文
    的头像 发表于 09-01 13:58 1561次阅读
    轻量云<b class='flag-5'>服务器</b>和云<b class='flag-5'>服务器</b><b class='flag-5'>区别</b>:2025年终极<b class='flag-5'>选择</b>指南

    继HBM之后,英伟带火又一AI内存模组!颠覆AI服务器与PC

    Attached Memory Module,即小型化压缩附加内存模组,是英伟主导开发的一种新型内存模块,是适用于数据中心 AI 服务器的新型高
    的头像 发表于 07-27 07:50 5013次阅读

    ai服务器是什么?与普通服务器什么区别

    AI服务器并非简单的硬件堆砌,而是专门为人工智能任务设计的高性能计算系统。其核心目标是高效处理海量数据并行计算(如矩阵乘法、模型推理),并针对AI工作负载(如深度学习训练、大模型推理)进行全方位优化。
    的头像 发表于 06-24 16:39 4922次阅读

    AI服务器电源技术研讨会部分演讲嘉宾确认

    AI服务器电源是2025-2026年AI硬件确定的增量,英伟超级芯片GB200功率到2700W,是传统
    的头像 发表于 06-24 10:07 1392次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源技术研讨会部分演讲嘉宾确认

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】+NVlink技术从应用到原理

    的我还没接触过大模型的内容以及后期从事的视觉检测分析技术,再后来不论是自己的PC还是工作服务器,基本都是单旗舰卡,也没过多接触过NVlink技术(实际是后续都只在顶级卡上用NVlink,多卡组不起
    发表于 06-18 19:31

    总功率超198kW,AI服务器电源对元器件提出了哪些要求?

    芯片GB200功率到2700W,是传统服务器电源的5-7倍,但其面临的挑战同样不小。 超高功率需求与空间限制。 AI服务器(如搭载英伟Bl
    的头像 发表于 06-17 10:36 1515次阅读
    总功率超198kW,<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源对元器件提出了哪些要求?

    服务器和独立服务器区别在哪?一文读懂如何选择

    面对云服务器与独立服务器选择,许多人常因概念模糊而纠结。云服务器和独立服务器区别在于资源分配
    的头像 发表于 05-19 10:19 811次阅读

    RAKsmart服务器如何赋能AI开发与部署

    AI开发与部署的复杂性不仅体现在算法设计层面,更依赖于底层基础设施的支撑能力。RAKsmart服务器凭借其高性能硬件架构、灵活的资源调度能力以及面向AI场景的深度优化,正在成为企业突破算力瓶颈、加速
    的头像 发表于 04-30 09:22 946次阅读