0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVLink的演进

sakobpqhz 来源:算力基建 2023-10-11 15:32 次阅读

NVLink是Nvidia开发的一项用于GPU之间点对点高速互联的技术,其旨在突破PCIe互联带宽的限制,实现GPU芯片间低延迟、高带宽的数据互联,使得GPU间更加高效地协同工作。在NVLink技术问世之前(2014年前),GPU之间的互联需要通过PCIe switch来实现,如下图所示。GPU发出的信号需要先传递到PCIe switch, PCIe switch中涉及到数据的处理,CPU会对数据进行分发调度,这些都会引入额外的网络延迟,限制了系统性能。彼时,PCIe协议已经发展到Gen 3, 单通道的速率为8Gb/s, 16通道的总带宽为16GB/s (128Gbps,1 Byte= 8 bits ),随着GPU芯片性能的不断提升,其互联带宽成为瓶颈。

9b8b6bce-67c9-11ee-939d-92fbcf53809c.png

(图片来自https://en.wikichip.org/wiki/nvidia/nvlink)

2014年,NVLink 1.0发布,并应用在P100芯片上,如下图所示。两颗GPU之间有4条NVlink, 每个link中包含8个lane, 每条lane的速率是20Gb/s, 因此整个系统的双向带宽为160GB/s,是PCIe3 x16带宽的5倍。

9b95d640-67c9-11ee-939d-92fbcf53809c.png

(图片来自https://en.wikichip.org/wiki/nvidia/nvlink)

单个NVLink内部含有16对差分线,对应两个方向各8条lane的信道,如下图所示,差分对的两端为PHY,内部包含SerDes。

9b9e0c0c-67c9-11ee-939d-92fbcf53809c.png

(图片来自https://www.nextplatform.com/2016/05/04/nvlink-takes-gpu-acceleration-next-level/)

基于NVLink 1.0,可以形成4个GPU的平面mesh结构,两两之间形成点对点直连,而8个GPU则对应cube-mesh,进而可以组成DGX-1服务器,这也对应常见的8卡配置,如下图所示,需要注意的是,此时8个GPU并没有形成all-to-all连接。

9bb9340a-67c9-11ee-939d-92fbcf53809c.png

(图片来自https://developer.nvidia.com/blog/dgx-1-fastest-deep-learning-system/)

2017年,Nvidia推出了第二代NVLink技术。两颗GPU V100之间含6条NVLink, 每个link中包含8个lane, 每条lane的速率提升到25Gb/s, 整个系统的双向带宽变为300GB/s,带宽是NVLink 1.0的近2倍。与此同时,为了实现8颗GPU之间的all-to-all互联,Nvidia推出了NVSwitch技术。NVSwitch 1.0含有18个port, 每个port的带宽为50GB/s, 整体带宽为900GB/s。每个NVSwitch预留了两个port, 用于连接CPU。使用6个NVSwitch即可实现8颗GPU V100的all-to-all连接,如下图所示。

9bc5bac2-67c9-11ee-939d-92fbcf53809c.png

(图片来自https://en.wikichip.org/wiki/nvidia/nvswitch)

DGX-2系统则采用两个上图中的板子构建而成,如下图所示,实现了16颗GPU芯片的all-to-all连接。

9be3b6c6-67c9-11ee-939d-92fbcf53809c.png

(图片来自https://en.wikichip.org/wiki/nvidia/nvswitch)

2020年,NVLink 3.0技术诞生,两颗GPU A100芯片之间存在12条NVLink, 每条NVLink含有4条lane, 单条lane的速率为50Gb/s, 因此整个系统的双向带宽提升到600GB/s,总带宽相比NVLink 2.0提升了1倍。由于NVLink的数目增加了,NVSwitch的port数目也相应增加到36个,每个port的速率为50GB/s。由8颗GPU A100与4个NVSwitch组成了DGX A100, 如下图所示。

9bf1ad8a-67c9-11ee-939d-92fbcf53809c.png

(图片来自http://www.eventdrive.co.kr/2020/azwell/DGX_A100_Azwellplus.pdf)

2022年,NVLink技术升级到第四代,两个GPU H100芯片间通过18条NVLink互联,每条link中含2条lane, 每条lane支持100Gb/s PAM4的速率,因此双向总带宽提升到900GB/s。NVSwitch也升级到第三代,每个NVSwitch支持64个port,每个port的速率为50GB/s。DGX H100由8颗H100芯片与4颗NVSwitch芯片构成,如下图所示。图中每个NVSwitch的另一侧与多个800G OSFP光模块相连。以左侧第一个NVSwitch为例,其与GPU相连侧的单向总带宽为4Tbps (20NVLink*200Gbps),与光模块相连侧的总带宽为也为4Tbps (5*800Gbps),两者大小相等, 是非阻塞(non-blocking)网络。需要注意的是,光模块中的带宽是单向带宽,而在AI芯片中一般习惯使用双向带宽。

9bfc58a2-67c9-11ee-939d-92fbcf53809c.png

(图片来自https://blog.apnic.net/2023/08/10/large-language-models-the-hardware-connection/)

下表整理了每一代NVLink的指标参数

9c11e384-67c9-11ee-939d-92fbcf53809c.png

而PCIe每一代的参数如下表所示,

9c1af848-67c9-11ee-939d-92fbcf53809c.png

从单条lane的速率来看,NVLink整体比同一时期的PCIe的指标高1倍左右,而总带宽的优势更是明显,NVLink是PCIe总带宽的5倍左右。一直在超越,从未停止。

NVLink经过近十年的发展,已经成为Nvidia GPU芯片中的一个核心技术,是其生态系统中的重要一环,有效解决了GPU芯片之间高带宽、低延迟的数据互联难题,改变了传统的计算架构。但由于该技术是Nvidia独有,其它AI芯片公司只能采用PCIe或者其它互联协议。与此同时,Nvidia正在探索利用光互连实现GPU之间的连接,如下图所示,硅光芯片与GPU共封装在一起,两颗GPU芯片间通过光纤连接。

9c31b772-67c9-11ee-939d-92fbcf53809c.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4424

    浏览量

    126724
  • PCIe
    +关注

    关注

    13

    文章

    1083

    浏览量

    80885
  • PHY
    PHY
    +关注

    关注

    2

    文章

    265

    浏览量

    51015

原文标题:NVLink的演进

文章出处:【微信号:算力基建,微信公众号:算力基建】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    900GB/s,NVLink才是英伟达的互联杀手锏

    电子发烧友网报导(文/周凯扬)英伟达在GTC22上发布了全新的Grace Superchip,该芯片中用到了NVLink-C2C技术,而去年公开的Grace Hopper Superchip同样用到
    的头像 发表于 03-25 07:03 5023次阅读

    特斯拉V100 Nvlink是否支持v100卡的nvlink变种的GPU直通?

    /4029/SYS-4029GP-TVRT.cfm)我们正试图做pci将GPU直接传输到VM中但是当我们通过pci设备并安装驱动程序时,我们会从nvidia-nvlink模块中获得错误。是否支持v100卡的nvlink
    发表于 09-12 16:25

    java的IO演进之路概述

    第一章 java的IO演进之路
    发表于 07-24 16:53

    固定网络优化及演进,不看肯定后悔

    固定网络优化及演进,不看肯定后悔
    发表于 05-25 06:26

    英伟达GPU卡多卡互联NVLink,系统累积的公差,是怎么解决的?是连接器吸收的?

    英伟达不断推出GPU卡,并且实现多卡互联NVLink,实际整个系统会累积到一个较大的公差,而目前市面上已有的连接器只能吸收较少的公差,这个是怎么做到匹配的呢?
    发表于 03-05 16:17

    技嘉发布的NVLink连接器支持RGB灯光

    10月3日消息 随着RTX 2080和RTX 2080 Ti显卡的推出,各家厂商也推出了自家的NVLink连接器,已提供给发烧友使用,让他们享受到最为强大的显卡性能。之前华硕就公布了自家
    发表于 10-10 17:07 713次阅读

    技嘉发布全新NVLink连接器:拥有RGB灯光

    【大比特导读】10月3日消息 随着RTX 2080和RTX 2080 Ti显卡的推出,各家厂商也推出了自家的NVLink连接器,已提供给发烧友使用,让他们享受到最为强大的显卡性能。之前华硕就公布
    发表于 12-24 16:46 295次阅读

    RTX 3080 PCB上没有NVLink连接器

    查看两张照片,立即弹出的一件事是RTX 3080 PCB上没有NVLink连接器。另一方面,RTX 3090具有一个,考虑到其双GPU支持,可以预期。
    的头像 发表于 09-25 16:17 3969次阅读

    GTC2022大会亮点:NVIDIA宣布推出NVIDIA NVLink Switch系统

    GTC2022大会亮点:NVIDIA宣布推出NVIDIA NVLink Switch系统,借助NVLink Switch系统,可以将其扩展为一个巨大的拥有32个节点、256个GPU的DGX POD,都可借助4个端口光学收发器连接到NVL
    的头像 发表于 03-24 15:15 2692次阅读
    GTC2022大会亮点:NVIDIA宣布推出NVIDIA <b class='flag-5'>NVLink</b> Switch系统

    英伟达发布采用NVLink-C2C技术的Grace Superchip芯片

    电子发烧友网报道(文/周凯扬)英伟达在GTC22上发布了全新的Grace Superchip,该芯片中用到了NVLink-C2C技术,而去年公开的Grace Hopper Superchip同样用到
    的头像 发表于 03-26 11:20 2659次阅读

    什么是 NVLink

    NVLink 是加速系统中 GPU 和 CPU 处理器的高速互连技术,推动数据和计算加速得出可执行结果。 加速计算是一项曾经只有政府研究实验室中才有的高性能计算能力。如今,它已成为主流技术。 银行
    的头像 发表于 04-19 04:05 2155次阅读
    什么是 <b class='flag-5'>NVLink</b>?

    一文解析Nvlink的诞生和技术演进历程

    Nvlink-C2C是个错误的技术路径。 我仿佛记得Nvlink-C2C的主架构师Wei wei是我大学同学 ?有这么个模糊印象。 如果单纯从技术的角度,Nvlink-C2C真的是一个恰到好处的设计,挺佩服的。增之一分则太长,减
    发表于 07-03 11:50 3543次阅读
    一文解析<b class='flag-5'>Nvlink</b>的诞生和技术<b class='flag-5'>演进</b>历程

    什么是 NVLink?

    什么是 NVLink?
    的头像 发表于 10-27 16:10 349次阅读
    什么是 <b class='flag-5'>NVLink</b>?

    NVLink演进:从内部互联到超级网络

    NVLink是NVIDIA开发的一种高速、低延迟的互联技术,旨在连接多个GPU以实现高性能并行计算。与传统的PCIe总线相比,NVLink提供了更高的带宽和更低的延迟,使得GPU之间可以更加高效地共享数据和通信。
    的头像 发表于 04-13 11:22 574次阅读
    <b class='flag-5'>NVLink</b>的<b class='flag-5'>演进</b>:从内部互联到超级网络

    全面解读英伟达NVLink技术

    NVLink是一种解决服务器内GPU之间通信限制的协议。与传统的PCIe交换机不同,NVLink带宽有限,可以在服务器内的GPU之间实现高速直接互连。第四代NVLink提供更高的带宽,每条通道达到112Gbps,比PCIe Ge
    发表于 04-22 11:01 92次阅读
    全面解读英伟达<b class='flag-5'>NVLink</b>技术