0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

看看RDMA让网络实现低时延的绝招

中兴文档 来源:中兴文档 作者:中兴文档 2022-11-15 09:46 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

数据中心现状

随着“新基建”将5G人工智能、工业互联网列为新型基础领域,机器学习、智能语音交互、自动驾驶等一大批基于高性能计算的应用层出不穷,这些应用带来了数据的爆炸式增长,给数据中心的处理能力带来了很大的挑战。

计算、存储和网络是推动数据中心发展的三驾马车。计算随着CPUGPUFPGA的发展,算力得到了极大的提升。存储随着闪存盘(SSD)的引入,数据存取时延已大幅降低。但是网络的发展明显滞后,传输时延高,逐渐成为了数据中心高性能的瓶颈。

e9e9c194-6473-11ed-8abf-dac502259ad0.png

在数据中心内,70%的流量为东西向流量(服务器之间的流量),这些流量一般为数据中心进行高性能分布式并行计算时的过程数据流,通过TCP/IP网络传输。如果服务器之间的TCP/IP 传输速率提升了,数据中心的性能自然也会跟着提升。

ea04aa54-6473-11ed-8abf-dac502259ad0.png

下面我们就来看看服务器之间数据TCP/IP 传输的过程,了解下“时间都去哪了”,才好“对症下药”。

服务器间的TCP/IP传输

在数据中心,服务器A向服务器B发送数据的过程如下:

1、CPU控制数据由A的APP Buffer拷贝到操作系统Buffer。

2、CPU控制数据在操作系统(OS)Buffer中添加TCP、IP报文头。

3、添加TCP、IP报文头后的数据传送到网卡(NIC),添加以太网报文头。

4、报文由网卡发送,通过以太网络传输到服务器B网卡。

5、服务器B网卡卸载报文的以太网报文头后,将其传输到操作系统Buffer。

6、CPU控制操作系统Buffer中的报文卸载TCP、IP报文头。

7、CPU控制卸载后的数据传输到APP Buffer中。

ea38b1b4-6473-11ed-8abf-dac502259ad0.png

从数据传输的过程可以看出,数据在服务器的Buffer内多次拷贝,在操作系统中需要添加/卸载TCP、IP报文头,这些操作既增加了数据传输时延,又消耗了大量的CPU资源,无法很好得满足高性能计算的需求。

那么,如何构造高吞吐量、超低时延和低CPU开销的高性能数据中心网络呢?RDMA技术可以做到。

什么是RDMA

RDMA( Remote Direct Memory Access,远程直接地址访问技术 )是一种新的内存访问技术,可以让服务器直接高速读写其他服务器的内存数据,而不需要经过操作系统/CPU耗时的处理。

RDMA不算是一项新技术,已经广泛应用于高性能(HPC)科学计算中。随着数据中心高带宽、低时延的发展需求,RDMA也开始逐渐应用于某些要求数据中心具备高性能的场景中。

举个例子,2021年某大型网上商城的双十一交易额再创新高,达到5000多亿,比2020年又增长了近10%。如此巨大的交易额背后是海量的数据处理,该网上商城采用了RDMA技术来支撑高性能网络,保障了双十一的顺畅购物。

下面我们一起来看看RDMA让网络实现低时延的绝招吧。

RDMA将服务器应用数据直接由内存传输到智能网卡(固化RDMA协议),由智能网卡硬件完成RDMA传输报文封装,解放了操作系统和CPU。

ea6f6d12-6473-11ed-8abf-dac502259ad0.png

这使得RDMA具有两大优势:

Zero Copy(零拷贝):无需将数据拷贝到操作系统内核态并处理数据包头部的过程,传输延迟会显著减小。

Kernel Bypass(内核旁路)和Protocol Offload(协议卸载):不需要操作系统内核参与,数据通路中没有繁琐的处理报头逻辑,不仅会使延迟降低,而且也大大节省了CPU的资源。

ea949f1a-6473-11ed-8abf-dac502259ad0.png

三大RDMA网络

目前,大致有三类RDMA网络,分别是InfiniBand、RoCE(RDMA over Converged Ethernet,RDMA过融合以太网)和iWARP(RDMA over TCP,互联网广域RDMA协议)。RDMA最早专属于Infiniband网络架构,从硬件级别保证可靠传输,而RoCE 和 iWARP都是基于以太网的RDMA技术。

InfiniBand

InfiniBand是一种专为RDMA设计的网络。

采用Cut-Through转发模式(直通转发模式),减少转发时延。

基于Credit的流控机制(基于信用的流控机制),保证无丢包。

要求InfiniBand专用的网卡、交换机和路由器,建网成本最高。

RoCE

传输层为InfiniBand协议。

RoCE有两个版本:RoCEv1基于以太网链路层实现,只能在L2层传输;RoCEv2基于UDP承载RDMA,可部署于三层网络。

需要支持RDMA专用智能网卡,不需要专用交换机和路由器(支持ECN/PFC等技术,降低丢包率),建网成本最低。

iWARP

传输层为iWARP协议。

iWARP是以太网TCP/IP协议中TCP层实现,支持L2/L3层传输,大型组网TCP连接会消耗大量CPU,所以应用很少。

iWARP只要求网卡支持RDMA,不需要专用交换机和路由器,建网成本介于InfiniBand和RoCE之间。

Infiniband技术先进,但是价格高昂,应用局限在HPC高性能计算领域,随着RoCE和iWARPC的出现,降低了RDMA的使用成本,推动了RDMA技术普及。

在高性能存储、计算数据中心中采用这三类RDMA网络,都可以大幅度降低数据传输时延,并为应用程序提供更高的CPU资源可用性。其中InfiniBand网络为数据中心带来极致的性能,传输时延低至百纳秒,比以太网设备延时要低一个量级。

RoCE和iWARP网络为数据中心带来超高性价比,基于以太网承载RDMA,充分利用了RDMA的高性能和低CPU使用率等优势,同时网络建设成本也不高。

基于UDP协议的RoCE比基于TCP协议的iWARP性能更好,结合无损以太网的流控技术,解决了丢包敏感的问题,RoCE网络已广泛应用于各行业高性能数据中心中。

结语

随着5G、人工智能、工业互联网等新型领域的发展,RDMA技术的应用会越来越普及,RDMA将成为助力数据中心高性能的一大功臣。







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1655

    文章

    22283

    浏览量

    630223
  • SSD
    SSD
    +关注

    关注

    21

    文章

    3061

    浏览量

    121774
  • RDMA
    +关注

    关注

    0

    文章

    85

    浏览量

    9557

原文标题:RDMA能给数据中心带来什么

文章出处:【微信号:ztedoc,微信公众号:中兴文档】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    RDMA设计6:IP架构2

    实现RDMA 队列管理功能,包括队列存储、队列创建及删除、队列仲裁等功能。同时,本模块也负责控制 DMA 数据读写,将数据读写请求转换为 AXI4 总线事务,通过 AXI4 总线接口读写数据,并
    发表于 11-26 10:24

    RDMA设计3:技术需求分析1

    正确地处理网络拥塞情况并正确地进行流量控制。因此,需要实现完备的队列管理及拥塞处理功能,在满足性 能要求的同时适应不同的应用环境。具体要求为使用 QSFP28 及以上光纤接口,在传输不小于 256
    发表于 11-21 09:02

    RDMA设计2:开发必要性之性能简介

    专注高性能存储与传输,这里分享RDMA设计,之前已介绍RDMA相关知识,在本博客已给出相关博文已100多篇,希望对初学者有用。注意这里只是抛砖引玉,切莫认为参考这就可以完成商用IP设计。若有NVME
    发表于 11-20 10:57

    RDMA设计1:开发必要性1之设计考虑

    。 一. 选择 RDMA IP 开发必要性 为了满足大批量数据的采集、 存储与传输需求, 如机器学习、 雷达、 ⾦融⻛控、 航空航天等, 如何在 FPGA 上实现高带宽、 延时的数据传输以
    发表于 11-19 14:30

    光交换机:纳秒速率、与高密度端口重构AI算力网络

    速率(光电交换机可达纳秒级,光机械交换机达毫秒级)、架构(时低于10微秒)、高能效比(功耗较InfiniBand或以太网方案降低65%以上)。这种技术特性使其在AI算力网络中展
    的头像 发表于 09-26 09:11 6843次阅读

    解析DCQCN:RDMA在数据中心网络的关键拥塞控制协议

    DCQCN ( Data Center Quantized Congestion Notification),数据中心量化拥塞通知。它是一种专门为数据中心网络设计的端到端拥塞控制协议。其核心目的是在使用RDMA(RoCEv2) 的网络
    的头像 发表于 09-15 11:45 1495次阅读
    解析DCQCN:<b class='flag-5'>RDMA</b>在数据中心<b class='flag-5'>网络</b>的关键拥塞控制协议

    RDMA over RoCE V2设计1:通用,稳定及高性能!

    # 设计目标: RDMA技术采用无感传输机制,消除传统网络传输中需要CPU介入下的多重数据复制与内核参与环节,实现直接跨主机内存访问的机制。其设计目标为优化分布式环境下的数据传输效率,降低CPU负载
    发表于 08-05 17:53

    RDMA over RoCE V2设计2:ip 整体框架设计考虑

    ,完成网络层级中网络层及应用层功能。该模块负责将来自系统控制模块的功能请求转换为RoCE v2 指令,如建链、断链、数据传输,并执行指令提交及完成机制。此外,该模块还实现RDMA
    发表于 07-16 08:51

    RDMA over RoCE V2设计1:通用,稳定及高性能!

    一)设计目标: RDMA技术采用无感传输机制,消除传统网络传输中需要CPU介入下的多重数据复制与内核参与环节,实现直接跨主机内存访问的机制。其设计目标为优化分布式环境下的数据传输效率,降低CPU负载
    发表于 07-15 10:54

    RDMA简介3之四种子协议对比

    RDMA协议共有四种子协议,分别为InfiniBand、iWARP、RoCE v1和RoCE v2协议。这四种协议使用统一的RDMA API,但在具体的网络层级实现上有所不同,如图1所
    发表于 06-04 16:05

    RDMA简介2之A技术优势分析

    随着数据中心对于网络带宽和延迟的要求日益增长,传统的TCP/IP网络已无法满足性能要求,RDMA网络则凭借其高带宽、延时的特性脱颖而出。相
    发表于 06-04 11:35

    RDMA简介1之RDMA开发必要性

    ,提供高通量、延迟、远距离的零拷贝网络数据传输。基于融合以太网的远程直接内存访问(RoCE)提供了一种基于以太网的RDMA技术实现方法,相较于IB(InfiniBand)、互联网广域
    发表于 06-03 14:38

    一文详解以太网RDMA技术

    在现代计算机网络中,传输效率和是高性能计算、云计算、分布式存储等应用的关键需求。而远程直接内存访问(RDMA,Remote Direct Memory Access)技术因其高效
    的头像 发表于 03-10 11:09 4435次阅读
    一文详解以太网<b class='flag-5'>RDMA</b>技术

    如何实现开源开放生态下的RDMA网络监控?

    在当今AI、大模型飞速发展的时代,RDMA(Remote Direct Memory Access,远程直接内存访问)网络技术凭借其延迟、高吞吐量的特性,在数据中心、高性能计算等领域得到了广泛应用
    的头像 发表于 03-03 13:42 967次阅读
    如何<b class='flag-5'>实现</b>开源开放生态下的<b class='flag-5'>RDMA</b><b class='flag-5'>网络</b>监控?

    加速网络性能:融合以太网 RDMA (RoCE) 的影响

    直接内存访问 (RDMA) (RoCE)。这项突破性技术促进了系统之间的直接数据传输,无需 CPU 干预,从而显着减少延迟并提高整体系统性能。[爱波]一家著名的 FPGA 设计公司处于这一进步的最前沿,通过将 AMD 的 ERNIC IP(以太网 RDMA
    的头像 发表于 01-25 11:50 1774次阅读
    加速<b class='flag-5'>网络</b>性能:融合以太网 <b class='flag-5'>RDMA</b> (RoCE) 的影响