0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVMe-oF的优势及未来

SSDFans 来源:ssdfans 作者:ssdfans 2021-01-05 17:42 次阅读

NVMe over Fabric(又名NVMe- oF)是一种新兴技术,它支持对数据中心的计算和存储进行分解。美光科技正通过与Marvell、Foxconn-Ingrasys和英伟达(NVIDIA)等关键技术合作伙伴的合作,共同解锁NVMe-oF技术可以带来的优势。我们还在开发创新技术,如异构存储器存储引擎(HSE),这将有助于使用NVMe-oF优化对闪存的大规模访问。

NVMe-oF是什么?

NVMe- oF从字面上来看是网络上的NVMe协议的扩展,其扩展范围远远超出了目前搭载SSD的服务器。NVMe早在2011年就出现了,而fabrics扩展则在2016年首次标准化。NVMe-oF继承了NVMe的所有优点,包括轻量级和高效的命令集、多核感知和协议并行性。NVMe-oF是真正的网络无关的,因为它支持所有常见的fabrics,包括光纤通道、InfiniBand和以太网。图1比较了NVMe和NVMe- of模型,并标注出了用户可用的各种网络和网络传输选项。

33d85f06-4f39-11eb-8b86-12bb97331649.png

图1 NVMe和NVMe-oF模型对比

从图1可以看出,有两种以太网传输选项,RoCE v2和NVMe-TCP,每一种都各有优缺点。RoCE v2延迟较低,但需要专用的支持RDMA的NIC (RNIC);NVMe-TCP不需要专用的RNIC,但是其传输延迟和CPU使用率都更高,它使用的是标准NIC。相比之下,RoCE v2目前在市场上更为流行。

NVMe over Fabrics的优势是什么?

使用NVMe就意味着只能使用基于PCIe交换机的服务器机架。虽然这是一种完全有效的存储扩展方法,但它的范围是非常有限的。NVMe-oF则允许在数据中心范围内连接无数的存储空间。

如今,NVMe-oF已经很成熟了,许多用户接受了将全闪存阵列(AFA)连接到服务器的技术。然而,NVMe-oF的优势只有在计算和存储完全分开时才能完全发挥出来。也就是说,通过网络将一个NVMe SSD池提供给一个服务器池,这种方式允许按需提供计算和存储。计算和存储的分解提升了存储的可伸缩性和可共享性,并支持可组合性,如图2所示。

34193f1c-4f39-11eb-8b86-12bb97331649.jpg

图2 计算和存储分解图

分类存储的另一个维度是存储服务(即数据保护、复制、压缩等)。存储服务可以由服务器(onload模型)管理,也可以卸载到接近实际存储的数据处理单元(DPU)。onload模型需要消耗额外的CPU周期和网络带宽,可以实现成本最小化,而卸载模型的成本较高,并且根据供应情况,可能产生瓶颈。由于onload模型的TCO(总成本)优势,大规模追求低成本存储使其附加了存储策略。

什么是EBOF、JBOF和JBOD ?

全闪存阵列有两种接入方式: 通过网络接入(EBOF)和直接连接 (JBOF)。不要混淆JBOF和JBOD(只是一堆磁盘)。JBOD通常用于在PCIe上使用NVMe扩展机架中的存储。EBOF或JBOF可以使用NVMe-oF在数据中心之间扩展存储。如图3所示,JBOF使用PCIe交换机向SSD扩展,而EBOF使用以太网交换机向SSD扩展。JBOF和EBOF都使用NVMe-oF连接回服务器。

348b85a4-4f39-11eb-8b86-12bb97331649.png

图3 EBOF 和 JBOF对比图

除了以太网和PCIe交换之外,这两种方法的主要区别在于从NVMe到NVMe-oF的转换发生在哪里。在JBOF上,转换或桥接是在外围使用一个或多个DPU (x DPU到y SSD, x:y比率)。在EBOF上,桥接在SSD载体完成(x桥接到x SSD, 1:1的比例)。虽然JBOF有使用DPU的处理能力来运行存储服务的优势,但它确实存在一个潜在的瓶颈,并且和EBOF模型相比,带来了额外的成本,具有一些新功能。当桥与固态硬盘的比例不是1:1时,成本权衡和瓶颈问题就开始显现出来了。

使用Marvell 88SN2400和Foxconn-Ingrasys EBOF测试系统

通过与Marvell和Foxconn-Ingrasys的合作,我们一直在NVMe- oF环境中测试Micron 7300主流NVMe SSD,并在各种不同的应用程序和工作负载下进行测试。

在介绍测试结果之前,让我们先看一下Foxconn-Ingrasys EBOF和Marvell的88SN2400转换器控制器和PresteraCX 8500交换机。

Marvell的88SN2400是一款用于云和企业数据中心的SSD转换器的NVMe控制器。这与Marvell交换机相结合,本质上允许用户在NVMe和NVMe- oF之间进行转换或“桥接”。88SN2400转换器控制器是Foxconn-Ingrasys EBOF的一个关键组件,与Micron 7300 SSD一起,使高性能2U存储器达到高达73.1 GB/s的带宽和高达2000万IOPs。图4显示了Foxconn-Ingrasys EBOF,在2U机箱中有24 U.2插槽。

Foxconn-Ingrasys U.2 Carrier采用标准的U.2 SSD格式。U.2载波支持双以太网端口,以解决需要路径冗余的应用程序,它在驱动器侧有一个PCIe Gen3 x4用于NVMe SSD。

Marvell的88SN2400转换器控制器支持RoCE v2和NVMe-TCP传输。然而,在我们的测试中,我们关注的是RoCE v2。

如何使用NVIDIAGPUDirect存储(GDS)进行扩展?

我们一直在使用NVIDIAGPUDirect存储(GDS)在人工智能机器学习工作负载方面进行大量工作。我们想通过将Foxconn-Ingrasys EBOF与Marvell的88SN2400转换器控制器连接到NVIDIA DGXA100系统,来了解在fabrics环境中事物是如何伸缩的。这是一个简单的gdsio (GPUDirect Storage I/O)工具测试,可以比较在NVMe-oF环境中使用和不使用GDS的带宽和延迟。

3552fc9c-4f39-11eb-8b86-12bb97331649.png

图6 DGX A100 with EBOF

在图6中,有一个装载了Micron 7300 SSD的EBOF,它使用8个计算网络端口中的6个直接连接到NVIDIA DGXA100,提供600gb /s的可用网络带宽。GDS可以让数据在对等点之间直接传输,跳过了在GDS未启用时使用的高延迟反弹缓冲区。在这个测试中,我们将SSD的全部能力(约61 GB/s)用于工作负载。未来的测试将添加一个以太网交换机,并进一步扩大EBOF的数量。

NVMe-oF如何与HSE形成规模?

Micron一直在研究一些惊人的技术,其中之一是异构内存存储引擎(HSE)。HSE是一个闪存感知的存储引擎,它提高了存储类内存(SCM)和SSD的性能。它还通过减少写放大增加了SSD的有效寿命,所有这些都在大规模部署的情况下进行。NVMe-oF是进一步扩大HSE规模的理想途径。为了验证HSE在Fabric附加存储环境下的有效性,我们使用MongoDB和YCSB (Yahoo!云服务基准)。在图7中,我们比较了使用本地Micron 7300 SSD的默认内置MongoDB存储引擎(WiredTiger)和使用Micron 7300 SSD的Micron HSE在EBOF中的性能。

3599fd5e-4f39-11eb-8b86-12bb97331649.png

图7 WiredTiger和HSE对比图

与MongoDB中使用的带有本地SSD的传统WiredTiger存储引擎相比,HSE在fabric环境中的有效性是非常显著的。可以实现每秒5倍的YCSB操作改进,降低42%的延迟,同时增加了存储的可伸缩性。

NVMe-oF的未来是什么?

NVMe-oF是一种创新技术,它最终将使数据中心完全分解,在这些中心中,可以组合应用程序,然后以一种经济有效的方式动态地提供适量的计算和存储。

如今,人们使用低成本桥接器或基于处理器的平台来连接NVMe SSD,并将其桥接到EBOF或JBOF。在未来,我们可能会看到SSD的本地NVMe进一步降低TCO并提高性能。

美光科技正在设计下一代数据中心SSD,其功能和特性针对NVMe应用进行了优化。

责任编辑:xj

原文标题:再见,Intel!GPU直连NVMe SSD!

文章出处:【微信公众号:ssdfans】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4400

    浏览量

    126541
  • intel
    +关注

    关注

    19

    文章

    3451

    浏览量

    184763
  • SSD
    SSD
    +关注

    关注

    20

    文章

    2680

    浏览量

    115418
  • nvme
    +关注

    关注

    0

    文章

    191

    浏览量

    22302

原文标题:再见,Intel!GPU直连NVMe SSD!

文章出处:【微信号:SSDFans,微信公众号:SSDFans】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    高性能NVMe主机控制器,Xilinx FPGA NVMe Host Accelerator IP

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 04-10 22:55

    Xilinx FPGA高性能NVMe SSD主机控制器,NVMe Host Controller IP

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 03-27 17:23

    Xilinx FPGA NVMe主机控制器IP,高性能版本介绍应用

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 03-09 13:56

    Xilinx FPGA NVMe Host Controller IP,NVMe主机控制器

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 02-21 10:16

    NVMe进攻下,SAS还有未来吗?

    SAS 和 NVMe 都是强大的企业存储技术。SAS 是两种架构中较旧的一种,而且往往也是更便宜的选择。NVMe 正在成为标准的高速存储驱动器接口,但 SAS 因其庞大的安装基础而将持续多年。
    的头像 发表于 11-24 17:48 510次阅读

    NVMe SSD性能影响因素分析

    NVMe SSD 厂商Spec给出的性能非常完美,前面也给出了NVMe SSD和磁盘之间的性能对比,NVMe SSD的性能的确比磁盘高很多。
    的头像 发表于 11-13 11:39 606次阅读
    <b class='flag-5'>NVMe</b> SSD性能影响因素分析

    一文掌握RDMA、NVMeNVMe-oF

    但将 SSD 直接插入现有存储系统有一个缺点:它无法充分发挥出底层技术的性能提升潜力。为了真正发挥 SSD 设备的全部潜力,我们需要重新审视存储系统连接到服务器的方式。
    的头像 发表于 10-22 14:54 503次阅读
    一文掌握RDMA、<b class='flag-5'>NVMe</b>和<b class='flag-5'>NVMe-oF</b>

    求助,如何以qspi+nvme方式启动呢?

    请问赛昉官方团队,qspi+nvme的启动方式是需要使用sdk编写支持nvme启动的固件刷入就可以吗?谢谢。 个人觉得如果作为个人电脑使用,不能从nvme启动还是挺欠缺的。
    发表于 09-13 06:01

    Nvme硬盘挂载失败如何解决?

    内核启动时卡住,然后提示 nvme nvme0: I/O 401 QID 4 timeout, completion polled,硬盘型号为:致态 PC005 Active 512GB
    发表于 09-12 06:35

    NVMe在FibreChannel上的性能优势:一种新的并行高效协议

    电子发烧友网站提供《NVMe在FibreChannel上的性能优势:一种新的并行高效协议.pdf》资料免费下载
    发表于 08-30 09:50 0次下载
    <b class='flag-5'>NVMe</b>在FibreChannel上的性能<b class='flag-5'>优势</b>:一种新的并行高效协议

    NVMe在光纤上的未来优势

    NVMe光纤通道是一款功能齐全、高性能的产品。基于NVMe的织物附加企业存储技术,但是,对于nvme工作内存的使用来说,这是一种不妥协的解决方案。也有案子。(我们将讨论这些用例如何不同。)NV
    发表于 08-25 17:44 0次下载
    <b class='flag-5'>NVMe</b>在光纤上的<b class='flag-5'>未来</b><b class='flag-5'>优势</b>

    vSphere 7.0 U1中的NVMe-oF的性能表征

    电子发烧友网站提供《vSphere 7.0 U1中的NVMe-oF的性能表征.pdf》资料免费下载
    发表于 08-04 09:15 0次下载
    vSphere 7.0 U1中的<b class='flag-5'>NVMe-oF</b>的性能表征

    超融合存储技术将进入成熟期

    NVMe-oF继承了NVMe的所有优点,包括轻量级和高效的命令集、多核感知和协议并行性。NVMe-oF是真正的网络无关的,因为它支持所有常见的fabrics,包括光纤通道、InfiniBand和以太网。
    发表于 07-26 14:48 177次阅读
    超融合存储技术将进入成熟期

    满足对NVMe 1.3流的需求

    这种新的 NVMe 技术的采用正在 Synopsys 客户中获得动力。流是 NVMe 1.3 规范中引入的新的可选指令功能的一部分。指令允许通过现有 NVMe 命令在主机和控制器之间传递元数据。流是独一无二的,因为它们是 1.3
    的头像 发表于 05-26 11:46 711次阅读
    满足对<b class='flag-5'>NVMe</b> 1.3流的需求

    未来NVMe固态硬盘外形

      企业和数据中心应用程序中的 NVMe NVM Express™ (NVMe) SSD 部署正在激增,但出现了阻碍充分利用这些部署的复杂性。这些市场中的应用需要对 SSD 容量、性能、功耗、连接
    的头像 发表于 04-24 10:12 1088次阅读
    <b class='flag-5'>未来</b>的<b class='flag-5'>NVMe</b>固态硬盘外形