0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

赛灵思FPGA与VMware vSphere相结合实现高吞吐量、低时延ML推断性能

454398 来源:Xilinx赛灵思官微 作者:Xilinx赛灵思官微 2020-09-29 11:52 次阅读

硬件加速器已在数据中心得到普遍使用,一系列新的工作负载已经能够成熟地发挥 FPGA 的加速优势及其更优异的计算效率。业界对机器学习 (ML) 的关注度不断提高,推动 FPGA 加速器在私有云、公有云、混合云数据中心环境中日益普及,从而为计算密集型工作负载加速。近期,在推动 IT 基础设施向异构计算转型的过程中,赛灵思与 VMware 展开协作,在 VMware 的云计算虚拟化平台vSphere上测试 FPGA 加速。由于赛灵思 FPGA 越来越广泛地应用于 ML 推断加速,本文将展示的是如何将赛灵思 FPGA 与 VMware vSphere 相结合,在虚拟部署和裸机部署上实现基本相同的高吞吐量、低时延 ML 推断性能。

“自适应计算”的优势
FPGA 是一种自适应计算器件,能够灵活地进行重新编程,从而满足目标应用不同的处理需求和功能要求。该特性使 FPGA 从 GPUASIC 等架构固定的器件中脱颖而出,更是远远优于成本不断飙升的的定制 ASIC。此外,与其他硬件加速器相比,FPGA 还具备高能效、低时延的优势,使 FPGA 特别适用于 ML 推断工作。与基本依靠大量并行处理核心实现高吞吐量的 GPU 不同的是,FPGA 通过定制化硬件内核、数据流流水线和互联,助力 ML 推断同时实现高吞吐量和低时延。

01. 在 vSphere 上使用 FPGA 开展 ML 推断

VMware 在其实验室中使用赛灵思 Alveo U250 数据中心卡进行测试。使用在Vitis AI中提供的 Docker 容器——为从边缘到云端的赛灵思硬件平台提供的 ML 推断统一开发栈,ML 模型可以迅速完成配置。该容器由经过优化的工具、库、模型和示例构成。Vitis AI 支持含 Caffe 和 TensorFlow 在内的主流框架以及能够执行多种深度学习任务的最新模型。此外,Vitis AI 是一种开源应用,可通过访问GitHub获取。

赛灵思FPGA与VMware vSphere相结合实现高吞吐量、低时延ML推断性能

图 1:Vitis AI 软件协议栈

目前,赛灵思 FPGA 通过 DirectPath I/O 模式(直通模式)能在 vSphere 上使用。在这种模式下,我们的 FPGA 能够由运行在虚拟机内部的应用直接访问,绕过程序管理层,从而最大化性能并最大限度降低时延。配置 DirectPath I/O 模式下的 FPGA 只需简单的两步流程:首先,在主机层面上启用 ESXi,然后将器件添加到目标虚拟机。详细操作方法参见 VMware KB 一文( https://kb.vmware.com/s/article/1010789 )。请注意,如果运行的是 vSphere 7,则不再需要重启主机。

02. 高吞吐量、低时延 ML 推断性能

通过与赛灵思合作,VMware 使用四个 CNN 模型执行推断任务,对我们的 Alveo U250 加速器卡在 DirectPath I/O 模式工作下的吞吐量和时延性能进行评估。这四个模型分别为Inception_v1、Inception_v2、Resnet50 和 VGG16。这些模型在模型参数数量上不尽相同,因而具备不同的处理复杂性。

测试在搭载两颗 10 核 Intel Xeon Silver 4114 CPU 和 192GB DDR4 存储器的 Dell PowerEdge R740 服务器上进行。我们使用 ESXi 7.0 虚拟机程序管理器,将每种模型的端到端性能结果与作为基线的裸机性能进行对比。Ubuntu 16.04(内核版本 4.4.0-116)用作客户端操作系统和本地操作系统。此外,在整个测试过程中将 Vitis AI v1.1 与 Docker CE 19.03.4 结合使用。同时使用源于 ImageNet2012 的 50k 图像数据集。为进一步避免图像读取过程中遭遇磁盘瓶颈,还创建了一个 RAM 磁盘用于存储 50k 图像。

完成这些设置后,虚拟测试和裸机测试之间的性能比较可从下面的两个图中进行观察。一个针对吞吐量,另一个针对时延。y 轴代表虚拟测试和裸机测试间的吞吐量性能比值。y=1.0 代表虚拟测试和裸机测试的吞吐量性能结果相同。

图 2:在 Alveo U250 FPGA 上运行 ML 推断时裸机测试和虚拟测试的吞吐量性能比较

图 3:在 Alveo U250 FPGA 上运行 ML 推断时裸机测试和虚拟测试的时延性能比较

测试证明,虚拟环境和裸机间在吞吐量和时延两方面的性能差距最大不超过 2%。这说明在虚拟环境中运行在 vSphere 上的 Alveo U250 的 ML 性能与作为基线的裸机性能极为相近。

03. 云端的 FPGA 性能

在数据中心中采用 FPGA 加速器已成为普遍现象,而且为满足对异构计算和性能提升的需求,FPGA 加速器的应用还将继续增长。我们非常高兴能够与 VMware 展开合作,共同确保客户能充分发挥运行在 vSphere 平台上的赛灵思 FPGA 加速的全部优势。我们在 vSphere 上对我们的 Alveo U250 加速器卡进行 ML 推断性能测试,成功地向客户证明了该器件在 DirectPath I/O 模式下能够实现接近裸机的性能。

编辑:hfy


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1608

    文章

    21358

    浏览量

    594356
  • 赛灵思
    +关注

    关注

    32

    文章

    1794

    浏览量

    130662
  • 云计算
    +关注

    关注

    38

    文章

    7456

    浏览量

    135885
  • 机器学习
    +关注

    关注

    66

    文章

    8173

    浏览量

    130881
收藏 人收藏

    评论

    相关推荐

    给我一个FPGA,可以撬起所有显示的接口和面板

    作为FPGA的发明者——,手握极具灵活性、高性能FPGA技术,似乎看别的芯片都有一种嫌弃
    发表于 04-25 18:10

    如何提高CYBT-243053-02吞吐量

    你好我们一直在使用“EZ-Serial Firmware: v1.4.13.13 Sep 22 2023 10:24:41”测试“CYBT-243053-02”,我们得到的吞吐量比 PUART
    发表于 02-27 06:56

    GPT推断中的批处理(Batching)效应简析

    机器学习模型依赖于批处理(Batching)来提高推断吞吐量,尤其是对于 ResNet 和 DenseNet 等较小的计算机视觉模型。
    的头像 发表于 12-18 15:52 434次阅读
    GPT<b class='flag-5'>推断</b>中的批处理(Batching)效应简析

    全球FPGA市场现状和发展前景展望

    概念和特点比较简单,没有完全形成气候。   :重点布局深耕中国市场 公司目前在中国内
    发表于 11-08 17:19

    如何显著提高ATE电源吞吐量

    作为一名测试工程师,你的工作并不容易。降低成本和提高系统吞吐量的压力一直存在。本文中,我们将讨论影响系统吞吐量的关键因素以及如何降低ATE测试成本。
    的头像 发表于 11-08 14:59 431次阅读
    如何显著提高ATE电源<b class='flag-5'>吞吐量</b>?

    全志R128 BLE最高吞吐量测试正确配置测试

    在R128使用前我们需要了解BLE的最高吞吐量,以方便评估相关功能的开发。 首先我们了解一下哪些因素会影响蓝牙的吞吐量: 1、蓝牙版本与PHY: 蓝牙设备的版本和物理层(PHY)对于吞吐量有很大
    发表于 10-26 16:46

    全志R128 BLE最高吞吐量测试正确配置测试

    在R128使用前我们需要了解BLE的最高吞吐量,以方便评估相关功能的开发。 首先我们了解一下哪些因素会影响蓝牙的吞吐量: 1、蓝牙版本与PHY: 蓝牙设备的版本和物理层(PHY)对于吞吐量有很大
    发表于 10-16 15:22

    GPMC并口如何实现“小数据-,大数据-带宽”

    并口“小数据-”的特点显得格外耀眼,能够很好地提高数据传输效率,降低传输成本。 (2)大数据-带宽大数据时代对能源电力领域的数据传输、数据处理等方面提出了更高的要求。GPMC
    发表于 09-30 23:43

    日立统一计算平台VMware vSphere Pro

    电子发烧友网站提供《日立统一计算平台VMware vSphere Pro.pdf》资料免费下载
    发表于 08-30 09:20 0次下载
    日立统一计算平台<b class='flag-5'>VMware</b> <b class='flag-5'>vSphere</b> Pro

    AM62x GPMC并口如何实现“小数据-,大数据-带宽”—ARM+FPGA低成本通信方案

    ,极其注重精确性与快速性,GPMC并口“小数据-”的特点显得格外耀眼,能够很好地提高数据传输效率,降低传输成本。 (2)大数据-带宽 大数据时代对能源电力领域的数据传输
    发表于 08-22 10:58

    VMware vSphere 6.0 U2上的存储I/O性能超过32Gb光纤通道

    电子发烧友网站提供《VMware vSphere 6.0 U2上的存储I/O性能超过32Gb光纤通道.pdf》资料免费下载
    发表于 08-21 11:32 0次下载
    <b class='flag-5'>VMware</b> <b class='flag-5'>vSphere</b> 6.0 U2上的存储I/O<b class='flag-5'>性能</b>超过32Gb光纤通道

    VMware vSphere 6.0 U2上通过32GB光纤通道的存储I/O性能

    电子发烧友网站提供《VMware vSphere 6.0 U2上通过32GB光纤通道的存储I/O性能.pdf》资料免费下载
    发表于 08-16 15:35 0次下载
    <b class='flag-5'>VMware</b> <b class='flag-5'>vSphere</b> 6.0 U2上通过32GB光纤通道的存储I/O<b class='flag-5'>性能</b>

    如何计算OpenVINO DL Workbench中计算吞吐量或FPS?

    有关在 OpenVINO™ DL Workbench 中计算吞吐量或 FPS 的公式的问题。
    发表于 08-15 08:29

    GPU上OpenVINO基准测试的推断模型的默认参数与CPU上的参数不同是为什么?

    model.xml -d CPU 导致的 GPU 延迟和吞吐量高于 CPU。 无法确定为什么 GPU 上的延迟和吞吐量都高于 CPU,因为延迟会导致
    发表于 08-15 06:43