0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何加速实时工作负载

Xilinx赛灵思官微 来源:Xilinx赛灵思官微 2025-09-10 15:36 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

对于需要实时响应的数据中心工作负载,性能不仅是指原始吞吐量或处理能力。挑战在于:在保持吞吐量和能效的同时,实现确定性时延。

CPUGPU 仍将是基础架构。但正如系统架构师和数据中心运营商所发现的,在时延控制变得至关重要时,传统计算架构往往会遇到困难。对于那些寻求对性能、功耗和时延进行精细控制的用户来说,采用硬件自适应加速卡的自适应计算正在成为一种战略选项。

如果您正在探索如何加速实时工作负载,以下是一些基本考虑因素,有助于指导该过程,并着重介绍自适应计算的用武之地。

针对实时(而非只是原始)吞吐量构建

对于许多工作负载而言,可预测的响应时间至关重要。无论是在高频交易中,还是在数据流传感器处理中,仅靠快是不够的。您必须确保可靠情况下的快速性——无论输入变化或系统负载如何。CPU 和 GPU 拥有类似的编程模型,但依赖于线程调度和固定的存储器缓存层次结构,这可能会影响低时延响应时间。在这些架构上实现确定性性能通常需要过度配置( overprovisioning )资源、微调( fine-tuning )软件堆栈或隔离工作负载——这些都无法保证在不同系统负载下保持一致的时延。

由现场可编程门阵列( FPGA )或自适应 SoC(集成处理器子系统和专用 IP 的 FPGA)提供支持的加速卡通过提供硬件并行性和数据路径优化来解决这一问题。该架构可在电路层面进行动态编程,其中数据路径经过定制并“硬连接”至硅片本身,从而避免了不可预测的软件指令周期。这种方法能够实现始终如一的低时延性能,并对数据的处理及移动方式进行精细控制。

内存比您认为的更重要

在这些性能敏感型环境中,内存往往是隐藏的瓶颈。这不仅关乎加速器可用的内存大小,还关乎内存与计算的距离有多近,以及运行时的访问速度有多快。这正是自适应计算提供架构优势的地方,尤其是与片上高带宽存储器( HBM )结合使用时。

HBM 是一种成熟的 3D 封装 DRAM 技术,具备每秒 TB 级的带宽,可满足数据密集型加速卡的需求。但 FPGA 和自适应 SoC 还为它们带来了灵活应变的存储器层次结构,其中包括紧邻处理逻辑、大小各异的嵌入式片上 SRAM。这可以实现快速、低时延的缓冲和中间存储,无需往返外部 DRAM。对于流式应用或实时 AI 推理,这种接近性可降低时延并提升吞吐量,而不会阻塞流水线。

将您的加速卡直接连接至网络

如果您的加速卡会处理来自网络的流式数据,为何不将其直接连接至网络?传统的加速卡依靠 PCIe接收传入数据——通常经过网络接口卡( NIC )进行路由,然后通过主机 CPU 和系统内存,最终到达加速器。这会带来时延并消耗资源。

基于 FPGA 的网络连接加速卡可直接连接以太网,从而实现在数据到达时进行实时处理。这也为高性能计算( HPC )环境提供了经由以太网的可扩展计算集群。

随工作负载演进调整您的加速卡,

而非基础架构

如今推动您的基础设施发展的工作负载与未来扩展基础架构的工作负载将有所不同,而自适应计算能够随着应用发展而演进。例如,在网络防火墙中,加密协议和威胁检测模型在不断演进。在同一服务器节点上部署压缩、解压缩和分析功能的存储机架中,灵活的硬件可以随着数据量的增长或压缩格式的改变而调整计算管线。

同一加速卡的架构灵活性可以带来长期效益,不仅能实现实时性能,还能在工作负载需求变化时保持敏捷性——所有这些都在同一张卡、同一台服务器和同一个机架上实现。

借助适合的硬件专业技术加速部署

要最大限度提升基于 FPGA 的加速卡性能,需要获得 FPGA 开发人员的帮助。无论是通过内部团队、设计合作伙伴,还是预构建 FPGA IP 的提供商,成功都取决于能否构建或集成满足严格时延、吞吐量和内存访问要求的特定应用逻辑。

为了加快部署速度,需要寻找一款可提供强大 FPGA 工具链、预验证 IP 和合作伙伴生态系统的平台,该平台支持从 RTL 开发到完整解决方案集成的所有环节——助力您的团队满怀信心地从概念走向量产。

下一步

这些只是低时延和工作负载灵活应变性至关重要的几项考虑因素。尽管 CPU 和 GPU 仍然作为数据中心的核心,但它们并非永远最适合流式工作负载。自适应平台——例如集成 HBM 的 AMD Alveo V80 计算加速卡——则提供了另一条途径。凭借连网连接、自适应硬件架构和高带宽存储器,Alveo V80 计算加速卡可以在最关键时刻提供实时性能。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    20159

    浏览量

    247662
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11224

    浏览量

    223105
  • 数据中心
    +关注

    关注

    16

    文章

    5538

    浏览量

    74686

原文标题:在数据中心进行实时加速

文章出处:【微信号:赛灵思,微信公众号:Xilinx赛灵思官微】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【产品介绍】Altair PBS Professional HPC工作负载管理器和作业调度管理系统

    AltairPBSProfessional行业领先的HPC工作负载管理器和作业调度管理系统PBSProfessional是一款快速、强大的工作负载管理器和作业调度管理系统,旨在提高生产
    的头像 发表于 09-19 17:03 392次阅读
    【产品介绍】Altair PBS Professional HPC<b class='flag-5'>工作</b><b class='flag-5'>负载</b>管理器和作业调度管理系统

    新思科技HAPS技术助力Skymizer加速HyperThought开发

    随着人工智能(AI)在各行各业的应用场景日益丰富,半导体厂商面临巨大压力,他们需紧跟AI工作负载复杂度和专业化需求的步伐。从实时语言处理、视觉应用到指令驱动模型,AI工作
    的头像 发表于 08-11 16:10 672次阅读

    如何匹配晶振的负载电容

    振的规格书中,通常会给出一个标称负载电容值,这个值是晶振能够稳定工作在标称频率下的理想电容负载条件。 二、确定电路中的实际负载电容 实际电路中的负载
    的头像 发表于 06-21 11:42 692次阅读
    如何匹配晶振的<b class='flag-5'>负载</b>电容

    通过NVIDIA RTX PRO服务器加速企业工作负载

    从大语言模型(LLM)到代理式 AI 推理和物理 AI ,随着 AI 工作负载的复杂性和规模不断增加,人们对更快、扩展性更高的计算基础设施的需求空前强烈。满足这些需求就要从基础开始重新思考系统架构。
    的头像 发表于 06-12 15:31 658次阅读
    通过NVIDIA RTX PRO服务器<b class='flag-5'>加速</b>企业<b class='flag-5'>工作</b><b class='flag-5'>负载</b>

    为什么要用电子负载

    在现代电子设备的研发、测试和生产过程中,电子负载作为一种重要的测试工具,其应用范围广泛且不可或缺。本文将从电子负载的定义、工作原理、优势以及实际应用场景等方面,详细探讨为何需要使用电子负载
    的头像 发表于 05-26 16:23 826次阅读
    为什么要用电子<b class='flag-5'>负载</b>?

    电子负载的动态负载模拟

    动态负载模拟是指电子负载能够快速改变其负载条件,以模拟实际应用中负载的动态变化。这种功能对于测试电源和电池在负载变化时的响应能力至关重要。本
    的头像 发表于 04-18 09:39 1000次阅读
    电子<b class='flag-5'>负载</b>的动态<b class='flag-5'>负载</b>模拟

    动力电池测试中的直流负载挑战与应对策略

    电池组(如100kWh以上)的充放电测试需负载设备支持持续高功率(≥500kW),导致设备体积庞大且散热难度高。 动态工况模拟精度不足:车辆实际运行中,电池负载加速、制动等场景快速变化(斜率≥5A/ms
    发表于 04-02 16:05

    NVIDIA加速的Apache Spark助力企业节省大量成本

    随着 NVIDIA 推出 Aether 项目,通过采用 NVIDIA 加速的 Apache Spark 企业得以自动加速其数据中心规模的分析工作负载,从而节省数百万美元。
    的头像 发表于 03-25 15:09 923次阅读
    NVIDIA<b class='flag-5'>加速</b>的Apache Spark助力企业节省大量成本

    程控水冷负载解析

    程控水冷负载是一种通过计算机程序控制水冷系统对特定负载进行冷却的技术,以下是关于它的解析: 基本原理 阻性负载产热 :许多电气设备如变压器、电机、变频器等在工作过程中,电流通过导线和线
    发表于 02-18 16:04

    NetApp革新块存储,赋能现代工作负载

    智能数据基础设施领域的领先企业NetApp®,近日宣布对其企业存储产品组合进行了重大更新,以更好地满足现代工作负载的多样化需求。此次更新重点扩充了NetApp ASA A系列,推出了一系列专为加速
    的头像 发表于 02-17 10:07 687次阅读

    Arm技术助力Google Axion处理器加速AI工作负载推理

    由 Arm Neoverse V2 平台赋能的 Google Axion 处理器已在 Google Cloud 上正式上线,其中,C4A 是首款基于 Axion 的云虚拟机,为基于 CPU 的人工智能 (AI) 推理和通用云工作负载实现了显著的性能飞跃。
    的头像 发表于 02-14 14:11 979次阅读
    Arm技术助力Google Axion处理器<b class='flag-5'>加速</b>AI<b class='flag-5'>工作</b><b class='flag-5'>负载</b>推理

    感性负载,容性负载,阻性负载介绍

    感性负载,容性负载,阻性负载的定义 线圈负载叫感性,电容负载叫容性,纯电阻负载, 叫阻性比如电机
    的头像 发表于 02-10 09:26 6383次阅读
    感性<b class='flag-5'>负载</b>,容性<b class='flag-5'>负载</b>,阻性<b class='flag-5'>负载</b>介绍

    HPC工作负载管理的关键要素

    HPC工作负载管理是一个复杂而精细的过程,涉及资源分配、作业调度、性能监控与优化以及故障处理与恢复等多个关键要素。下面,AI部落小编带您了解HPC工作负载管理的关键要素。
    的头像 发表于 02-08 09:53 540次阅读

    亚马逊云科技发布Amazon Q Developer,助力工作负载转型

    在近日举行的2024亚马逊云科技re:Invent全球大会上,一项旨在加速大规模传统工作负载转型的新功能——Amazon Q Developer,正式亮相。这款功能强大的软件开发生成式人工智能(AI
    的头像 发表于 12-26 11:32 926次阅读

    燃料电池测试负载如何进行负载测试?

    、空气供应系统、冷却系统、负载模拟器等。确保所有设备正常工作,连接正确。 设定测试参数:根据燃料电池的额定工况和实际应用需求,设定测试参数,如温度、压力、燃料浓度、负载电流等。这些参数将对燃料电池
    发表于 12-16 15:53