0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA TensorRT支持矩阵中的流控制结构层部分

星星科技指导员 来源:NVIDIA 作者:Ken He 2022-05-13 16:57 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

NVIDIA TensorRT 支持循环结构,这对于循环网络很有用。 TensorRT 循环支持扫描输入张量、张量的循环定义以及“扫描输出”和“最后一个值”输出。

10.1. Defining A Loop

循环由循环边界层(loop boundary layers)定义。

ITripLimitLayer指定循环迭代的次数。

IIteratorLayer使循环能够迭代张量。

IRecurrenceLayer指定一个循环定义。

ILoopOutputLayer指定循环的输出。

每个边界层都继承自类ILoopBoundaryLayer ,该类有一个方法getLoop()用于获取其关联的ILoop 。 ILoop对象标识循环。具有相同ILoop的所有循环边界层都属于该循环。

下图描绘了循环的结构和边界处的数据流。循环不变张量可以直接在循环内部使用,例如 FooLayer 所示。

一个循环可以有多个IIteratorLayer 、 IRecurrenceLayer和ILoopOutputLayer ,并且最多可以有两个ITripLimitLayer ,如后面所述。没有ILoopOutputLayer的循环没有输出,并由 TensorRT 优化。

NVIDIA TensorRT 支持矩阵中的流控制结构层部分描述了可用于循环内部的 TensorRT 层。

内部层可以自由使用在循环内部或外部定义的张量。内部可以包含其他循环(请参阅嵌套循环)和其他条件构造(请参阅条件嵌套)。

要定义循环,首先,使用INetworkDefinition ::addLoop方法创建一个ILoop对象。然后添加边界层和内部层。本节的其余部分描述了边界层的特征,使用loop表示INetworkDefinition ::addLoop返回的ILoop* 。

ITripLimitLayer支持计数循环和 while 循环。

loop -》addTripLimit( t ,TripLimit::kCOUNT)创建一个ITripLimitLayer ,其输入t是指定循环迭代次数的 0D INT32 张量。

loop -》addTripLimit( t ,TripLimit::kWHILE)创建一个ITripLimitLayer ,其输入t是一个 0D Bool 张量,用于指定是否应该进行迭代。通常t要么是IRecurrenceLayer的输出,要么是基于所述输出的计算。

一个循环最多可以有一种限制。

IIteratorLayer支持在任何轴上向前或向后迭代。

loop -》addIterator( t )添加一个IIteratorLayer ,它在张量t的轴 0 上进行迭代。例如,如果输入是矩阵:

2 3 5

4 6 8

第一次迭代的一维张量{2, 3, 5}和第二次迭代的{4, 6, 8} 。超出张量范围的迭代是无效的。

loop -》addIterator( t , axis )类似,但该层在给定的轴上迭代。例如,如果 axis=1 并且输入是矩阵,则每次迭代都会传递矩阵的一列。

loop -》addIterator( t , axis,reverse )类似,但如果reverse =true ,则该层以相反的顺序产生其输出。

ILoopOutputLayer支持三种形式的循环输出:

loop -》addLoopOutput( t, LoopOutput::kLAST_VALUE)输出t的最后一个值,其中t必须是IRecurrenceLayer的输出。

loop-》 addLoopOutput( t ,LoopOutput::kCONCATENATE, axis )将每次迭代的输入串联输出到t 。例如,如果输入是一维张量,第一次迭代的值为{ a,b,c} ,第二次迭代的值为{d,e,f} , axis =0 ,则输出为矩阵:

a b c

d e f

如果axis =1 ,则输出为:

a d

b e

c f

loop-》 addLoopOutput( t ,LoopOutput::kREVERSE, axis )类似,但颠倒了顺序。 kCONCATENATE和kREVERSE形式都需要第二个输入,这是一个 0D INT32 形状张量,用于指定新输出维度的长度。当长度大于迭代次数时,额外的元素包含任意值。第二个输入,例如u ,应使用ILoopOutputLayer::setInput(1, u )设置。

最后,还有IRecurrenceLayer 。它的第一个输入指定初始输出值,第二个输入指定下一个输出值。第一个输入必须来自循环外;第二个输入通常来自循环内部。例如,这个 C++ 片段的 TensorRT 模拟

for (int32_t i = j; 。..; i += k) 。..

可以通过这些调用创建,其中j和k是ITensor* 。

ILoop* loop = n.addLoop();

IRecurrenceLayer* iRec = loop-》addRecurrence(j);

ITensor* i = iRec-》getOutput(0);

ITensor* iNext = addElementWise(*i, *k,

ElementWiseOperation::kADD)-》getOutput(0);

iRec-》setInput(1, *iNext);

第二个输入是TensorRT允许后沿的唯一情况。如果删除了这些输入,则剩余的网络必须是非循环的。

10.2. Formal Semantics

TensorRT 具有应用语义,这意味着除了引擎输入和输出之外没有可见的副作用。因为没有副作用,命令式语言中关于循环的直觉并不总是有效。本节定义了 TensorRT 循环结构的形式语义。

形式语义基于张量的惰性序列(lazy sequences)。循环的每次迭代对应于序列中的一个元素。循环内张量X的序列表示为〈 X 0, X 1, X 2, 。.. 〉 。序列的元素被懒惰地评估,意思是根据需要。

IIteratorLayer(X)的输出是〈 X[0], X[1], X[2], 。.. 〉其中X[i]表示在IIteratorLayer指定的轴上的下标。

IRecurrenceLayer(X,Y)的输出是〈 X, Y0, Y1, Y2, 。.. 〉 。 的输入和输出取决于LoopOutput的类型。

kLAST_VALUE :输入是单个张量X ,对于 n-trip 循环,输出是X n 。

kCONCATENATE :第一个输入是张量X,第二个输入是标量形状张量Y。结果是X0, X1, X2, 。.. Xn-1与后填充(如有必要)连接到Y指定的长度。如果Y 《 n则为运行时错误。 Y是构建时间常数。注意与IIteratorLayer的反比关系。 IIteratorLayer将张量映射到一系列子张量;带有kCONCATENATE的ILoopOutputLayer将一系列子张量映射到一个张量。

kREVERSE :类似于kCONCATENATE ,但输出方向相反。

ILoopOutputLayer的输出定义中的n值由循环的ITripLimitLayer确定:

对于计数循环,它是迭代计数,表示ITripLimitLayer的输入。

对于 while 循环,它是最小的 n 使得$X_n$为假,其中X是ITripLimitLayer的输入张量的序列。

非循环层的输出是层功能的顺序应用。例如,对于一个二输入非循环层F(X,Y) = 〈 f(X 0 , Y 0 ), f(X 1 , Y 1 ), f(X 2 , Y 2 )。.. 〉 。如果一个张量来自循环之外,即是循环不变的,那么它的序列是通过复制张量来创建的。

10.3. Nested Loops

TensorRT 从数据流中推断出循环的嵌套。例如,如果循环 B 使用在循环 A 中定义的值,则 B 被认为嵌套在 A 中。

TensorRT 拒绝循环没有干净嵌套的网络,例如如果循环 A 使用循环 B 内部定义的值,反之亦然。

10.4. Limitations

引用多个动态维度的循环可能会占用意外的内存量。 在一个循环中,内存的分配就像所有动态维度都取任何这些维度的最大值一样。例如,如果一个循环引用两个维度为[4,x,y]和[6,y]的张量,则这些张量的内存分配就像它们的维度是[4,max(x,y),max(x ,y)]和[6,max(x,y)] 。

带有kLAST_VALUE的LoopOutputLayer的输入必须是IRecurrenceLayer的输出。 循环 API 仅支持 FP32 和 FP16 精度。

10.5. Replacing IRNNv2Layer With Loops

IRNNv2Layer在 TensorRT 7.2.1 中已弃用,并将在 TensorRT 9.0 中删除。使用循环 API 合成循环子网络。例如,请参阅sampleCharRNN方法SampleCharRNNLoop::addLSTMCell 。循环 API 让您可以表达一般的循环网络,而不是局限于IRNNLayer和IRNNv2Layer中的预制单元。

关于作者

Ken He 是 NVIDIA 企业级开发者社区经理 & 高级讲师,拥有多年的 GPU人工智能开发经验。自 2017 年加入 NVIDIA 开发者社区以来,完成过上百场培训,帮助上万个开发者了解人工智能和 GPU 编程开发。在计算机视觉,高性能计算领域完成过多个独立项目。并且,在机器人无人机领域,有过丰富的研发经验。对于图像识别,目标的检测与跟踪完成过多种解决方案。曾经参与 GPU 版气象模式GRAPES,是其主要研发者。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5682

    浏览量

    110111
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5268

    浏览量

    136058
  • 人工智能
    +关注

    关注

    1820

    文章

    50304

    浏览量

    266859
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    NVIDIA发布面向媒体工作的AI技术

    在 GTC 2026上,NVIDIA 宣布了多项强大的新技术,旨在变革直播媒体和后期制作工作
    的头像 发表于 03-23 15:15 434次阅读

    如何在NVIDIA CUDA Tile编写高性能矩阵乘法

    本博文是系列课程的一部分,旨在帮助开发者学习 NVIDIA CUDA Tile 编程,掌握构建高性能 GPU 内核的方法,并以矩阵乘法作为核心示例。
    的头像 发表于 01-22 16:43 5276次阅读
    如何在<b class='flag-5'>NVIDIA</b> CUDA Tile<b class='flag-5'>中</b>编写高性能<b class='flag-5'>矩阵</b>乘法

    NVIDIA Omniverse基于Container的部署推方案

    为了让客户能够高效安装和部署 NVIDIA Omniverse 及 NVIDIA Isaac 平台,NVIDIA 现已推出简单便捷的容器化部署方案,以支持在数据中心的服务器
    的头像 发表于 12-17 10:17 935次阅读
    <b class='flag-5'>NVIDIA</b> Omniverse基于Container的部署推<b class='flag-5'>流</b>方案

    NVIDIA TensorRT LLM 1.0推理框架正式上线

    TensorRT LLM 作为 NVIDIA 为大规模 LLM 推理打造的推理框架,核心目标是突破 NVIDIA 平台上的推理性能瓶颈。为实现这一目标,其构建了多维度的核心实现路径:一方面,针对需
    的头像 发表于 10-21 11:04 1396次阅读

    DeepSeek R1 MTP在TensorRT-LLM的实现与优化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上创下了 DeepSeek-R1 推理性能的世界纪录,Multi-Token Prediction (MTP) 实现了大幅提速
    的头像 发表于 08-30 15:47 4670次阅读
    DeepSeek R1 MTP在<b class='flag-5'>TensorRT</b>-LLM<b class='flag-5'>中</b>的实现与优化

    TensorRT-LLM的分离式服务

    在之前的技术博客,我们介绍了低延迟[1] 和高吞吐[2] 场景的优化方法。对于生产部署,用户还关心在满足特定延迟约束的情况下,每个 GPU 的吞吐表现。本文将围绕“吞吐量-延迟”性能场景,介绍 TensorRT-LLM 分离式服务的设计理念、使用方法,以及性能研究结果。
    的头像 发表于 08-27 12:29 1963次阅读
    <b class='flag-5'>TensorRT</b>-LLM<b class='flag-5'>中</b>的分离式服务

    椭偏仪在OLED的应用丨多层薄膜纳米结构的各膜厚度高精度提取

    在OLED显示器的多层超薄膜叠加结构的椭偏测量应用,需要同时提取多层超薄膜堆栈各层薄膜厚度值,而膜与膜间的厚度也会有强耦合性会导致测
    的头像 发表于 08-22 18:09 1147次阅读
    椭偏仪在OLED<b class='flag-5'>中</b>的应用丨多层薄膜纳米<b class='flag-5'>结构</b>的各膜<b class='flag-5'>层</b>厚度高精度提取

    超过175款游戏和应用现已支持NVIDIA DLSS 4

    超过 175 款游戏和应用现已支持 DLSS 4,包括《生化危机:安魂曲》(Resident Evil Requiem)、《影之刃零》(Phantom Blade Zero)等支持光线追踪的大作,升级的 NVIDIA RTX R
    的头像 发表于 08-20 14:26 1524次阅读

    铜在微机电系统的应用

    在 MEMS(微机电系统),铜(Cu)因优异的电学、热学和机械性能,成为一种重要的金属材料,广泛应用于电极、互连、结构层等关键部件。
    的头像 发表于 08-12 10:53 1226次阅读
    铜在微机电系统<b class='flag-5'>中</b>的应用

    NVIDIA RTX AI加速FLUX.1 Kontext现已开放下载

    NVIDIA RTX 与 NVIDIA TensorRT 现已加速 Black Forest Labs 的最新图像生成和编辑模型;此外,Gemma 3n 现可借助 RTX 和 NVIDIA
    的头像 发表于 07-16 09:16 2171次阅读

    如何为EMC设计选择PCB叠结构

    在设计电磁兼容性(EMC)表现优异的 PCB 时,叠结构的选择是需要掌握的核心概念之一。
    的头像 发表于 07-15 10:25 6774次阅读
    如何为EMC设计选择PCB叠<b class='flag-5'>层</b><b class='flag-5'>结构</b>

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署。
    的头像 发表于 07-04 14:38 2406次阅读

    NVIDIA Blackwell GPU优化DeepSeek-R1性能 打破DeepSeek-R1在最小延迟场景的性能纪录

    本文将探讨 NVIDIA TensorRT-LLM 如何基于 8 个 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延迟场景的性能纪录:在 G
    的头像 发表于 07-02 19:31 3555次阅读
    <b class='flag-5'>NVIDIA</b> Blackwell GPU优化DeepSeek-R1性能 打破DeepSeek-R1在最小延迟场景<b class='flag-5'>中</b>的性能纪录

    使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践

    针对基于 Diffusion 和 LLM 类别的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能显著提升推理速度。在单张 NVIDIA Ada Lovelace
    的头像 发表于 06-12 15:37 2061次阅读
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS应用的最佳实践

    矩阵变换器在异步电机直接转矩控制的应用

    在异步电机直接转矩控制系统,采用矩阵变换器供电既能实现直接转矩控制的效果,并且还具有矩阵变换器的优点。实现了将
    发表于 06-05 11:21