0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

【AIBOX应用】通过 NVIDIA TensorRT 实现实时快速的语义分割

Firefly开源团队 2024-12-18 16:33 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

NVIDIA 系列 AIBOX

AIBOX-OrinNano 和 AIBOX-OrinNX 均搭载 NVIDIA 原装 Jetson Orin 核心板模组,标配工业级全金属外壳,铝合金结构导热,顶盖外壳侧面采用条幅格栅设计,高效散热,保障在高温运行状态下的运算性能和稳定性,满足各种工业级的应用需求。

c56dde2a-bd1a-11ef-8084-92fbcf53809c.png

NVIDIA TensorRT

NVIDIA系列 AIBOX 支持深度学习框架TensorRT,TensorRT是用于高性能深度学习推理的 API 生态系统,其包括推理运行时和模型优化,可为生产应用提供低延迟和高吞吐量。

TensorRT 生态系统包括 TensorRT、TensorRT-LLM、TensorRT 模型优化器和 TensorRT Cloud。

NVIDIA TensorRT 的优势

推理速度提升 36 倍

优化推理性能

加速各种工作负载

使用 Triton 进行部署、运行和扩展

应用案例—语义分割

语义分割基于图像识别,但分类是在像素级别进行的,而不是在整个图像上进行。这是通过将预训练的图像识别骨干网络进行卷积化来实现的,将模型转换为能够进行逐像素标注的全卷积网络(FCN)。语义分割对于环境感知特别有用,它能够对每个场景中的许多不同潜在对象(包括前景和背景)进行密集的逐像素分类。

c58caad0-bd1a-11ef-8084-92fbcf53809c.png

SegNet 模型

SegNet 的新颖之处在于解码器对其较低分辨率的输入特征图进行上采样的方式。具体地说,解码器使用了在相应编码器的最大池化步骤中计算的池化索引来执行非线性上采样。经上采样后的特征图是稀疏的,因此随后使用可训练的卷积核进行卷积操作,生成密集的特征图。SegNet 的架构与广泛采用的 FCN 以及众所周知的 DeepLab-LargeFOV,DeconvNet 架构进行比较。比较的结果揭示了在实现良好的分割性能时所涉及的内存与精度之间的权衡。

c5978d06-bd1a-11ef-8084-92fbcf53809c.png

下载源码

$ git clone --recursive --depth=1 https://github.com/dusty-nv/jetson-inference

编译 / 安装

参考:https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md

运行示例

$ ./segnet.py --network=fcn-resnet18-cityscapes city_0.jpg output_city_0.jpgc5bc22c4-bd1a-11ef-8084-92fbcf53809c.jpg

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 解码器
    +关注

    关注

    9

    文章

    1225

    浏览量

    43753
  • NVIDIA
    +关注

    关注

    14

    文章

    5682

    浏览量

    110095
  • 核心板
    +关注

    关注

    6

    文章

    1419

    浏览量

    32123
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI 主机盒在智慧安防中的 5 大应用场景:以视美泰 AIBOX-3576M/AIBOX-3588M 为例

    传统安防正加速向智慧安防转型,核心驱动力之一便是AI主机盒应用的普及。作为边缘计算的核心载体,AI主机盒无需依赖云端,即可在本地完成视频解码、AI算法推理与实时告警,让普通监控摄像头瞬间具备“智能
    的头像 发表于 04-13 11:14 4078次阅读
    AI 主机盒在智慧安防中的 5 大应用场景:以视美泰 <b class='flag-5'>AIBOX</b>-3576M/<b class='flag-5'>AIBOX</b>-3588M 为例

    中科创达量产版AIBOX-N1亮相CES 2026

    在2026国际消费电子展(CES)现场,中科创达围绕“AI定义汽车”核心趋势,正式亮相基于NVIDIA Drive AGX Orin打造的量产版AIBOX-N1。当前,该产品已具备向主机厂批量供货的能力,这也标志着智能汽车AI大模型实车普及正式迈入规模化新阶段。
    的头像 发表于 01-10 15:57 1222次阅读

    【NPU实战】在迅为RK3588上玩转YOLOv8:目标检测与语义分割一站式部署指南

    【NPU实战】在迅为RK3588上玩转YOLOv8:目标检测与语义分割一站式部署指南
    的头像 发表于 12-12 14:30 6365次阅读
    【NPU实战】在迅为RK3588上玩转YOLOv8:目标检测与<b class='flag-5'>语义</b><b class='flag-5'>分割</b>一站式部署指南

    NVIDIA TensorRT LLM 1.0推理框架正式上线

    TensorRT LLM 作为 NVIDIA 为大规模 LLM 推理打造的推理框架,核心目标是突破 NVIDIA 平台上的推理性能瓶颈。为实现这一目标,其构建了多维度的核心
    的头像 发表于 10-21 11:04 1386次阅读

    TensorRT-LLM的大规模专家并行架构设计

    之前文章已介绍引入大规模 EP 的初衷,本篇将继续深入介绍 TensorRT-LLM 的大规模专家并行架构设计与创新实现
    的头像 发表于 09-23 14:42 1328次阅读
    <b class='flag-5'>TensorRT</b>-LLM的大规模专家并行架构设计

    中科创达与吉利汽车、NVIDIA联合发布创新产品AIBOX

    产品AIBOX。该方案依托中科创达滴水AIOS和NVIDIA DRIVE AGX车载计算平台,首次实现7B大模型在车端实时流畅运行,打造了真正的AI座舱,标志着汽车产业正式进入AI大模
    的头像 发表于 09-10 09:05 1450次阅读

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上创下了 DeepSeek-R1 推理性能的世界纪录,Multi-Token Prediction (MTP) 实现了大幅提速
    的头像 发表于 08-30 15:47 4652次阅读
    DeepSeek R1 MTP在<b class='flag-5'>TensorRT</b>-LLM中的<b class='flag-5'>实现</b>与优化

    Ansys使用NVIDIA技术优化CFD仿真解决方案

    领先的解决方案提供商正在使用 OpenUSD、RTX 和 NVIDIA Blackwell 实现实时物理数字孪生。
    的头像 发表于 08-05 16:08 1661次阅读

    北京迅为itop-3588开发板NPU例程测试deeplabv3 语义分割

    北京迅为itop-3588开发板NPU例程测试deeplabv3 语义分割
    的头像 发表于 07-22 15:51 1121次阅读
    北京迅为itop-3588开发板NPU例程测试deeplabv3 <b class='flag-5'>语义</b><b class='flag-5'>分割</b>

    NVIDIA RTX AI加速FLUX.1 Kontext现已开放下载

    NVIDIA RTX 与 NVIDIA TensorRT 现已加速 Black Forest Labs 的最新图像生成和编辑模型;此外,Gemma 3n 现可借助 RTX 和 NVIDIA
    的头像 发表于 07-16 09:16 2156次阅读

    使用英伟达 NVIDIA Air 服务将仿真与现实世界连接

    NVIDIA Air 通过创建与真实数据中心基础设施部署相同的副本来实现云规模效率。借助 NVIDIA Air,您可以启动数百台交换机和服务器,并使用单个脚本进行配置。
    的头像 发表于 07-07 19:41 1452次阅读
    使用英伟达 <b class='flag-5'>NVIDIA</b> Air 服务将仿真与<b class='flag-5'>现实</b>世界连接

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署。
    的头像 发表于 07-04 14:38 2395次阅读

    AIBOX 产品矩阵:支持主流大模型的私有化部署,满足个性化 AI 应用需求

    Firefly共推出9款AIBOX产品,通过不同的算力、能效、外观等,适配不同行业的应用场景。Firefly×NVIDIA搭载NVIDIA原装JetsonOrin系列核心
    的头像 发表于 06-25 16:32 2003次阅读
    <b class='flag-5'>AIBOX</b> 产品矩阵:支持主流大模型的私有化部署,满足个性化 AI 应用需求

    使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践

    针对基于 Diffusion 和 LLM 类别的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能显著提升推理速度。在单张 NVIDIA Ada Lovelace
    的头像 发表于 06-12 15:37 2049次阅读
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS应用的最佳实践

    AIBOX 应用案例】通过 U²-Net 实现背景移除

    NVIDIA系列AIBOXAIBOX-OrinNano和AIBOX-OrinNX均搭载NVIDIA原装JetsonOrin核心板模组,标配工业级全金属外壳,铝合金结构导热,顶盖外壳侧面采用条幅格栅
    的头像 发表于 06-11 16:32 755次阅读
    【<b class='flag-5'>AIBOX</b> 应用案例】<b class='flag-5'>通过</b> U²-Net <b class='flag-5'>实现</b>背景移除