0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA Jetson TX2 将深度学习推理提升至两倍

星星科技指导员 来源:NVIDIA 作者:Dustin Franklin 2022-04-18 15:28 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在旧金山的一个 AI 会议上, NVIDIA 发布了 Jetson TX2 和 Jetpack3 。 0AI SDK 。 Jetson 是世界领先的低功耗嵌入式平台,为所有边缘设备提供服务器级 AI 计算性能。 Jetson TX2 具有集成的 256 核 NVIDIA Pascal GPU 、十六进制内核 ARMv8 64 位 CPU 复合体和 8GB LPDDR4 内存和 128 位接口。 CPU 复合物结合了双核心的丹佛 2 号和四核臂 Cortex-A57 。图 1 所示的 Jetson TX2 模块适合于 50 x 87 毫米、 85 克和 7 。 5 瓦的小尺寸、重量和功率(交换)占用空间。

物联网IoT )设备通常充当简单的中继数据网关。他们依靠云连接来完成繁重的工作和数字运算。边缘计算是一种新兴的范式,它使用本地计算来实现数据源的分析。 TX2 具有超过 TFLOP / s 的性能,非常适合将高级人工智能部署到互联网连接较差或昂贵的远程现场。 Jetson TX2 还为需要任务关键型自治的智能机器提供近实时响应和最小延迟密钥。

Jetson TX2 基于 16nm NVIDIA Tegra “ Parker ”系统片上系统( SoC )(图 2 显示了一个框图)。 Jetson TX2 在深度学习推理方面的能效是其前代产品 Jetson TX1 的两倍,并提供比 Intel Xeon 服务器 CPU 更高的性能。效率的提高重新定义了将先进的人工智能从云端扩展到边缘的可能性。

poYBAGJdEzyAQ2u2AAJOzmrvsFg324.png

图 2 : NVIDIA Jetson TX2 Tegra “ Parker ” SoC 框图,具有集成的 NVIDIA Pascal GPU 、 NVIDIA Denver 2 + Arm Cortex-A57 CPU 集群和多媒体加速引擎(点击图片获取完整分辨率)。

Jetson TX2 有多个多媒体流引擎,通过减轻传感器采集和分发的负担,使其 Pascal GPU 能够获得数据。这些多媒体引擎包括六个专用的 MIPI CSI-2 摄像头端口,每通道提供高达 2 。 5gb / s 的带宽和 1 。 4gb / s 的双图像服务处理器( ISP )处理,以及支持 H 。 265 、每秒 4k60 帧的视频编解码器。

Jetson TX2 使用 NVIDIA cuDNN 和 TensorRT 库加速尖端深度神经网络( DNN )架构,并支持 递归神经网络 、 长短期记忆网络 和在线 强化学习 。它的双 CAN 总线控制器使自动驾驶仪集成到控制机器人无人机,这些机器人和无人机使用 DNN 感知周围的世界,并在动态环境中安全运行。 Jetson TX2 的软件通过 NVIDIA 的 喷气背包 3 。 0 和 Linux for Tegra ( L4T ) Board Support Package ( BSP )提供。

表 1 比较了 Jetson TX2 与上一代 Jetson TX1 的特性。

pYYBAGJdE62AGVs7AACY8YBXOlw462.png

两倍的性能,两倍的效率

在我的 在 JetPack 2 。 3 上发布 中,我演示了 NVIDIA TensorRT 如何提高 Jetson TX1 深度学习推理性能,效率比桌面类 CPU 高 18 倍。 TensorRT 通过使用 graph 优化、内核融合、 半精度浮点计算( FP16 ) 和架构自动调整来优化生产网络以显著提高性能。除了利用 Jetson TX2 对 FP16 的硬件支持之外, NVIDIA TensorRT 还能够批量同时处理多个图像,从而获得更高的性能。

Jetson TX2 和 JetPack 3 。 0 将 Jetson 平台的性能和效率提升到一个全新的水平,为用户提供了在 AI 应用中获得两倍或最多两倍于 Jetson TX1 性能的选项。这种独特的功能使 Jetson TX2 成为边缘需要高效人工智能的产品和边缘附近需要高性能的产品的理想选择。 Jetson TX2 还与 Jetson TX1 兼容,为使用 Jetson TX1 设计的产品提供了一个简单的升级机会。

为了测试 Jetson TX2 和 JetPack 3 。 0 的性能,我们将其与服务器类 CPU 、 Intel Xeon E5-2690 v4 进行比较,并使用 GoogLeNet 深度图像识别网络测量深度学习推理吞吐量(每秒图像数)。如图 3 所示, Jetson TX2 在低于 15W 的功率下运行的性能优于在接近 200W 的情况下运行的 CPU ,从而使数据中心级的 AI 能力处于边缘。

poYBAGJdEz-APgw6AAChtuZrAj4811.png

图 3 : GoogLeNet 网络架构在 NVIDIA Jetson TX2 和 Intel Xeon E5-2960 v4 上的性能。

Jetson TX2 的卓越 AI 性能和效率源于新的 Pascal GPU 架构和动态能量配置文件( Max-Q 和 Max-P )、 JetPack 3 。 0 附带的优化深度学习库以及大内存带宽的可用性。

Max-Q 和 Max-P

Jetson TX2 设计用于 7 。 5W 功率下的峰值处理效率。这一性能水平被称为 Max-Q ,代表功率/吞吐量曲线的峰值。模块上的每个组件(包括电源)都经过优化,以提供最高的效率。 GPU 的最大 Q 频率为 854 MHz ,而 Arm A57 CPU 的最大 Q 频率为 1 。 2 GHz 。 JetPack 3 。 0 中的 L4T BSP 包括用于将 Jetson TX2 设置为 Max-Q 模式的预设平台配置。 Jetpack3 。 0 还包括一个名为 nvpmodel 的新命令行工具,用于在运行时切换配置文件。

虽然动态电压和频率缩放( DVFS )允许 Jetson TX2 的 Tegra “ Parker ” SoC 在运行时根据用户负载和功耗调整时钟速度,但 Max-Q 配置设置了时钟上限,以确保应用程序仅在最有效的范围内运行。表 2 显示了在运行 GoogLeNet 和 AlexNet 深度学习基准测试时, Jetson TX2 和 Jetson TX1 的性能和能效。在 Max-Q 模式下运行的 Jetson TX2 的性能与在最大时钟频率下运行的 Jetson TX1 的性能相似,但只消耗一半的功率,因此能量效率提高了一倍。

尽管功率预算有限的大多数平台将从 Max-Q 行为中受益最大,但其他平台可能更喜欢使用最大时钟来达到峰值吞吐量,尽管这样做会导致更高的功耗和更低的效率。 DVFS 可以配置为在其他时钟速度范围内运行,包括欠时钟和超频。 Max-P 是另一种预设平台配置,可在不到 15W 的时间内实现最大系统性能。启用 Arm A57 群集或启用丹佛 2 群集时, GPU 的 Max-P 频率为 1122 MHz , CPU 的 Max-P 频率为 2 GHz ,当两个群集都启用时, Max-P 频率为 1 。 4 GHz 。您还可以创建具有中频目标的自定义平台配置,以便在应用程序的峰值效率和峰值性能之间实现平衡。下表 2 显示了从 Max-Q 到 Max-P 的性能如何提高,以及如何在效率逐渐降低的情况下提高 GPU 时钟频率。

poYBAGJdE7qAPel9AABugosIZ44992.png

Jetson TX2 执行 GoogLeNet 推理的速度高达 33 。 2 图像/秒/瓦,几乎是 Jetson TX1 的两倍,效率比 Intel Xeon 高出近 20 倍。

端到端人工智能应用

两个 Pascal 流式多处理器( SMs )是 Jetson TX2 高效性能的重要组成部分,每个处理器有 128 个 CUDA 核。 Pascal GPU 架构 提供了重大的性能改进和电源优化。 TX2 的 CPU 复合体包括双核 7 路超标量 NVIDIA Denver 2 ,用于动态代码优化的高单线程性能,以及用于多线程处理的四核 Arm Cortex-A57 。

相干的丹佛 2 和 A57 CPU 都有一个 2MB 的二级缓存,并通过由 NVIDIA 设计的高性能互连结构进行连接,以在异构多处理器( HMP )环境中实现两个 CPU 的同时操作。一致性机制允许根据动态性能需求自由地对任务进行 MIG 评级,以减少开销的方式有效地利用 CPU 核心之间的资源。

Jetson TX2 是自主机端到端 AI 管线的理想平台。 Jetson 有线传输实时高带宽数据:在处理 GPU 数据后,可同时接收多个传感器的数据,执行媒体解码/编码、组网和低级命令控制协议。图 4 显示了使用高速接口阵列(包括 CSI 、 PCIe 、 USB3 和千兆以太网)连接传感器的常见管道配置。 CUDA 预处理和后处理阶段通常包括色域转换(成像 DNN 通常使用 BGR 平面格式)和对网络输出的统计分析。

Jetson_AI_pipeline-1-624x194.png

图 4 :端到端人工智能管道,包括传感器采集、处理、指挥和控制。

由于内存和带宽是 Jetson TX1 的两倍, Jetson TX2 能够同时捕获和处理额外的高带宽数据流,包括立体摄像机和 4K 超高清输入和输出。通过管道,深度学习和计算机视觉将来自不同来源和光谱域的多个传感器融合在一起,从而增强了自动导航期间的感知能力和态势感知能力。

Jetson TX2 开发工具包入门

首先, NVIDIA 为 Jetson TX2 开发工具包 提供了一个参考的小型 ITX 载体板( 170 毫米 x 170 毫米)和一个 500 万像素的 MIPI CSI-2 相机模块。开发工具包包括文档和设计示意图以及 JetPack-L4T 的免费软件更新。图 5 显示了开发工具包,显示了 Jetson TX2 模块和标准 PC 连接,包括 USB3 、 HDMIRJ45 千兆以太网、 SD 卡和 PCIe x4 插槽,这使得 Jetson 的应用程序开发更加容易。

要超越开发到定制部署平台,您可以修改开发工具包载体板和相机模块的参考设计文件,以创建自定义设计。或者, Jetson 生态系统合作伙伴为部署 Jetson TX1 和 Jetson TX2 模块提供现成的解决方案,包括微型载体、外壳和摄像头。 NVIDIA Developer Forums 为 Jetson 建造者和 NVIDIA 工程师社区提供技术支持和协作之家。表 3 列出了主要文件和有用的资源。

poYBAGJdE8SAUXWJAAA5rH9heu8876.png

Jetson TX2 开发工具包可通过 NVIDIA 在线商店 以 599 美元的价格预订。 3 月 14 日开始在北美和欧洲发货,其他地区也将陆续发货。 Jetson TX2 教育折扣 还提供: 299 美元用于学术机构的附属机构。 NVIDIA 已将 Jetson TX1 开发工具包的价格降至 499 美元。

JetPack 3 。 0 SDK 开发包

最新的 NVIDIA JetPack 3.0 支持 Jetson TX2 使用业界领先的 AI 开发工具和硬件加速 API(见表4),包括 NVIDIA CUDA 工具包版本8.0、cuDNN、TensorRT、VisionWorks、GStreamer 和 OpenCV,这些都是在 Linux 内核v4.4、L4T R27.1 BSP 和 Ubuntu 16.04 LTS 的基础上构建的。Jetpack3.0 包括用于交互式分析和调试的Tegra系统探查器和Tegra图形调试器工具。Tegra多媒体API包括低级摄像头捕获和Video4Linux2(V4L2)编解码器接口。在闪烁的同时,JetPack会自动使用所选的软件组件配置Jetson TX2,从而实现开箱即用的完整环境

poYBAGJdE82ASsWTAAAuWmm39k8813.png

Jetson 是一个高性能的嵌入式解决方案,用于部署 Caffe 、 Torch 、 Theano 和 TensorFlow 等深度学习框架。这些和许多其他深度学习框架已经将 NVIDIA 的 cuDNN 库与 GPU 加速集成在一起,并且只需要很少的 MIG 定量工作就可以在 Jetson 上部署。 KZV3 的软件和应用程序通常在云计算中心和服务器上无缝部署[KZV3]软件和应用程序。

还有两天就要演示了

NVIDIA Two Days to a Demo 是一个帮助任何人开始部署深度学习的倡议。 NVIDIA 提供计算机视觉原语,包括图像识别、目标检测+定位和分割,以及用 DIGITS 训练的 神经网络 模型。您可以将这些网络模型部署到 Jetson 上,以便使用 NVIDIA TensorRT 进行有效的深度学习推断。“两天一个演示”提供了示例流式应用程序,以帮助您体验实时摄像头提要和真实世界的数据。

两天的演示代码是 在 GitHub 上提供 ,以及易于遵循的测试和重新训练网络模型的分步指导,为您的定制主题扩展了视觉原语。这些教程演示了数字工作流的强大概念,向您展示了如何在云端或 PC 机上迭代地训练网络模型,然后将其部署到 Jetson 上进行运行时推断和进一步的数据收集。

通过使用预先训练的网络和转移学习,此工作流使您可以轻松地使用自定义对象类来定制基础网络以满足您的任务。一旦一个特定的网络体系结构被证明适用于某个原语或应用程序,那么针对特定的用户定义的应用程序(例如包含新对象的训练数据)对其进行重新调整或重新训练通常会非常容易。

正如在 这个平行的 博客文章中所讨论的, NVIDIA 在数字 5 上增加了对分段网络的支持,现在可以在 Jetson TX2 上使用,演示时间为两天。分割原语使用完全卷积 Alexnet 架构( FCN-Alexnet )对视野中的单个像素进行分类。由于分类发生在像素级,与图像识别中的图像级不同,分割模型能够提取对周围环境的全面了解。这克服了自主导航机器人和无人机所面临的重大障碍,这些机器人和无人机可以直接使用分割区域进行路径规划和障碍物回避。

分段制导的自由空间探测使地面车辆能够安全地在地面上导航,而无人机则通过视觉识别和跟踪地平线和天空平面,以避免与障碍物和地形发生碰撞。感知和避免功能是智能机器与环境安全交互的关键。在 Jetson TX2 上使用 TensorRT 处理要求计算量大的分段网络,对于避免事故所需的低响应延迟至关重要。

两天的演示包括一个使用 FCN Alexnet 的空中分割模型(图 7 ),以及相应的 horizon 第一人称视图( FPV )数据集。空中分割模型可作为无人机和自主导航的范例。您可以使用自定义数据轻松扩展模型,以识别用户定义的类,如着陆平台和工业设备。一旦以这种方式增强,你就可以把它部署到装备了 Jetson 的无人机上,比如 Teal 和 Aerialtronics 的无人机。

为了鼓励开发更多的自主飞行控制模式,我在 GitHub 上发布了空中训练数据集、分段模型和工具。 NVIDIA Jetson TX2 和 Two Days to a Demo 使在该领域开始使用先进的深度学习解决方案比以往任何时候都更容易。

Jetson 生态系统

Jetson TX2 的模块化外形使其能够部署到各种环境和场景中。 NVIDIA 的开源参考载波设计来自于 Jetson TX2 开发工具包,为缩小或修改单个项目需求的设计提供了一个起点。一些小型化的载体与 Jetson 模块本身具有相同的 50x87mm 的占地面积,从而实现了紧凑的组装,如图 8 所示。使用 NVIDIA 提供的文档和设计辅助资料,或尝试现成的解决方案。今年 4 月, NVIDIA 将推出 Jetson TX1 和 TX2 模块,价格分别为 299 美元和 399 美元,数量为 1000 台或更多。

pYYBAGJdE2eAVBIHAAB7ox4ip3g770.png

图 8 : ConnectTech

Sprocket

紧凑型托架组件,适用于 Jetson TX2 和 Jetson TX1 ,售价 99 美元。

生态系统合作伙伴{ ConnectTech ® Auvidea ®提供与 Jetson TX1 和 TX2 共享插座兼容的可部署微型载体和外壳,如图 8 所示。 Image partners & 豹纹成像 ® 山脊跑 提供摄像头和多媒体支持。加固专家 阿巴科系统 ↓ 沃尔夫先进技术 ®为在恶劣环境下操作提供 MIL 规范的资质。

除了用于部署到野外的紧凑型载体和外壳外, Jetson 的生态系统覆盖范围超出了典型的嵌入式应用。 Jetson TX2 的多核 Arm / GPU 体系结构和卓越的计算效率也让高性能计算( HPC )行业备受关注。高密度 1U 机架式服务器现已提供万兆以太网和多达 24 个 Jetson 模块。图 9 显示了一个可伸缩阵列服务器的示例。 Jetson 的低功耗和被动冷却对于轻量级、可扩展的云任务(包括低功耗的 web 服务器、多媒体处理和分布式计算)很有吸引力。视频分析和代码转换后端通常与部署在现场的智能摄像机和物联网设备上的 Jetson 配合工作,可以从 Jetson TX2 增加的每个处理器支持的同步数据流和视频编解码器的比率中获益。

AI 在边缘

Jetson TX2 无与伦比的嵌入式计算能力将尖端 DNN 和下一代人工智能带到板上边缘设备上。 Jetson TX2 提供服务器级的高能效性能。它的原始深度学习性能比 Intel Xeon 高出 1 。 25 倍,计算效率提高了近 20 倍。 Jetson 紧凑的占地面积、计算能力和具有深度学习功能的 JetPack 软件堆栈使开发人员能够使用 AI 解决 21 世纪的挑战。

关于作者

Dustin Franklin 是 NVIDIA 的 Jetson 团队的开发人员布道者。 Dustin 拥有机器人和嵌入式系统方面的背景,他乐于在社区中提供帮助,并与 Jetson 一起参与项目。你可以在 NVIDIA Developer Forums 或 Github 上找到他。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 嵌入式
    +关注

    关注

    5186

    文章

    20151

    浏览量

    328899
  • 人工智能
    +关注

    关注

    1813

    文章

    49741

    浏览量

    261564
  • 深度学习
    +关注

    关注

    73

    文章

    5590

    浏览量

    123911
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何在NVIDIA Jetson AGX Thor上通过Docker高效部署vLLM推理服务

    继系统安装与环境配置后,本期我们继续带大家深入 NVIDIA Jetson AGX Thor 的开发教程之旅,了解如何在 Jetson AGX Thor 上,通过 Docker 高效
    的头像 发表于 11-13 14:08 3060次阅读
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor上通过Docker高效部署vLLM<b class='flag-5'>推理</b>服务

    NVIDIA Jetson AGX Thor Developer Kit开发环境配置指南

    NVIDIA Jetson AGX Thor 专为物理 AI 打造,与上一代产品 NVIDIA Jetson AGX Orin 相比,生成式 AI 性能最高
    的头像 发表于 11-08 09:55 6025次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor Developer Kit开发环境配置指南

    通过NVIDIA Jetson AGX Thor实现7生成式AI性能

    Jetson Thor 平台还支持多种主流量化格式,包括 NVIDIA Blackwell GPU 架构的新 NVFP4 格式,有助于进一步优化推理性能。该平台同时支持推测解码等新技术,为在边缘端加速生成式 AI 工作负载提供了
    的头像 发表于 10-29 16:53 1048次阅读

    NVIDIA TensorRT LLM 1.0推理框架正式上线

    ,TensorRT LLM 还承担着推理领域新技术载体的角色,通过前沿创新引入 LLM 推理生态,持续提升整个生态系统合作伙伴的技术能力。
    的头像 发表于 10-21 11:04 762次阅读

    BPI-AIM7 RK3588 AI与 Nvidia Jetson Nano 生态系统兼容的低功耗 AI 模块

    RK3588 提供支持,其性能优于 Jetson Nano: 更快的 CPU,性能提升 充足的 LPDDR4X 内存,比 Jetson Nano 大
    发表于 10-11 09:08

    ADI借助NVIDIA Jetson Thor平台加速人形机器人研发进程

    当前,人形机器人正逐步迈向实际应用部署阶段,其落地节奏取决于物理智能与实时推理能力的发展。随着NVIDIA Jetson Thor平台的正式面市,Analog Devices, Inc. (ADI)
    的头像 发表于 08-29 14:07 2650次阅读

    NVIDIA Nemotron Nano 2推理模型发布

    NVIDIA 正式推出准确、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2
    的头像 发表于 08-27 12:45 1404次阅读
    <b class='flag-5'>NVIDIA</b> Nemotron Nano <b class='flag-5'>2</b><b class='flag-5'>推理</b>模型发布

    基于 NVIDIA Blackwell 的 Jetson Thor 现已发售,加速通用机器人时代的到来

    Jetson AGX Orin,AI 算力提升至 7.5 ,能效提升至 3.5 ,能够实现实时推理
    发表于 08-26 09:28 1198次阅读
    基于 <b class='flag-5'>NVIDIA</b> Blackwell 的 <b class='flag-5'>Jetson</b> Thor 现已发售,加速通用机器人时代的到来

    NVIDIA Jetson AGX Thor开发者套件概述

    TFLOPS 的 AI 计算性能,从而轻松运行最新的生成式 AI模型,且功耗不超过 130 W。与 NVIDIA Jetson AGX Orin 相比,其 AI 计算性能提高至7.5 ,能效提高至3.5
    的头像 发表于 08-11 15:03 1598次阅读

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    网络智能诊断平台。通过对私有化网络数据的定向训练,信而泰打造了高性能、高可靠性的网络诊断模型,显著提升了AI辅助诊断的精准度与实用性。该方案实现了网络全流量深度解析能力与AI智能推理分析能力的有机融合
    发表于 07-16 15:29

    大模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型的推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文探讨大模型
    发表于 07-03 19:43

    Made with KiCad(126):Antmicro OV5640 双摄像头子板

    Jetson Nano、Jetson TX2 NX、Jetson Xavier NX 系统模块的 Jetson Nano 底板 支持英伟达
    发表于 05-12 18:13

    NVIDIA JetPack 6.2引入Super模式

    NVIDIA Jetson Orin Nano Super 开发者套件的推出开创了小型边缘设备生成式 AI 的新时代。全新的 Super 模式为生成式 AI 性能带来了空前的提升,最多可提升至
    的头像 发表于 02-12 09:32 1697次阅读
    <b class='flag-5'>NVIDIA</b> JetPack 6.2引入Super模式

    ADS1230放大为什么只有两倍

    ADS1230放大只有两倍,(PIN5和PIN6端的电压) / (输入电压) =2,采集的值也是放大两倍的值,通讯是正常的。
    发表于 01-08 08:11

    谷歌正式发布Gemini 2.0 性能提升两倍

    2.0在关键基准测试中相比前代产品Gemini 1.5 Pro的性能提升了近两倍。该模型支持图像、视频和音频等多种输入与输出形式,例如可以实现文本与图像的混合生成以及自定义的多语言文本转语音(TTS)内容。 此外,Gemini 2.0还支持直接调用工具如Google搜索
    的头像 发表于 12-12 14:22 1118次阅读