0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA Jetson Nano 2GB:视觉类脚本的环境配置与映射

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-04-01 09:38 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在 TAO 提供的数据类范例中,每个脚本的第一个步骤都是环境配置(0. Set up env variables and map drives),包括要求用户提供在 NGC 所生成的密钥,对后面训练的模型进行保护,以及指定要使用的 GPU 数量等等,这几个设定都很直观容易处理,但接下去的环境变量配置部分,就让大部分初学者停滞不前,因为任何一项路径配置错误,都会影响后面工作的正常进行,而每个实验脚本所提供的说明,对初学者来的帮助并不大,很多新手按照其字面解释去进行设定,但总是没法调整到完全正确。

因此我们必须在大家执行实验之前,先以专文将这部分的配置说明清楚,然后提供一个最简单的步骤,让大家用最轻松的方法来进行配置。

本文使用范例的 detectnet_v2.ipynb 做示范,首先看一下第一指令块中的设定内容:

[  ]  import os
%env KEY=tlt_encode%env NUM_GPUS=1%env USER_EXPERIMENT_DIR=/workspace/tao-experiments/detectnet_v2%env DATA_DOWNLOAD_DIR=/workspace/tao-experiments/data
# %env NOTEBOOK_ROOT=~/tao-samples/detectnet_v2os.environ["LOCAL_PROJECT_DIR"] = FIXMEos.environ["LOCAL_DATA_DIR"] = os.path.join(    os.getenv("LOCAL_PROJECT_DIR", os.getcwd()),    "data")os.environ["LOCAL_EXPERIMENT_DIR"] = os.path.join(    os.getenv("LOCAL_PROJECT_DIR", os.getcwd()),    "detectnet_v2")
# The sample spec files are present in the same path as the downloaded samples.os.environ["LOCAL_SPECS_DIR"] = os.path.join(    os.getenv("NOTEBOOK_ROOT", os.getcwd()),    "specs")%env SPECS_DIR=/workspace/tao-experiments/detectnet_v2/specs

稍微整理一下,除了KEYNUM_GPUS 两个变量之外,共有7个与路径有关的变量:

  • USER_EXPERIMENT_DIR

  • DATA_DOWNLOAD_DIR

  • LOCAL_PROJECT_DIR

  • LOCAL_DATA_DIR

  • LOCAL_EXPERIMENT_DIR

  • LOCAL_SPECS_DIR

  • SPECS_DIR

其实稍微整理一下就更容易理解,下表就是将这7个变量分为两组,以 “LOCAL_” 开头的属于 “容器外” 用途,另外 3 个属于容器内用途。

用途

容器外(主机上)

容器内(沿用TLT的习惯)

项目工作位置

LOCAL_PROJECT_DIR

存放模型训练输出结果

LOCAL_EXPERIMENT_DIR

USER_EXPERIMENT_DIR

存放数据集的路径

LOCAL_DATA_DIR

DATA_DOWNLOAD_DIR

配置文件存放路径

LOCAL_SPECS_DIR

SPECS_DIR

什么是容器内与容器外?前面提过 TAO 用两套独立的 Docker 容器,分别为视觉类与对话类提供模型训练功能,并透过 TAO 启动器的 CLI 指令执行各项任务。

虽然我们所有操作都在容器外的宿主机上,例如在指令终端下达 tao detectnet_v2 train ...,或者在 Jupyter 交互环境里执行 “!taodetectnet_v2 train ...” 指令,但是 TAO 启动器会将这些指令传递到容器,在后台为我们执行对应的任务。

这种处理方式的最大好处是,让不懂 Docker 的初学者完全无需理会容器技术,只要专注于 “模型训练” 的重点工作就行,如此就能让 TAO 的普及程度更快与更广,这也是 TAO 工具的一项非常重要意义。

但为何需要使用两套路径来处理呢?全部都在容器内执行不是更加简单?这里有个最严肃的问题是 “容器的生命周期” ,如果将数据保留在容器内处理的话,一旦容器关闭或销毁时,我们所有实验数据都将付之一炬,这是一项大家都承担不起的风险,因此我们必须将所有的数据存放在容器外面,然后透过路径映射 (mapping) 的方式来处理。

其次就是对于数据整理与文件修改的能力,在容器内操作是相对不方便的。要知道在执行模型训练之前,通常得先下载数据集的压缩文件、移动文件、进行解压缩、修改配置文件等等,这些任务在宿主机上操作是相对轻松的。

好了,当我们清楚 TAO 的视觉类模型训练脚本中,存在容器内与容器外两组环境路径的原因之后,接着就来看该如何设置与映射。

我们将前面的列表进行展开,前面 4 个是容器外的变量、后面 3 个是容器内变量:

环境变量

设定值

LOCAL_PROJECT_DIR

需要设置

LOCAL_EXPERIMENT_DIR

$LOCAL_PROJECT_DIR/<项目名>

LOCAL_DATA_DIR

$LOCAL_PROJECT_DIR/data

LOCAL_SPECS_DIR

<执行脚本所在目录>/specs

USER_EXPERIMENT_DIR

/workspace/tao-experiments/<项目名>

DATA_DOWNLOAD_DIR

/workspace/tao-experiments/data

SPECS_DIR

/workspace/tao-experiments/<项目名>/specs

假如在执行格内的变量按照上表的顺序去排列,事情就会变得非常单纯。

事实上,从头到尾我们只要将 “LOCAL_PROJECT_DIR” 设置为”执行脚本所在目录”,那么后面三个容器外变量就立即建立好对应关系,我们完全不需要做任何处理理会。至于容器内的三个变量,每个脚本的配置规则都是一样,也就是不需要去改变。

把上面的对应关系了解清楚之后,整个状况就变得非常简单,现在回头看看第一个指令块,里面需要输入的变量其实只有以下三个:

  • %env KEY= <自己在NGC上申请的秘钥>

  • %env NUM_GPUS= <根据设备配置,给定调用的GPU数量>

  • os.environ["LOCAL_PROJECT_DIR"] = os.getcwd()

其他 6 个变量完全不做任何修改,这样就能够顺畅地跑动后面的指令块。

接下去的工作就是执行 “路径映射” 任务,为容器内外的路径建立对应的关系。几乎所有训练脚本都采用下面的映射方式:

[  ]  # Define the dictionary with the mapped drivesdrive_map = {    "Mounts": [        # Mapping the data directory        {            "source": os.environ["LOCAL_PROJECT_DIR"],            "destination": "/workspace/tao-experiments"        },        # Mapping the specs directory.        {            "source": os.environ["LOCAL_SPECS_DIR"],            "destination": os.environ["SPECS_DIR"]        },    ]}

执行这个路径映射的指令块之后,会将这些值写入 “~/.tao_mounts.json” 文件里面,这是 TAO 启动器每次调用容器时都需要参考的配置文件,但是这个文件是 “唯一” 的,也就是同一时间只会存在一组容器内外的路径映射关系,这表示系统不能同时执行两个以上的模型训练脚本,这点也请务必牢记。

紧跟着的 “1.Install the TAO launcher” 步骤可以直接跳过,因为我们在前面已经带着大家安装好 TAO 启动器,这里顶多执行 “!taoinfo” 指令,确认一下是否回应正确讯息。

现在就可以开始进行 TAO 所提供的各种神经网络的模型训练脚本。

审核编辑 :李倩
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4842

    浏览量

    108158
  • NVIDIA
    +关注

    关注

    14

    文章

    5685

    浏览量

    110111
  • 变量
    +关注

    关注

    0

    文章

    616

    浏览量

    29566

原文标题:NVIDIA Jetson Nano 2GB 系列文章(57):视觉类脚本的环境配置与映射

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    i.MXRT1173跨界处理器能支持2GB NOR闪存吗?

    does nxp i.MXRT1173 crossover processor can support 2GB NOR flash.If yes what need to be taken
    发表于 04-23 08:25

    如何在NVIDIA Jetson平台上运行最新的开源AI模型

    在小型、低功耗的边缘设备上运行先进的 AI 和计算机视觉工作流正变得越来越具有挑战性。机器人、智能摄像头和自主设备需要实时智能来感知、理解并做出反应,而无需依赖云端。NVIDIA Jetson 平台通过紧凑的 GPU 加速模块和
    的头像 发表于 12-24 10:38 1877次阅读
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b>平台上运行最新的开源AI模型

    NVIDIA Jetson系列开发者套件助力打造面向未来的智能机器人

    NVIDIA Jetson AGX Thor、AGX Orin 以及 Jetson Orin Nano Super 开发者套件,助力打造面向未来的智能机器人。
    的头像 发表于 12-13 10:20 3307次阅读

    如何在NVIDIA Jetson AGX Thor上通过Docker高效部署vLLM推理服务

    继系统安装与环境配置后,本期我们将继续带大家深入 NVIDIA Jetson AGX Thor 的开发教程之旅,了解如何在 Jetson A
    的头像 发表于 11-13 14:08 4393次阅读
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor上通过Docker高效部署vLLM推理服务

    NVIDIA Jetson AGX Thor Developer Kit开发环境配置指南

    NVIDIA Jetson AGX Thor 专为物理 AI 打造,与上一代产品 NVIDIA Jetson AGX Orin 相比,生成式 AI 性能最高提升至 5 倍。通过发布后的
    的头像 发表于 11-08 09:55 7638次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor Developer Kit开发<b class='flag-5'>环境</b><b class='flag-5'>配置</b>指南

    BPI-AIM7 RK3588 AI与 Nvidia Jetson Nano 生态系统兼容的低功耗 AI 模块

    (瑞芯微) NVIDIA Jetson Nano 8GB 图灵 RK1 USB 端口 1个USB 3.0,3个USB 2.0 1个USB 3.0,3个USB 2.0
    发表于 10-11 09:08

    BPI-AIM7 RK3588 AI与 Nvidia Jetson Nano 生态系统兼容的低功耗 AI 模块

    。它是开源硬件,我们已在线发布设计文档,包括原理图和接口定义。其异构计算架构兼容 NVIDIA Jetson Nano 接口标准,非常适合边缘计算、AI 推理、VR/AR、智能 NVR 系统以及通用
    的头像 发表于 10-11 09:06 1414次阅读
    BPI-AIM7 RK3588 AI与 <b class='flag-5'>Nvidia</b> <b class='flag-5'>Jetson</b> <b class='flag-5'>Nano</b> 生态系统兼容的低功耗 AI 模块

    NVIDIA Jetson AGX Thor开发者套件重磅发布

    开发者与未来创造者们,准备好迎接边缘AI的史诗级革新了吗?NVIDIA以颠覆性技术再次突破极限,正式推出Jetson AGX Thor开发者套件!作为继传奇产品Jetson AGX Orin之后
    的头像 发表于 08-28 14:31 1750次阅读

    NVIDIA Nemotron Nano 2推理模型发布

    NVIDIA 正式推出准确、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2
    的头像 发表于 08-27 12:45 2001次阅读
    <b class='flag-5'>NVIDIA</b> Nemotron <b class='flag-5'>Nano</b> <b class='flag-5'>2</b>推理模型发布

    基于 NVIDIA Blackwell 的 Jetson Thor 现已发售,加速通用机器人时代的到来

    ·专为物理 AI 和机器人打造的机器人计算机 NVIDIA Jetson AGX Thor 开发者套件和量产级模组,现已发售。 ·超过 200 万开发者正在使用 NVIDIA 的机器人技术栈,联影
    发表于 08-26 09:28 1352次阅读
    基于 <b class='flag-5'>NVIDIA</b> Blackwell 的 <b class='flag-5'>Jetson</b> Thor 现已发售,加速通用机器人时代的到来

    NVIDIA Jetson AGX Thor开发者套件概述

    NVIDIA Jetson AGX Thor 开发者套件为您提供出色的性能和可扩展性。它由 NVIDIA Blackwell GPU和128 GB 显存提供动力支持,提供高达 2070
    的头像 发表于 08-11 15:03 2073次阅读

    NVIDIA Jetson + Isaac SDK 人形机器人方案全面解析

    NVIDIA Jetson + Isaac SDK 人形机器人方案全面解析 一、方案概述 Jetson 硬件平台 :提供 AI + GPU 运算能力,配合多传感器、视觉、传动控制体系
    的头像 发表于 07-30 16:12 2453次阅读

    Jetson平台核心组件BOM清单概览

    Jetson平台核心组件BOM清单概览 NVIDIA Jetson系列作为业界领先的边缘计算和人工智能(AI)平台,其强大的性能背后是一系列精心挑选的核心芯片、电源管理集成电路(PMIC)以及丰富
    的头像 发表于 07-30 16:11 3476次阅读

    Arm方案 基于Arm架构的边缘侧设备(树莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文将为你展示如何在树莓派或 NVIDIA Jetson Nano 等基于 Arm 架构的边缘侧设备上部署 PyTorch 模型。
    的头像 发表于 07-28 11:50 3044次阅读

    Made with KiCad(126):Antmicro OV5640 双摄像头子板

    Jetson NanoJetson TX2 NX、Jetson Xavier NX 系统模块的 Je
    发表于 05-12 18:13