0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何训练自主移动机器人使用合成数据检测仓库托盘千斤顶

NVIDIA英伟达 来源:未知 2023-11-09 10:45 次阅读

在训练那些部署在自主移动机器人(AMR)上的感知 AI 模型时,合成数据可以发挥关键作用。这一过程在制造业中变得越来越重要。有关使用合成数据生成预训练模型,用于检测仓库中托盘的示例,可参见使用《OpenUSD 和合成数据开发托盘检测模型》一文:https://developer.nvidia.com/blog/developing-a-pallet-detection-model-using-openusd-and-synthetic-data/

本文将探讨如何训练 AMR 使用合成数据来检测仓库中的托盘千斤顶。托盘千斤顶通常用于抬起和运输重型托盘。在拥挤的仓库中,AMR 进行检测并避免与托盘千斤顶相撞是很重要的。

为了实现这一目标,有必要在不同的光照条件和遮挡下使用大量不同的数据集来训练 AI 模型。真实的数据很少能捕捉到潜在环境的全部范围,而合成数据生成(SDG)是由 3D 仿真生成的注释数据,使开发人员能够克服数据差距并引导模型训练过程。

视频 1:使用 NVIDIA Omniverse Replicator

为 NVIDIA Isaac Sim 生成合成数据

本次用例将通过处理数据来践行以数据为中心的方法,而不是通过更改模型参数去适应数据。这一过程首先使用 NVIDIA Isaac Sim 中的 NVIDIA Omniverse Replicator 生成合成数据,随后使用 NVIDIA TAO Toolkit 中的合成数据对模型进行训练,最后,将模型在真实数据上的性能可视化,并修改参数以生成更好的合成数据,达到期望的性能水平。

Omniverse Replicator 是 NVIDIA Omniverse 的核心扩展,是一个使个人和团队能够基于通用场景描述(OpenUSD)开发工作流的计算平台。Replicator 使开发者能够构建定制的合成数据生成管线,以生成数据来引导计算机视觉模型的训练。

迭代合成数据以提高模型性能

以下解释了本团队如何迭代合成数据,来提高目标检测模型的实际性能,并通过兼容 Omniverse Replicator API 的 Python 脚本详细介绍了这些步骤。

在每次迭代时,我们增量改变模型中的各种参数,并生成新的训练数据集,然后用实际数据验证模型的性能。我们持续这一过程,直到能够缩小仿真与现实之间的差距。

对象或场景参数变化的过程被称为域随机化。您可以随机化许多参数来快速生成新数据用于模型训练,这些参数包括位置、颜色、纹理、背景、物体和场景的光照。

OpenUSD 是一个可扩展的框架,一种 3D 场景描述技术,也是 NVIDIA Omniverse 的基础,让试验一个场景中的不同参数变得很容易。参数可以在单独的层中修改和测试,用户可以在这些层之上创建非破坏性编辑。

准备

在起步阶段,我们需要一个安装有 NVIDIA RTX GPU最新版本的 NVIDIA Isaac Sim 的系统。Isaac Sim 是一个可扩展的机器人仿真应用程序,其利用 Omniverse Replicator 的核心功能生成合成数据。有关安装和配置的详细信息,请参见文档:https://docs.omniverse.nvidia.com/isaacsim/latest/installation/requirements.html

当 Isaac Sim 启动并运行时,我们可以从 GitHub 上的 NVIDIA-AI-IOT/synthetic_data_generation_training_workflow 下载所有资产。

第一次迭代:改变颜色和摄像头位置

在第一次迭代中,我们改变了托盘千斤顶的颜色和姿势,以及摄像头的姿势。可以按照以下步骤在自己的会话中复制此场景。

首先加载舞台(Stage):

ENV_URL = "/Isaac/Environments/Simple_Warehouse/warehouse.usd"
open_stage(prefix_with_isaac_asset_server(ENV_URL))

然后添加托盘千斤顶和摄像头到场景中。托盘千斤顶可以从 SimReady 资产库中加载。

PALLETJACKS = ["http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Scale_A/PalletTruckScale_A01_PR_NVD_01.usd",
      "http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Heavy_Duty_A/HeavyDutyPalletTruck_A01_PR_NVD_01.usd",
      "http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Low_Profile_A/LowProfilePalletTruck_A01_PR_NVD_01.usd"]
 
cam = rep.create.camera(clipping_range=(0.1, 1000000))

SimReady 或仿真就绪资产是包含精确物理属性和行为的物理精确 3D 对象。它们预装有模型训练所需的元数据和注释。

接下来,为托盘千斤顶和摄像头添加域随机化:

with cam:
        rep.modify.pose(position=rep.distribution.uniform((-9.2, -11.8,   0.4), (7.2, 15.8, 4)),look_at=(0, 0, 0))
 
   # Get the Palletjack body mesh and modify its color
   with rep.get.prims(path_pattern="SteerAxles"):
      rep.randomizer.color(colors=rep.distribution.uniform((0, 0, 0), (1, 1, 1)))
 
  # Randomize the pose of all the added palletjacks
  with rep_palletjack_group:
   rep.modify.pose(
  position=rep.distribution.uniform((-6, -6, 0), (6, 12, 0)),
  rotation=rep.distribution.uniform((0, 0, 0), (0, 0, 360)),
  scale=rep.distribution.uniform((0.01, 0.01, 0.01), (0.01, 0.01, 0.01)))

wKgZomVMSNyACi0RAARLy7nLidY827.png

图 1. 显示托盘千斤顶随机颜色和位置与

随机摄像机的位置的合成图像

最后,配置用于注释数据的编写器:

writer = rep.WriterRegistry.get("KittiWriter") 
writer.initialize(output_dir=output_directory,
          omit_semantic_type=True,)

本例使用 Replicator 提供的 KittiWriter,以 KITTI 格式存储对象检测标签的注释,这将确保更容易与训练管线兼容。

结果

对于第一批合成数据,团队使用了 LOCO 数据集,这是一个用于物流的场景理解数据集,涵盖了检测物流特定对象的问题,以可视化现实世界的模型性能。

生成的图像显示,该模型仍然试图在拥挤的仓库中检测托盘千斤顶(图 2),在托盘千斤顶附近的物体周围创建了许多边界框。考虑到这是第一次训练迭代,这个结果在一定程度上是意料之中的,减少域差距将是后续迭代的重点。

wKgZomVMSNyANl7OAAWuFwdCimU233.png

图 2:在根据现实数据来验证模型后,

现实世界的图像显示了许多报错

第二次迭代:添加纹理和改变环境照明

在这次迭代中,除了第一次迭代中的托盘颜色和摄像头位置外,团队还随机化了纹理和环境照明。

激活纹理和光照的随机化:

# Randomize the lighting of the scene
  with rep.get.prims(path_pattern="RectLight"):
   rep.modify.attribute("color", rep.distribution.uniform((0, 0, 0), (1, 1, 1)))
   rep.modify.attribute("intensity", rep.distribution.normal(100000.0, 600000.0))
   rep.modify.visibility(rep.distribution.choice([True, False, False, False, False, False, False]))
 
# select floor material
random_mat_floor = rep.create.material_omnipbr(diffuse_texture=rep.distribution.choice(textures),                          roughness=rep.distribution.uniform(0, 1),                        metallic=rep.distribution.choice([0, 1]),                          emissive_texture=rep.distribution.choice(textures),      emissive_intensity=rep.distribution.uniform(0, 1000),)
     
     
   with rep.get.prims(path_pattern="SM_Floor"):
     rep.randomizer.materials(random_mat_floor)

图 3 显示了生成的合成图像。可以看到已经添加到背景中的各种纹理和入射到物体上的不同类型的环境光。

wKgZomVMSN2AEa1lAATb2dwb-vY445.png

图 3:不同纹理背景的托盘千斤顶的合成图像

结果

本次迭代的报错数量减少,增加了纹理和光照随机化。生成合成数据时的一个关键因素是确保结果数据集中数据的多样性。来自合成域的类似或重复数据可能无助于改善现实世界中的模型性能。

为了提高数据集的多样性,可以在场景中添加更多的随机化对象。这将在第三次迭代中解决,并且应该有助于改善模型的稳健性。

wKgZomVMSN2AAyvOAAVyCERfk2A136.png

图 4. 现实世界的图像表明,经过随机纹理和光照图像的训练,该模型检测托盘千斤顶的精度更高

第三次迭代:添加干扰

本次迭代将额外的对象(称为干扰物)引入到场景中,这些干扰物增加了数据集的多样性。此次迭代还包括前两次迭代中的所有更改。

在场景中添加干扰物:

DISTRACTORS_WAREHOUSE = ["/Isaac/Environments/Simple_Warehouse/Props/S_TrafficCone.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/S_WetFloorSign.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_01.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_02.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_03.usd"]
 
# Modify the pose of all the distractors in the scene
with rep_distractor_group:
    rep.modify.pose(
position=rep.distribution.uniform((-6, -6, 0), (6, 12, 0)),
      rotation=rep.distribution.uniform((0, 0, 0), (0, 0, 360)),
      scale=rep.distribution.uniform(1, 1.5))

这个项目使用的所有资源都可以通过默认的 Isaac Sim 安装获得,并通过指定它们在核心服务器上的路径来加载它们。

wKgZomVMSN2AeJd1AAU8vEhnFPc666.png

图 5. 被常见仓库物体(干扰物)包围的

托盘千斤顶的合成图像

结果

图 6 显示了第三次迭代的结果。该模型能够准确地检测到托盘千斤顶,并且边界框较少。与第一次迭代相比,模型性能得到了显著改善。

wKgZomVMSN2ANCeIAAWgfea1mto418.png

图 6. 现实世界的图像显示,

该模型能够准确检测到托盘千斤顶

持续迭代

该团队在每次迭代中使用 5000 张图像来训练模型。您可以通过生成更多的变量和增加合成数据来继续迭代此工作流,以达到所需的精度。

我们使用 NVIDIA TAO Toolkit 来训练带有 resnet18 主干的 DetectNet_v2 模型进行这些实验。使用这个模型并不是工作流的要求,您可以利用使用注释生成的数据来训练您所选择的体系架构和框架的模型。

我们在实验中使用了 KITTI 编写器。也可以使用 Omniverse Replicator 编写自己的自定义编写器,以正确的注释格式生成数据,这将使您的训练工作流无缝兼容。

您还可以在训练过程中混合现实数据和合成数据来进行实验。在获得满意的评价指标后,最终模型可以在 NVIDIA Jetson 上进行优化和部署。

使用 Omniverse Replicator

开发合成数据管线

通过使用 Omniverse Replicator,您可以构建自己的自定义合成数据生成管线或工具,以编程方式生成大量不同的合成数据集,以引导模型并快速迭代。引入各种类型的随机化为数据集增加了必要的多样性,使模型能够在各种条件下识别对象或是感兴趣的对象。

使用本文中的工作流,请访问 GitHub 上的 NVIDIA-AI-IOT/synthetic_data_generation_training_workflow。要查看完整的工作流,NVIDIA 的团队成员展示了如何使用 Omniverse Replicator 和合成数据来训练制造流程的对象检测模型(视频 2)。

视频 2:学习如何用合成数据训练计算机视觉模型

要构建自己的自定义合成数据生成管线,请免费下载 Omniverse,并按照说明开始使用 Omniverse 代码中的 Replicator。您也可以参加自定进度的在线课程“合成数据生成训练计算机视觉模型”,并观看最新的 Omniverse Replicator 教程

  • 免费下载 Omniverse:

    https://www.nvidia.com/en-us/omniverse/download/

  • 开始使用 Omniverse 代码中的 Replicator:

    https://docs.omniverse.nvidia.com/extensions/latest/ext_replicator/getting_started.html

  • 通过合成数据生成训练计算机视觉模型:

    https://courses.nvidia.com/courses/course-v1:DLI+S-OV-10+V1/

  • 最新的 Omniverse Replicator 教程:

    https://www.nvidia.com/en-us/on-demand/playlist/playList-35d98b97-8abf-4f92-883a-c898801f28b4/

NVIDIA 最近发布了 Omniverse Replicator 1.10,为开发者构建低代码 SDG 工作流提供了新的支持。相关详细信息,请参见“在 NVIDIA Omniverse Replicator 1.10 中使用低代码工作流促进合成数据生成”:https://developer.nvidia.com/blog/boost-synthetic-data-generation-with-low-code-workflows-in-nvidia-omniverse-replicator-1-10/

NVIDIA Isaac ROS 2.0 和 NVIDIA Isaac Sim 2023.1 现已可用,其对性能感知和高保真仿真进行了重要更新。如需了解更多信息,请参阅《NVIDIA Isaac 平台先进的仿真和感知工具助力 AI 机器人技术加速发展》。

GTC 2024 将于 2024 年 3 月 18 至 21 日在美国加州圣何塞会议中心举行,线上大会也将同期开放。扫描下方海报二维码,立即注册 GTC 大会


原文标题:如何训练自主移动机器人使用合成数据检测仓库托盘千斤顶

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3332

    浏览量

    87800

原文标题:如何训练自主移动机器人使用合成数据检测仓库托盘千斤顶

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    自主移动机器人(AMR)功能和特点

    复合机器人是一种集成了移动机器人、协作机器人机器视觉等多项功能的新型机器人。它的开发目的是为了解决工厂物流中最后一米的问题,提供智能搬运解
    的头像 发表于 02-28 15:05 474次阅读
    <b class='flag-5'>自主</b><b class='flag-5'>移动机器人</b>(AMR)功能和特点

    5个问题,洞悉自主移动机器人未来发展方向

    随着科技的日新月异,人类与机器人的互动将愈发频繁。从早晨在本地咖啡店里,协作机器人(cobot)为顾客精心冲泡咖啡,到在仓库中,自主移动机器人
    的头像 发表于 01-09 08:30 438次阅读
    5个问题,洞悉<b class='flag-5'>自主</b><b class='flag-5'>移动机器人</b>未来发展方向

    自主移动机器人的未来发展方向

    随着科技的日新月异,人类与机器人的互动将愈发频繁。从早晨在本地咖啡店里,协作机器人 (cobot) 为顾客精心冲泡咖啡,到在仓库中,自主移动机器人
    的头像 发表于 01-04 09:34 337次阅读
    <b class='flag-5'>自主</b><b class='flag-5'>移动机器人</b>的未来发展方向

    2024年移动机器人行业的十大预测

    GGII通过对移动机器人产业的梳理,结合宏观数据和调研数据信息,秉承不悲观、不乐观,力求客观的态度,深度解析2024年移动机器人行业的十大预测:
    发表于 12-25 14:42 245次阅读

    自主移动机器人自述:我们AMR是这样炼成的!

    点击蓝字 关注我们 我是一台自主移动机器人,也可以叫我AMR。我能够 看见、感知现实世界并完成与现实世 界的交互,能够做到这些事情并不容易。今天,我就来给你们讲讲我的设计者是如何将照明、传感器和通信
    的头像 发表于 11-07 19:15 326次阅读

    基于Matlab和VR技术的移动机器人建模及仿真

    利用 Matlab 建立移动机器人的动力学模型 ,在虚拟现实 (VR )环境下 ,实时仿真移动机器人路径跟踪的运动特性 ,为基于 Internet 的机器人遥操作试验搭建了仿真平台 。 实验结果表明
    发表于 09-20 06:24

    电源与电机控制方案如何更好应用于自主移动机器人

    点击蓝字 关注我们 自主移动机器人 (AMR) 为不同领域和行业带来了诸多优势,包括提高了安全性和效率。然而,为了能够安全、独立地工作,这些复杂的系统需要精心集成多项技术。在开发 AMR
    的头像 发表于 09-05 19:10 456次阅读

    移动机器人的发展现状及趋势 HMS产品在移动机器人的应用

    如今,无论是在工厂的仓库,酒店的走廊,或是家中的客厅,我们都能看到移动机器人(AGV/AMR)的身影。它们因更便宜、更安全且比真实工人更高效而受大受欢迎。 这些机器人增加了企业的灵活性,允许
    的头像 发表于 08-25 11:09 1380次阅读
    <b class='flag-5'>移动机器人</b>的发展现状及趋势 HMS产品在<b class='flag-5'>移动机器人</b>的应用

    移动机器人的构建

    电子发烧友网站提供《移动机器人的构建.zip》资料免费下载
    发表于 07-04 11:02 2次下载
    <b class='flag-5'>移动机器人</b>的构建

    【科普】干货!带你从0了解移动机器人(四) ——移动机器人导航技术

    通过视觉传感器(或组合式的色标传感器),检测事先铺设在地面的色带与移动机器人(AGV/AMR)的相对位置,从而使小车沿既定路线(色带)行驶。 **色带导航优点:**铺设容易改路径,成本低
    发表于 06-28 09:52

    【科普】干货!带你从0了解移动机器人(三) ——自主导航系统及上位机软件设计与实现

    人类社会中发挥着越来越重要的作用。但移动机器人拥有自主导航能力,才能进一步完成上诉所设定的任务。可以说自主导航能力是移动机器人最为基础和核心的技术,而上位机软件的实现与设计,则进一步推
    发表于 06-28 09:36

    【科普】干货!带你从0了解移动机器人(四) ——移动机器人导航技术

    移动机器人导航是指移动机器人确定自己在地图参考系中的位置后,自动规划出通往地图参考系中某个目标位置路径并沿着该路径到达目标位置点的能力,是移动机器人行动能力的关键。基于整个智能制造的发展,移动
    的头像 发表于 06-21 17:29 973次阅读
    【科普】干货!带你从0了解<b class='flag-5'>移动机器人</b>(四)  ——<b class='flag-5'>移动机器人</b>导航技术

    【科普】干货!带你从0了解移动机器人(四) ——移动机器人导航技术

    移动机器人导航是指移动机器人确定自己在地图参考系中的位置后,自动规划出通往地图参考系中某个目标位置路径并沿着该路径到达目标位置点的能力,是移动机器人行动能力的关键。
    的头像 发表于 06-20 17:09 1140次阅读
    【科普】干货!带你从0了解<b class='flag-5'>移动机器人</b>(四) ——<b class='flag-5'>移动机器人</b>导航技术

    「车型分析」移动机器人控制系统典型应用车型 ——叉式移动机器人(AGV/AMR)

    、灵活化、柔性化、低成本、高效率、安全作业等特性。1车型介绍叉式移动机器人(AGV/AMR)具备定位、导航和一定的自主决策能力,其主要由控制系统、驱动模块、工作模
    的头像 发表于 06-05 15:34 847次阅读
    「车型分析」<b class='flag-5'>移动机器人</b>控制系统典型应用车型 ——叉式<b class='flag-5'>移动机器人</b>(AGV/AMR)

    【科普】干货!带你从0了解移动机器人(二)—— 移动机器人硬件组成

    协同工作才能实现机器人自主移动。下面将详细介绍移动机器人的硬件组成,从传感器、运动控制到交互模块都在其范畴内。 1、控制系统: 控制系统是移动机器
    的头像 发表于 05-24 17:01 1323次阅读
    【科普】干货!带你从0了解<b class='flag-5'>移动机器人</b>(二)—— <b class='flag-5'>移动机器人</b>硬件组成