0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用合成数据实现自动驾驶摄像感知系统聚焦远场物体

丽台科技 来源:NVIDIA英伟达 2023-06-12 09:59 次阅读

探测远场物体(比如 100 米以外的车辆等)是自动驾驶系统在高速公路上安全运行的基础。

在此类高速环境中,每一秒都至关重要。因此,如果能够将以 70 英里/小时(约 113 公里/小时)速度行驶的自动驾驶车辆的感知范围从 100 米增加到 200 米,那么车辆就会有更多的时间裕量来做出反应。

然而,对于量产乘用车中所部署的摄像感知系统来说,扩大这一范围尤其困难。训练摄像感知系统来探测远场物体需要采集大量摄像数据以及真值(ground truth)标注,比如 3D 边界框和距离等。

b1351988-08c0-11ee-962d-dac502259ad0.png

▲图1 自动驾驶汽车离其他物体越远,就越难执行准确的摄像感知和真值标注。(图中的汽车未按比例绘制)

对于 200 米以外的物体,要提取这种真值数据就会变得更加困难。物体越远,它在图像中就越小,最终会变得只有几像素那么大。通常情况下,会同时使用像激光雷达这样的传感器,以及聚合和自动标注技术来提取 3D 和距离信息,但这类在激光雷达工作范围外的数据会变得稀疏并充满干扰。

b15be16c-08c0-11ee-962d-dac502259ad0.png

▲图2 摄像头数据实例(使用 30 度视场的长焦镜头在高速公路场景中拍摄),放大图显示了只有几个像素的远处汽车图像。

在开发过程中,NVIDIA DRIVE 自动驾驶汽车团队需要解决这一具体挑战。为此,NVIDIA 利用NVIDIA Omniverse Replicator的功能,在NVIDIA DRIVE Sim中生成远场物体的合成真值数据。

NVIDIA DRIVE Sim是依托 Omniverse 构建而成的自动驾驶汽车仿真平台,包含了基于物理学的传感器模型,这些模型已通过全面的高保真传感器仿真验证。

通过 NVIDIA DRIVE Sim 能够查询仿真场景中每个物体的位置(包括在任何摄像头分辨率下,距离车辆 400 米或 500 米的物体)并达到像素级精度。

通过将车辆位置信息与基于物理学的合成摄像头数据相结合,即可生成感知所需的 3D 和距离真值标签

通过将这些合成真值数据添加到现有的真实数据集中,便能够训练可探测远距离汽车的网络,并将 190 米到 200 米处汽车的 F1 得分提高 33%。

生成远场物体的合成真值数据

为了解决准确标注的远场数据的稀缺问题,NVIDIA 准备生成一个由近 10 万张远距离物体图像组成的合成数据集以增强现有的真实数据集。图 3 展示了在 NVIDIA DRIVE Sim 中使用 Omniverse Replicator 生成这些数据集的过程(从选择 3D 环境,到评估深度神经网络(DNN)性能)。

b177dd9a-08c0-11ee-962d-dac502259ad0.png

▲图3 用户可以使用 NVIDIA DRIVE Sim 不断迭代合成数据,以提高深度神经网络(DNN)的准确性。

在选择了针对高速公路用例的 3D 环境之后,NVIDIA 设置了一辆带有所需摄像头传感器的目标车辆(ego vehicle)。

NVIDIA DRIVE Sim 利用建立在 Omniverse Replicator 框架上的域随机化 API,以编程方式改变 3D 资产的外观、位置和运动。通过使用 ASAM OpenDRIVE 地图 API,将车辆和障碍物放置在 100 米至 350 米以上的远场距离上并使之具有情境感知能力。

▲ 可使用 NVIDIA DRIVE Sim 中生成的合成真值数据和 Omniverse Replicator 来训练网络对远场物体的感知。

NVIDIA DRIVE Sim 动作系统能够仿真各种有遮挡物的棘手情况,例如变道或近距离超车抢道等。这为现实世界中难以遇到的场景提供了关键数据。

在数据生成前的最后一步,需使用 Omniverse Replicator 的真值写入器生成必要的标签,包括 3D 边界框、速度、语义标签、物体 ID 等。

利用合成摄像头数据提高摄像头感知性能

这个用例中的真实训练数据集由 100 多万张图像组成,图像中包含高速公路场景中距离超过 200 米的车辆的真值标签。如图 4 左侧所示,这些真实图像中的汽车分布数,在距离数据采集车不到 100 米的地方达到峰值。距离更远的物体的真值标签十分稀疏,不足以提升感知能力。

b1a9f9ba-08c0-11ee-962d-dac502259ad0.png

▲图4 真实世界数据集与 NVIDIA DRIVE Sim 中生成的合成数据相对于本车距离的频率分布比较。目标车辆的前方为 0 度,后方为 180 度。角度为方位角值。

在本案例中,生成了约 9.2 万张合成图像以及约 37.1 万个汽车实例和真值标签,重点是放置在 350 米以内的远距离车辆的分布。合成数据集中的汽车分布更倾向于 150 米以上的远距离。通过向这个真实数据集添加约 9.2 万张合成图像,可将所需的有标签的远场物体引入到训练分布中。

在综合数据集上训练完感知算法后,NVIDIA 对真实数据集进行了测试,该数据集上的汽车分布范围在 200 米以内。根据按距离计算的感知性能改进 KPI,190 米至 200 米之间的汽车的 F1 得分(衡量模型在数据集上的准确性)最多可提高 33%。

b1cc7a12-08c0-11ee-962d-dac502259ad0.png

▲图5 在使用/未使用 NVIDIA DRIVE Sim 的仿真图像训练 DNN 的情况下,障碍物检测 DNN 的性能提高程度(F1 得分)。

总结

合成数据正在推动自动驾驶车辆开发范式的重大转变,解锁以前无法实现的新用例。通过使用NVIDIA DRIVE SimNVIDIA Omniverse Replicator,用户可以设计新传感器的原型、评估新的真值数据类型和自动驾驶车辆感知算法并仿真罕见的负面事件,所有这些都在虚拟的试验场中进行,所耗费的时间和成本远低于现实世界。合成数据集为自动驾驶车辆的感知提供了丰富的可能性并且在不断发展。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2526

    文章

    48110

    浏览量

    740108
  • 激光雷达
    +关注

    关注

    961

    文章

    3656

    浏览量

    186732
  • 自动驾驶系统

    关注

    0

    文章

    63

    浏览量

    6655

原文标题:使用合成数据实现自动驾驶摄像感知系统聚焦远场物体

文章出处:【微信号:Leadtek,微信公众号:丽台科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    未来已来,多传感器融合感知自动驾驶破局的关键

    模态精准感知信息,使自动驾驶系统可以实时精准地感知道路上的各种状况。 昱感微融合感知产品方案创新性地 将可见光
    发表于 04-11 10:26

    LabVIEW开发自动驾驶的双目测距系统

    LabVIEW开发自动驾驶的双目测距系统 随着车辆驾驶技术的不断发展,自动驾驶技术正日益成为现实。从L2级别的辅助驾驶技术到L3级别的受条件
    发表于 12-19 18:02

    如何实现去高精地图?自动驾驶迎行业奇点

    车载摄像头凭借灵活的探测距离、高传输速率、成本价格低廉等优势成为自动驾驶方案中重要传感器。单车搭载的摄像头数量将增加。Yole报告指出, L1~L2级自动驾驶功能仅需前后两颗
    发表于 11-30 10:50 458次阅读
    如何<b class='flag-5'>实现</b>去高精地图?<b class='flag-5'>自动驾驶</b>迎行业奇点

    使用合成数据处理自动驾驶新视角感知

    虽然,从小型客车到多轴半挂卡车,自动驾驶汽车 (AV) 有各种尺寸和大小,但部署在这些车辆上的感知算法都要经过训练,以处理诸如避障或行人检测等类似场景。 用于开发和验证这些算法的数据集通常从某一
    的头像 发表于 11-24 19:25 373次阅读
    使用<b class='flag-5'>合成数据</b>处理<b class='flag-5'>自动驾驶</b>新视角<b class='flag-5'>感知</b>

    激光雷达和毫米波雷达的区别 哪个才是自动驾驶感知的最优选择?

    激光雷达和毫米波雷达的区别 哪个才是自动驾驶感知的最优选择? 激光雷达和毫米波雷达是自动驾驶车辆感知系统中常见的传感器技术,它们在
    的头像 发表于 11-22 17:41 5946次阅读

    【KV260视觉入门套件试用体验】八、VITis AI自动驾驶多任务执行MultiTask V3

    是一种模型,旨在同时执行自动驾驶场景中的不同任务,同时实现优异的性能和效率。这些任务包括对象检测、分割、车道检测、可行驶区域分割和深度估算,这些都是自动驾驶感知模块的重要组成部分。
    发表于 09-26 16:43

    CVPR上的新顶流:BEV自动驾驶感知新范式

    BEV自动驾驶感知好比一个从高处统观全局的“上帝视角”,将三维环境信息投影到二维平面,以俯视视角展示环境中的物体和地形。在路径规划、障碍物检测、自动驾驶决策等方面,BEV
    的头像 发表于 08-23 14:51 734次阅读
    CVPR上的新顶流:BEV<b class='flag-5'>自动驾驶</b><b class='flag-5'>感知</b>新范式

    自动驾驶中激光雷达和视觉感知的区别

    纯视觉自动驾驶方案从产品分析,目前特斯拉的产品还处于L2的阶段,从今年第一季度的财报上看纯视觉自动驾驶方案是这样解释:目前道路交通系统是基于人类视觉感知神经网络,8个
    发表于 08-08 12:49 1013次阅读
    <b class='flag-5'>自动驾驶</b>中激光雷达和视觉<b class='flag-5'>感知</b>的区别

    浅析自动驾驶视觉感知算法

    环境感知自动驾驶的第一环,是车辆和环境交互的纽带。一个自动驾驶系统整体表现的好坏,很大程度上都取决于感知
    发表于 07-25 10:36 386次阅读
    浅析<b class='flag-5'>自动驾驶</b>视觉<b class='flag-5'>感知</b>算法

    使用合成数据实现自动驾驶摄像感知系统聚焦远场物体

    探测远场物体(比如 100 米以外的车辆等)是自动驾驶系统在高速公路上安全运行的基础。
    发表于 06-08 15:39 172次阅读
    使用<b class='flag-5'>合成数据实现</b><b class='flag-5'>自动驾驶</b><b class='flag-5'>摄像</b><b class='flag-5'>感知</b><b class='flag-5'>系统</b><b class='flag-5'>聚焦</b>远场<b class='flag-5'>物体</b>

    自动驾驶中的线控系统综述

    自动驾驶感知识别、决策规划、控制执行三个核心系统中,和传统汽车零部件行业贴合最近的就是控制执行端,说的再明确一 些就是驱动控制、转向控制、制动控制等。自动驾驶的路径规划等
    发表于 06-07 14:12 0次下载
    <b class='flag-5'>自动驾驶</b>中的线控<b class='flag-5'>系统</b>综述

    自动驾驶关键环节——感知、决策、控制

    环境感知通过毫米波雷达、摄像机等传感器实现,车辆自身状态感知通过导航系统、惯导系统
    发表于 06-02 16:04 0次下载
    <b class='flag-5'>自动驾驶</b>关键环节——<b class='flag-5'>感知</b>、决策、控制

    毫米波雷达可实现智能驾驶感知系统立体化

    自动驾驶体系中,毫米波雷达是系统感知层不可或缺的重要硬件,能让智能驾驶感知系统立体化。因为汽车
    的头像 发表于 06-01 16:56 902次阅读
    毫米波雷达可<b class='flag-5'>实现</b>智能<b class='flag-5'>驾驶</b><b class='flag-5'>感知</b><b class='flag-5'>系统</b>立体化

    探讨自动驾驶系统感知系统

    车辆自身信息与周围环境信息,经过处理器对采集到的数据信息进行分析计算和处理,从而做出决策控制执行系统实现车辆加减速和转向等动作。SAE将自动驾驶分为L0-L5共6个等级,L0为没有加入
    的头像 发表于 05-17 11:10 924次阅读
    探讨<b class='flag-5'>自动驾驶</b><b class='flag-5'>系统</b><b class='flag-5'>感知</b><b class='flag-5'>系统</b>

    自动驾驶感知系统常用方案

    的决策系统,可以代替驾驶员的手脚动作,执行驾驶指令、控制车辆状态。其中,感知系统应包括物体识别,
    的头像 发表于 05-17 11:07 1353次阅读
    <b class='flag-5'>自动驾驶</b><b class='flag-5'>感知</b><b class='flag-5'>系统</b>常用方案