0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种无人车夜间三维目标检测方法

新机器视觉 来源:应用光学 作者:王宇岚 2022-04-13 08:35 次阅读

来源:《应用光学》,作者王宇岚等

摘 要:为了提高无人车在夜间情况下对周围环境的物体识别能力,提出一种基于多视角通道融合网络的无人车夜间三维目标检测方法。引入多传感器融合的思想,在红外图像的基础上加入激光雷达点云进行目标检测。通过对激光雷达点云进行编码变换成鸟瞰图形式和前视图形式,与红外图像组成多视角通道,各通道信息之间融合互补,从而提高夜间无人车对周围物体的识别能力。该网络将红外图像与激光雷达点云作为网络的输入,网络通过特征提取层、候选区域层和通道融合层准确地回归检测出目标的位置以及所属的类别。实验结果表明,该方法能够提高无人车在夜间的物体识别能力,在实验室的测试数据中准确率达到90%,速度0.43 s/帧,达到了实际应用要求。

引言

夜间无人车在道路上行驶需要感知周围环境的车辆、行人[1-2]等,基于红外摄像头的感知方案[3-5]虽然能够感知车辆前方的障碍物,但是无法准确获取障碍物的位置信息且准确率有限。激光雷达是一种主动传感器,通过发射与接收激光光束获取环境中物体的信息[6-7]。近几年陆续有研究人员利用深度学习在激光雷达点云上进行目标检测,斯坦福大学的Point Net[8]直接将激光点云作为输入,并解决了旋转问题和无序性问题。2017年苹果公司Voxel Net[9]将激光雷达分成等间距的体素,并引入新的体素特征编码表示,在KITTI[10]上取得很好的成绩。清华大学提出了MV3D[11],将彩色图像与激光雷达点云融合进行三维目标检测,该算法在KITTI 上也表现出色。

上述前人的研究工作基本都是在白天条件下的彩色图像上进行,而在夜间,无人车往往需要依赖红外图像,但红外图像的成像原理是通过红外摄像头探测物体自身的红外辐射,再通过光电变换将物体的温度分布变换成图像。红外图像具有无色彩、简纹理、低信噪比等特点。因此在红外图像上进行目标检测效果较差。考虑到各个传感器在不同方面均有利弊,本文利用多传感器融合的思想,提出了利用多视角通道融合网络的基于红外图像与激光雷达点云的夜间无人车三维目标检测方法。实验结果证明,该方法的准确率高且能基本满足实时性的要求。

1 多视角通道融合网络

本文所采用的多视角通道融合网络由特征提取模块、候选区域生成模块和通道融合模块组成,整体结构图如图1所示。

特征提取模块由特征编码网络和特征解码网络2 部分组成,结构如图2所示。

一种无人车夜间三维目标检测方法

图1 多视角通道融合网络结构图

Fig.1 Structure diagram of multi-view channel fusion network

一种无人车夜间三维目标检测方法

图2 特征提取模块结构图

Fig.2 Structure diagram of feature extraction module

特征编码网络采用的是改进后的VGG(visual geometry group)16 网络[12],将原VGG16 网络的通道数减少一半至50%,然后在网络中加入批标准化层,并在Conv4 删除最大池化层。特征编码网络将M×N×C的红外图像、鸟瞰图或前视图作为输入,并输出

一种无人车夜间三维目标检测方法

的特征图。式中,M表示图像的长,N表示图像的宽,C表示通道数。对于红外图像,C为1。特征解码网络采用特征金字塔网络[13]的形式,学习将特征映射上采样回原始的输入大小。特征解码网络将特征编码网络的输出作为输入,输出新的 M×N×D的特征图,如图2所示,通过转换-转置操作对输入进行上采样处理,并和来自特征编码网络的对应特征映射进行级联操作,最后通过3×3 卷积来融合二者。

输入一幅鸟瞰图,候选区域生成模块会生成一系列的三维候选区域。每个三维候选区域有六维的参数:(x,y,z,l,w,h),分别表示三维候选区域在激光雷达坐标系中的中心坐标和长宽高尺寸。对于每个三维候选区域,对应在鸟瞰图中的参数(xbv,ybv,lbv,wbv)利 用离散的 (x,y,l,w)变换可以得到,表示三维候选区域在鸟瞰图中的坐标和长宽,其中 离散分辨率为0.1 m。

通道融合模块结合各个视角的特征,对各视角上的目标进行联合分类,并针对三维候选区域进行定向回归。由于不同的视角有不同的分辨率,对于每个视角通道所输出的不同分辨率的特征向量,通过ROI(region of interest)池化操作将每个视角通道所输出的特征向量调整到相同的长度。通过下式得到3 个视角不同的ROI。

一种无人车夜间三维目标检测方法

式中:T3D→v表示从激光雷达点云坐标系到鸟瞰图形式、前视图形式,和红外图像的转换函数;P3D表示三维候选区域参数向量。对于区域候选网络所生成的三维候选区域,将其投影到经过ROI池化操作的鸟瞰图形式(BV)特征向量、前视图(FV)特征向量和红外图像(IR)特征向量中。对于从某个视角特征提取通道中输出的特征向量 x,通过ROI池化获得固定长度的特征 fv。

一种无人车夜间三维目标检测方法

式中:R表示相应的矩阵变换。为了融合来自各个视角通道的特征信息,采用多层次融合的方法,分层融合多视角特征,使得各通道的信息可以在中间层有更多的交互。如图3所示。

一种无人车夜间三维目标检测方法

图3 通道融合网络结构图

Fig.3 Structure diagram of channel fusion network

对于通道融合网络的每一层,输入为鸟瞰图形式、前视图形式以及红外图像3 个通道的特征,经过一次逐元素平均计算后,再经过各自的中间卷积层进一步提取特征。具体的融合过程如下式所示。

一种无人车夜间三维目标检测方法

式中:fl表示第 l层的融合结果;fBV、fFV和 fIR分别表示鸟瞰图通道、前视图通道以及红外图像通道的输入特征;

一种无人车夜间三维目标检测方法

表示第l层不同通道的中间卷积层;⊕表示逐元素平均运算;经过通道融合网络融合各个视角通道的特征之后,利用融合结果对候选区域模块生成的三维候选区域进行回归校正,并将融合结果输入Softmax 分类器对三维候选区域内的物体进行分类识别。

2 实验内容

2.1 实验配置与数据预处理

本文算法中的网络基于Tensor Flow[14]框架,实验硬件配置为处理器Intel i5-6600,内存16 GB,显卡NVIDIA GTX 1070;操作系统Ubuntu14.04。实验的所有数据由载有红外摄像头和激光雷达的车辆在南京理工大学夜晚的校园道路上拍摄所得,有车辆、行人和骑自行车的人3 种类别。其中训练集为1 500 张红外图像及其对应的由激光雷达点云数据,验证集为500 张红外图像及其对应的由激光雷达点云数据,测试集为600 张红外图像及其对应的由激光雷达数据。

对于激光雷达点云数据,其中每一个点由其三维坐标 (x,y,z)和 反射率 r组成,本文将其转化为鸟瞰图与前视图的形式。鸟瞰图形式指的是沿水平坐标系(地面)将激光雷达点云分割成700×800 的网格,再沿Z轴方向把激光雷达点云平均分成5 层。对于每一个区域,提取其中最大高度的点的高度作为高度特征;该长方体区域内点的数目作为密度特征;对于密度特征ρ,作归一化处理。

一种无人车夜间三维目标检测方法

式中N是长方体区域内点的数目。最后将激光雷达点云转换成通道数为700×800×6 的鸟瞰图形式。前视图形式指的是将激光雷达点云投射到一个前方的圆柱体平面上。给定激光雷达点云中的一个点的三维坐标 p=(x,y,z),其在前视图中的坐标 pfv=(r,c)可以通过下式计算得出。

一种无人车夜间三维目标检测方法

式中:Δθ是 激光的水平分辨率;Δϕ是垂直分辨率。

2.2 实验结果及分析

把红外图像与激光点云数据输入到多视角通道融合网络中,网络给出检测结果。由于红外摄像头与激光雷达的采集频率不一致,本文根据激光雷达帧号匹配红外图像,设定阈值为10 帧,寻找与雷达帧号小于阈值且最接近的图像作为对应图像,如图4所示。

一种无人车夜间三维目标检测方法

图4 输入的红外图像与对应的激光雷达点云

Fig.4 Input infrared image and lidar point cloud

使用传统的AdaBoost[15]算法、和二维的目标检测算法Fast RCNN[16]算法、Faster RCNN[17]算法以及三维的目标检测算法Voxel Net[10]在测试集中进行测试,并与本文算法进行结果对比,结果见表1。

从表1的结果中可得,本文算法在牺牲部分时间的情况下提高了夜间目标检测的正确率。为了更直观地显示本文算法结果,将目标检测的结果显示在激光雷达点云的鸟瞰图形式上和红外图像上,其中绿色矩形框表示行人,红色矩形框表示车辆。如图5所示。

表1 不同算法在测试集上的结果对比

Table1 Comparison of results for different algorithms on test sets

一种无人车夜间三维目标检测方法

一种无人车夜间三维目标检测方法

图5 目标检测可视化结果

Fig.5 Visualized result of detection

由图5可以看出,对于图5(a 组),本文算法可以很好地定位行人的位置;对于图5(b 组),虽然红外图像分辨率较低,连人眼也不容易分辨图片中的车辆,但加入激光雷达点云信息后对于该车的定位准确;对于图5(c 组),本文算法定位结果与人工标注信息一致。

3 结论

本文采用多传感器融合的思想,在原有红外图像的基础上加入激光雷达点云,并使用多视角通道融合网络对这2 种数据进行特征融合,准确地检测出目标的位置以及类别。实验结果表明,该方法能够提高无人车在夜间的物体识别能力,在实验室的测试数据中准确率达到90%,每帧耗时0.43 s,达到实际应用要求。

原文标题:基于多视角融合的夜间无人车三维目标检测

文章出处:【微信公众号:机器视觉智能检测】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 检测
    +关注

    关注

    5

    文章

    4085

    浏览量

    90746
  • 三维
    +关注

    关注

    1

    文章

    466

    浏览量

    28767
  • 无人车
    +关注

    关注

    1

    文章

    294

    浏览量

    36279

原文标题:基于多视角融合的夜间无人车三维目标检测

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    如何快速高效的完成汽车前盖板的三维检测

    如何快速高效的完成汽车前盖板的三维检测?行业背景汽车的前盖板在生产出来后往往因为焊接和零件的误差难以装配,检测便成了生产和安装两个环节之间的重要步骤。缩短检测时间提高
    发表于 08-11 14:16

    三维检测汽车零件 帮助汽车性能达标

    三维检测汽车零件 帮助汽车性能达标行业现状汽车零件在流水线生产出来后,距离汽车整车还有大步——装配。零件的装配不是简单的把两块积木搭在起。无论是把零件组合成部件,或是把部件组合成整
    发表于 08-21 10:48

    整车三维扫描及其零部件三维扫描解决方案

    `整车三维扫描及其零部件三维扫描解决方案中科院广州电子在汽车整车三维扫描和汽车零部件三维扫描方面具有多年的服务经验,拥有核心的技术团队,辐射范围包括华南、华东、华北等地区的几百家大型及
    发表于 08-21 10:17

    广西扫描服务三维检测三维扫描仪

    HandyPRO,便携式专业级Academia三维扫描仪。搭载完全集成的三维软件平台VXelements,将所有基本因素和工具都融入到个简便且流畅的工作环境中。并带有扫描至CAD软件模块、尺寸
    发表于 08-29 14:42

    汽车模具曲面三维扫描检测方案

    `汽车模具曲面三维扫描检测方案汽车产业是世界上规模最大、最具竞争力的产业之,其生产力水平反映了地区的综合实力与竞争力,同时也与每个人的生活息息相关。作为汽车工业的重要基础,汽车零部件工业是汽车工业
    发表于 09-04 10:52

    BIM与GIS结合—无人机倾斜摄影三维建模方法

    BIM与GIS结合—无人机倾斜摄影三维建模方法详解
    发表于 06-19 11:17

    Handyscan汽车三维扫描服务尺寸检测的应用

    `Handyscan汽车三维扫描服务尺寸检测的应用 汽车发动机连杆是将活塞和曲轴连接起来,作为汽车发动机关键传动机构的部分,将作用于活塞顶部的膨胀气体压力传给曲轴,使活塞的往复直线运动可逆地转
    发表于 08-04 16:07

    三维可视化的应用和优势

    ,为此三维可视化运维系统登场了。  三维可视化的应用  宏观场景可视化:在特定的环境中对随着时间推移而不断变化的目标实体进行检测,可以直观、灵活、逼真的展示所处区域的情景和环境,可以快
    发表于 12-02 11:52

    如何去开发一种基于LabVIEW的三维显示系统?

    如何去开发一种基于LabVIEW的三维显示系统?
    发表于 06-01 06:50

    求大佬分享一种基于毫米波雷达和机器视觉的前方车辆检测方法

    为研究夜间追尾事故中本智能防撞预警方法,本文提出了一种基于毫米波雷达和机器视觉的前方车辆检测方法
    发表于 06-10 10:23

    怎样去设计一种基于RGB-D相机的三维重建无序抓取系统?

    为什么要开发一种三维重建无序抓取系统?三维重建无序抓取系统是由哪些部分组成的?三维重建无序抓取系统有哪些关键技术和创新点?
    发表于 07-02 06:29

    一种基于图像平移的目标检测框架

    1、摘要近年来,在深度卷积神经网络(CNNs)的帮助下,图像和视频监控在智能交通系统(ITS)中取得了长足的进展。作为一种先进的感知方法,智能交通系统对视频监控中每帧感兴趣的目标进行
    发表于 08-31 07:43

    无人三维建模的信息

    项目需要调研无人三维建模的信息无人三维建模核心技术是三维重建,或者说基于图片的建模(Im
    发表于 09-16 06:55

    如何去实现一种基于STM32的三维旋转显示平台设计呢

    如何去实现一种基于STM32的三维旋转显示平台设计呢?怎样去设计一种基于STM32F4的四轴航拍飞行器呢?
    发表于 11-11 07:54

    基于多视角融合的夜间无人三维目标检测

    基于多视角融合的夜间无人三维目标检测 来源:《应用光学》,作者王宇岚等 摘 要:为了提高无人
    发表于 01-23 15:15 639次阅读