0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

APA自动泊车的车位检测算法的分析与研究

新机器视觉 来源:机器学习AI算法工程 作者:机器学习AI算法工 2022-11-23 11:30 次阅读

一、背景介绍

自动泊车大体可分为4个等级:

第1级,APA 自动泊车:驾驶员在车内,随时准备制动,分为雷达感知和雷达+视觉感知两种方式。

第2级,RPA 远程泊车:驾驶员在车外,通过手机APP的方式控制泊车。

第3级,HPA 记忆泊车:泊车之前先通过 SLAM对场景建模,记忆常用的路线。泊车时,从固定的起点出发,车辆自行泊入记忆的停车位。

第4级,AVP 自主泊车:泊车之前先通过 SLAM对场景建模,记忆常用的路线。泊车的起点不再固定,可以在停车场的任意位置开始,需要室内定位技术做支撑。

本文分享第1级相关的车位检测算法

1.1 自动泊车

463c3b3a-6a45-11ed-8abf-dac502259ad0.png

图2 自动泊车

自动泊车,在21世纪20年代的今天,是智能出行、辅助驾驶的强有力的一环。自动泊车就鲁棒性和安全性而言,需要分为视觉和测距同时发生作用。其中视觉当然是用深度学习,而测距一般采用雷达。视觉在寻找车位阶段作为主力,而倒车入库时,测距(雷达)发生作用。

1.2 车位检测

车位检测的场景一般在车库、户外,而自动泊车这一应用在都市商场车库和都市户外车位实用性比较高,这样可节省时间方便出行。车位检测需要汽车进入到有车位的区域后,汽车慢速行驶的过程中,开始检测。

464c908e-6a45-11ed-8abf-dac502259ad0.png

图3 检测可以停车的车位

1.3 鱼眼相机

车身周围一般有4路鱼眼相机:前、后、左、右共四个。用来拍摄车周围的画面。如下图所示为车右边的鱼眼相机拍摄的画面。鱼眼相机拍摄的图一般不用来做车位检测,但可以用来后续做障碍物检测。

1.4 AVM

4幅鱼眼相机拍摄的画面会经过Around View Monitor(AVM)处理,生成一个拼接后的鸟瞰图,车位检测就是在AVM处理后的照片上进行的。4幅畸变的图,先要去畸变再做融合,这里是一块相当有意思的部分,甚至我觉得上限远高于车位检测,车位检测的质量也由上游的AVM决定,可谓自动泊车中得AVM者得天下。另外,有效的做法可以采取在4幅拍摄的画面去畸变后,单独采用4幅独立的图送入车位检测网络中进行处理,而不是一张整个大图。如下的鸟瞰图的宽长是经过我们实际工程处理中,采取的宽高像素比例,大小需要根据硬件条件和实际够用范围进行调整。

1.5 工程化

车位检测算法搭出来以后,工程化的道路才刚刚开始,好戏还在后面,需要团队配合了。本文就不涉及这一范畴了。

二、车位检测算法的相关工作

车位检测算法,从21世纪开始说起,那一定是由传统的视觉过渡到深度视觉。

2.1 传统视觉的车位检测

传统视觉的介绍,这里用一些示意图来展示:

图7 车位检测传统视觉方法示例1,2000年,Vision-Guided Automatic Parking for Smart Car

46976ab4-6a45-11ed-8abf-dac502259ad0.jpg

图7 车位检测传统视觉方法示例2,2006年,Parking Slot Markings Recognition for Automatic Parking Assist System

en.. 如上两图所示,利用一些算子和图像处理的手段,先提特征,再后处理。接下来,再介绍一个比较复杂,但是比较典型的方法(2012年的):Fully-automatic recognition of various parking slot markings in Around View Monitor (AVM) image sequences 利用AVM图,它是先检测车位角点,再后处理配对,一些过滤和纠正操作,最终从图中抓出车位。图如下:

46a7319c-6a45-11ed-8abf-dac502259ad0.jpg

图8 车位类型对应的不同角点类型

46b73376-6a45-11ed-8abf-dac502259ad0.jpg

图9 角点类型。多吧,不多,还有更多的... 这是模板匹配的难以穷尽之处

46cc3442-6a45-11ed-8abf-dac502259ad0.jpg

图10 后处理

接下来介绍一个DBSCAN的方法(2016年),DBSCAN是什么,以下来自维基百科:英文全写为Density-based spatial clustering of applications with noise,是在 1996 年由Martin Ester, Hans-Peter Kriegel, Jörg Sander 及 Xiaowei Xu 提出的聚类分析算法, 这个算法是以密度为本的:给定某空间里的一个点集合,这算法能把附近的点分成一组(有很多相邻点的点),并标记出位于低密度区域的局外点(最接近它的点也十分远),DBSCAN 是其中一个最常用的聚类分析算法,也是其中一个科学文章中最常引用的。在 2014 年,这个算法在领头数据挖掘会议 KDD 上获颁发了 Test of Time award,该奖项是颁发给一些于理论及实际层面均获得持续性的关注的算法。

一看到这个解释就头大,看看图吧,非深度方法的处理确实很费神。这个方法,采取了线段检测,可利用的特征更多了,感觉好像也更复杂了。

46dd94da-6a45-11ed-8abf-dac502259ad0.jpg

图11 DBSCAN的处理,2016年,Directional-DBSCAN Parking-slot Detection using a Clustering Method

46ed738c-6a45-11ed-8abf-dac502259ad0.jpg

图12 线段检测出来后的结果,2016年,Directional-DBSCAN Parking-slot Detection using a Clustering Method

看到上图的线段检测结果,各位观众大佬爷想来一波后处理吗(滑稽...):) 反正我是不会 。

传统视觉的车位检测介绍就到这儿,方法还有很多,其实不必太关心。

46fe153e-6a45-11ed-8abf-dac502259ad0.png

图13 传统视觉的车位检测

但是可供深度学习借鉴的有:(1)角点检测;(2)线段检测;(3)后处理过滤、平滑、配对;(4)帧与帧直接的预测,即通过推算当前帧得出下一帧的车位位置;(5)在AVM成像的鸟瞰图上进行处理,降低难度;(6)车位类型的分类;(7)车位角点和线段的分类;(8)穷举。

2.2 深度时代的车位检测

我们可以在传统视觉处理的基础上,直接替换传统视觉算子,用深度学习的网络提特征,来一波传统向深度过渡的过程。犹如 RCNN(提特征+SVM分类) -> Fast RCNN(端到端+ROI) -> Faster RCNN (RPN+性能强劲+快);这样的流程一点一点,拿掉传统的处理,一点一点进行深度学习模块的设计和整合;然后再由两阶段到单阶段的过渡(YOLO -> SSD -> RetinaNet -> yolo serials)。最后用完全体的深度学习网络,确定车位检测的最终解决方案。

47232dec-6a45-11ed-8abf-dac502259ad0.png

通用车位检测算法效果1

来个效果视频吧,前面的介绍看着都看累了,看看我们做的,这个是一版还很粗糙的实测测试,无任何后处理(可以无NMS),网络直出。整个网络41FLOPS,0.28M参数,(python版本量化前): backbone14MFLOPs,head26MFLOPs。这里采用的单路鱼眼相机去畸变图,并把输入处理到384和128分辨率。单阶段。视频中有闪,AVM图的处理受限于各种状况,工程难度高。后续解决的,这里就不放了。我们主要介绍车位检测这一通用的方法。然后运算量和参数量怎么设计就怎么设计。

473db69e-6a45-11ed-8abf-dac502259ad0.png

图14 运算量

先介绍以往的工作。我们分三种大类来概述(1)目标检测;(2)语义分割;它们的结合;(3)Transformer查询;

目标检测的处理,一般是通过检测车位角点、车位整个bounding box和检测线段(一般不会这样做)。

检测车位角点的paper比较多,取3个方法来图示说明。

475cbe36-6a45-11ed-8abf-dac502259ad0.jpg

图15 PS2.0数据集出处的方法,2018年,Vision-based parking-slot detection: A DCNN-based approach and a large-scale benchmark dataset

476f1c8e-6a45-11ed-8abf-dac502259ad0.jpg

图16 更多的角点分类,PSDet,2020年,Psdet: Efficient and universal parking slot detection

478038fc-6a45-11ed-8abf-dac502259ad0.png

图17 角点配对示意,DMPS-PR,2019年

DMPR-PS: A Novel Approach for Parking-Slot Detection Using Directional Marking-Point Regressionhttps://ieeexplore.ieee.org/abstract/document/8784735

角点检测一般会带上分类信息和角度信息,传统的模板匹配到深度学习的分类,进化可见一斑。

用检测框的方法居多,因为,这样是直接利用目标检测的bounding_box框来框停车位,简直不要太好用。

47b4331e-6a45-11ed-8abf-dac502259ad0.jpg

图18 PIL_park数据集出处,bounding_box检测示意

Context-Based Parking Slot Detection With a Realistic Datasethttps://ieeexplore.ieee.org/abstract/document/9199853

上图是回归一个bounding_box框的做法,带有角度信息,这个框的处理是可以是四边形的,不一定非得矩形,可以有不同的夹角(小于90度),有点意思,不过需要做些限制处理,轻微的后处理。

回归框的做法很典型,只取上述图一篇Context-Based Parking Slot Detection With a Realistic Dataset,细微差异的方法确实会有很多,不一一介绍了。

47c34f2a-6a45-11ed-8abf-dac502259ad0.jpg

图19 方法截图示意

47d4b7ce-6a45-11ed-8abf-dac502259ad0.jpg

图20 https://github.com/lymhust/awesome-parking-slot-detection

看哇,很多。21年的没整理成案,就不贴了。

接下来贴一下,语义分割方法的示意图:

47f1d3d6-6a45-11ed-8abf-dac502259ad0.jpg

图21 VH-HFCN,2018年

VH-HFCN based Parking Slot and Lane Markings Segmentation on Panoramic Surround Viewhttps://ieeexplore.ieee.org/abstract/document/8500553

语义分割,采用这种方法的童鞋可能纠结于后处理吧。

48092928-6a45-11ed-8abf-dac502259ad0.jpg

图22 效果似乎还是有更好的出来。2018年Semantic segmentation-based parking space detection with standalone around view monitoring system

48175dea-6a45-11ed-8abf-dac502259ad0.jpg

图23 global信息

482df2ee-6a45-11ed-8abf-dac502259ad0.jpg

图24 接上图23,local信息

图23和图24是2021年的一篇文章:

End-to-End Trainable One-Stage Parking Slot Detection Integrating Global and Local Informationhttps://ieeexplore.ieee.org/abstract/document/9316907/

如果端到端单阶段的算法,需要以这种看起来复杂的后处理为代价,还是挺佩服作者的。

4843722c-6a45-11ed-8abf-dac502259ad0.jpg

图25 它的效果还是可以的。

这里介绍个2021年的别出心裁的方法:

485f30ac-6a45-11ed-8abf-dac502259ad0.jpg

图26 2021年,Attentional Graph Neural Network for Parking Slot Detection

Transformer来一波:

2021年,Order-independent Matching with Shape Similarity for Parking Slot Detection

用Transformer(DETR)来做,实在没必要。

48713b6c-6a45-11ed-8abf-dac502259ad0.jpg

图27 没必要1

图28 没必要2

效果也没见到好到哪里去,难度车位图也没贴。此条路,工程化不容易的。

三、我们的方法

花了大量篇幅介绍前人的工作,无外乎是为了引出我们的工作。

先贴下图吧:

4890aace-6a45-11ed-8abf-dac502259ad0.jpg

图29 效果图1

48a5ab9a-6a45-11ed-8abf-dac502259ad0.jpg

图30 效果图2

再来个视频:

48b8a92a-6a45-11ed-8abf-dac502259ad0.png

车位检测推理

我们的方法,我们把它命名为通用停车位检测,简称为GPSD。

在正式介绍之前,先解释为什么要做这一件事。

3.1 为什么还要重复造轮子?

可能是因为前人的方法不够好,可能是自己复现不了,可能是吃数据集,可能是不够简单粗暴稳准狠,也可能是泛化性能不强,总之,有各种各样的原因。

理性的说:车位数据集越来越复杂的情况下,一旦沾有分类和利用车位标线(就是车位最常见的白色的线),这就注定了算法吃数据集。一家车企要hold住每年上百万的销量如果还带有优质的自动泊车,那么它的自动泊车算法(或工程)得有多鲁棒啊,但一般来说,只给正确结果,要出错难度车位它不检就是:)。AVM的成像质量也影响着车位检测算法的准确度上限,但AVM成像受制于鱼眼相机的拍摄,畸变矫正的插值本就是难为了AVM了,是系统误差!试想,在商场车库中(比较常见吧)这个场景,鱼眼相机远处拍到了一堆,给你来一堆立体停车位,整个一块钢板,还上下层,灯光有偏暗,地面还反光,去畸变插值拼接后,这个要去抽取角点特征?要去抽取车位标线?可能用bounding_box加数据train来得痛快吧。

感性的说:实际中的情况是,车位会受各种现实情况的影响。如磨损,各种花哨的样式,遮挡(AVM成像本身就有临近车身畸变遮挡车位),甚至没有标线。反正就是非理想的车位,非理想的停车环境。这时,做好这些车位检测,或者说是工程应对,才能使车使自动泊车开得更远,应用场景更广。

理性感性也分不清了。在自己拿到采集的数据集时,要去做检测,发现不是调个YOLO系列就能搞定的事。网上公开的数据集可用同济的ps2.0,首尔的PIL_park,这两个数据集可以用来练兵,再去应对现实场景。

实际上,就嫌之前的方法看起来麻烦,还不容易在短时间内上手,在做工程的时候,当然是又快又好,抄作业难以抄到好的情况下,考虑造一个好用又泛化的算法。这就是通用停车位检测算法GPSD的由来。

3.2 怎么来定义一个停车位?

要放一些图

其实原理也很简单,但想泛化,需要考虑的还是有一些。

汽车长这样,占地区域是方方正正。就一个矩形。

车位只要能放得下一辆汽车即可,线段是直的。

鸟瞰图里,一个停车位人眼看起来是放不下一个车位的,哈哈

这是AVM成像带来的,不可避免的,畸变。但是深度学习就强大在这个地方,我们人眼认为他是一个车位,不要被图像而蒙蔽,深度学习从图片中学习特征,这里还要再深层次一点,从图像中去学习高级的人为推断的抽象特征,而这种特征不是显性的不是显式的不是正确的,甚至是错误图像带来的错误信息,需要让深度学习去学到,这个时候,目标检测、语义分割、角点检测、线段检测分割,种种,从CV里拿来就用的拿来主义,似乎受到了一点挑战。如果只是就图检图的化,畸变的车位,和车库里畸变的柱子,就已经可以横跨好几个车位把车位遮挡完了,我们必须警醒:从实际物理的角度而不是成像的像素分布去看待一个车位。

我们这样来看一个车位:

4a2d40fe-6a45-11ed-8abf-dac502259ad0.jpg

图38 它实际上就是两个车位

让深度学习去理解,我们要学习这样一个车位。汽车什么的遮挡无关紧要,深度学习真的可以办到。

再抽像点:

4a46b84a-6a45-11ed-8abf-dac502259ad0.png

停车位的概念,来源于车。先有车,再有停车位。如此简单。车位一定必定是抽象出来四四方方像车一样,是方的,最多的变化占地是平行四边形而已:

4a582a8a-6a45-11ed-8abf-dac502259ad0.jpg

图41 平行四边形车位,非矩形

3.2 车位几何抽象

还是以图示来进行说明。

4a6a8d38-6a45-11ed-8abf-dac502259ad0.png

车位可以如上图的简单几何表示。如果只是这么简单就好了。实际上,车位是挨个连排的,车位周围干扰线也比较多。而车位分布,总结为如下三种情况

4a7e3a7c-6a45-11ed-8abf-dac502259ad0.png

如上图,车位1,2为连续的车位分布;车位3,4为间隔的车位分布;车位5,6为错开的车位分布。矩形可换成平行四边形表示。车位1,2这种情况最常见。车位3,4这种也常见,比如车库中有柱子,车位需要隔开。

空车位好做检测,而车位上有汽车的时候,画面大部分是畸变的汽车,给车位检测带来了一定的难度。

这时候,用anchor_based的方法bounding_box总觉得很怪,另外,车位在AVM中,成像不一定是完整的,比如:

4a8d1f6a-6a45-11ed-8abf-dac502259ad0.jpg

图45 车位的各种姿势

如上图,人为的对图像中的车位进行各种处理,为什么要这样做呢?因为车在行驶过程中,各种转向,和离车位开得近开得远,AVM成像出来的画面都是不一样的。这时,车位抽象出来不一定就是实际的方的了,完整的方形,被AVM成像给截断了。这时采用锚点框做bounding_box检测,又遇到点麻烦。

4aa82602-6a45-11ed-8abf-dac502259ad0.png

不采用bounding_box或许是最好的选择。

此时,需要对车位的几何抽象做数学上的表征,使它代表一个车位,并且不受AVM成像和汽车行驶所影响,且完美避开汽车畸变带来的影响。见如下:

我尽量用白话文说清楚。

老规矩,先上图:

4abe9374-6a45-11ed-8abf-dac502259ad0.png

如图47所示:

定义1:把AB定义为车位的进入线,此进入线需确定方向和长度。

定义2:把AD定义为车位的分隔线,此分隔线有两种定义方式,(1)确定的长度和方向;(2)只定义方向。

定义3:对AD做平行线BC,线的起始端点为A,BC不做处理,通过AB和AD计算即可。

定义4:长度和方向这样确定,以AB为例进行说明:delta_x=x_A-x_B,delta_y=y_A-y_B;delta_x和delta_y需要做归一化处理,即除以W和H。先知道A点的坐标后,此时长度和方向均已确定。

定义5:只确定方向时,需要预测AD的线的cos和sin值,通过反算arctan,得到角度。先知道A点的坐标后,方向即可确定。

定义6:对AVM图,需要把它处理成右摄像头视角,即左边的成像需要旋转到对其右边视角,进行统一处理。

4ad02d8c-6a45-11ed-8abf-dac502259ad0.jpg

图49 公式

3.2 车位几何抽象

4ade1596-6a45-11ed-8abf-dac502259ad0.png

车位抽象出来后,我们只需预测车位的几何表征信息,而无需纠结于车位具体是哪种类型,角点具体用哪种模板,复杂抽象的几何表征,恰恰是对复杂的现实环境的一种数学表示。

4af212d0-6a45-11ed-8abf-dac502259ad0.jpg

图52 看看立体停车位的几何表征,红色线是做的的蓝色线的平行线。

4b022bca-6a45-11ed-8abf-dac502259ad0.png

图53中的红色曲线箭头,代表车位的几何方向,进入线是AB,分隔线是AD,车位角点是A,红色方向为分隔线->车位角点->进入线。AD->A->AB

3.3 数据集的制作

4b1014d8-6a45-11ed-8abf-dac502259ad0.jpg

图54 整张AVM的切图处理

4b291bea-6a45-11ed-8abf-dac502259ad0.jpg

图55 鱼眼相机4路输入

4b3c431e-6a45-11ed-8abf-dac502259ad0.png

图54是整张AVM图(4路图像去畸变和拼接后)做的处理,图56是单路鱼眼相机图像做的处理。

在制作数据集时,可以在AVM图上进行标注,也可以在单路图像上进行标注。

整张AVM图标注时,遵循图53的右子图标注原则:即在AVM整图的右边,找到车位,对车位角点A打标;再标注进入线AB,AB应尽可能准确;标注AD时,可任意选择AD的长度,因为AD的预测有两种方法,再上篇的图49公式里,是计算方式。此时整个车位就是逆时针顺序。相对而言,AVM图左边的标注也是按照逆时针原则,但要注意标注进入线和分隔线。

4b60144c-6a45-11ed-8abf-dac502259ad0.png

单路图像标注时,把左边相机拍摄的左子图全部旋转到右子图,进行统一标注。

另外,还可以给车位上是否占用,即是否可用打上标签

标注的图像通过裁剪和放缩,处理到W=128,H=384,W/H=1/3,送入网络。这个比例和大小自己定,这里职位为了除以下采样32的倍数,选128的倍数更方便。

4bb98e3c-6a45-11ed-8abf-dac502259ad0.jpg

图58 这些车位标注起来也有点难度

公开数据中,我们采用了ps2.0和PIL_park,并进行数据集的改造。以符合我们的几何抽象定义。另外还自行采取和制作了商场停车场的数据集(就不贴上来了)。

ps2.0:Vision-based parking-slot detection: A DCNN-based approach and a large-scale benchmark dataset

PIL_park:Context-based parking slot detection with a realistic dataset

3.4 车位预测

在feature map上,一个feature_map像素,回归一个车位。输入的分辨率是128*384,吐出的特征图分辨率是4*12,输入的通道是3(RGB)或者1(Gray灰度图),输出的通道根据需要而定,我们采用的8个输出通道,具体为:confidence置信度,车位角点A_x/A_y,进入线delta_x/delta_y,分隔线delta_x/delta_y或者分隔线cos/sin,是否占用标志isOccupied(或者是否可用标志available)。

这里的车位角点,并不是真正意义上的图像中一定存在的车位角点,进入线和分隔线也不是真正意义上图像中存在的线、实线、虚线、各种线,我们回归的是一种抽象的数学几何表示。

4bccc5e2-6a45-11ed-8abf-dac502259ad0.jpg

图59 画图可视化1

4bea60b6-6a45-11ed-8abf-dac502259ad0.jpg

图60 画图可视化2

是不是有点像CenterNet?或者YOLO系列,YOLO1/2/3/X,Anchor Free,但是这里最大的区别在于,没有利用图像中的具体像素,利用实例的形状和位置来确定实例,这里就解释不通,因为汽车有畸变,它挡住了车位,并不是真正的实际成像,我们回归可以说是一个二维平面(地面)的车位,而3维空间中的汽车被AVM压到了二维成像中,像素分布并不可靠了,学习图像具体的像素不可行,必须让网络学习抽象的几何表征。有点难以解释,让整个车位的信息,压缩到车位角点,即便车位角点实际并不存在,或者车位角点难以区分,如图58所示。车位角点只是一个承载的载体,也可换到图像中任何其他位置,如进入线AB中点,(没试过),设计的时候考虑到了这一点。

3.5 网络架构

这个就很随意了,backbone和detection head,任选,只是输出特征图的大小要特别注意,拿feature_map的分辨率4x12来说,一张128x384的图最多给48个车位预测,实际上没有这么多,只是为了适应车位在图中的分布,需要4x12去适应车位出现在图中的不同位置。我们选择了单阶段的网络设计,直出,就用单分辨率特征图,发现已经把公开数据集ps2.0和PIL_park的AP快刷满了。

3.6 公开数据集上的测试结果

4c04ef4e-6a45-11ed-8abf-dac502259ad0.jpg

图61 在ps2.0和PIL_park测试集上的结果

ps2.0数据集是同济在2018年发布的,在车位检测极具影响力,但比较简单。PIL_park发布得更晚,文章引用少,但难度足够。

4c167cc8-6a45-11ed-8abf-dac502259ad0.jpg

图62 ps2.0数据集图片举例

4c2bb610-6a45-11ed-8abf-dac502259ad0.jpg

图63 PIL数据集图片举例

再贴下效果图:

4c42c81e-6a45-11ed-8abf-dac502259ad0.jpg

图64 左列是标签,中间是原图,右列是预测

3.7 设计实验

为了模仿实际泊车的AVM成像,比较关键的增强手段就是旋转ratote,然后就是平移shift。

上篇有说,就是汽车在行驶过程中,前行、转向和靠近车位的距离。

输入采用RGB和灰度图均可,灰度图只是为了实际工程应用,但RGB的AP更高。

实验参照一些影响广泛的检测网络设计即可,不是本篇讨论的范围。

但是在设计loss的时候,因为confidence、角点坐标、进入线、分隔线、是否占用,它们的loss量级有差,于是乎,做了对比实验,发现需要给上述的每个单项加系数,使网络更关注角点坐标和进入线,而对是否占用的影响降低。采用了L2-norm。

不采用任何增强手段的粗糙网络在PIL_park的test上也能达到超过90的mAP。方法很重要。

四、总结

还行吧,工程的路还很长,解决算法只是迈出了第一步,坚实的第一步!

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 雷达
    +关注

    关注

    48

    文章

    2677

    浏览量

    115539
  • 检测算法
    +关注

    关注

    0

    文章

    117

    浏览量

    25148

原文标题:自动泊车之停车位检测算法

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    极氪007公测启动,量产机械车位自动泊车业内首创

    极氪007固体系统6.1版带来了五项先进的智能泊车功能,包括车位识别、复杂停车位泊入、泊车效率提升以及无划线区泊车等多个棘手问题都得到了解决
    的头像 发表于 03-27 14:32 113次阅读

    特斯拉全新自动泊车功能上线,可平行泊车

     据Not a Tesla App报道,此次2024年2月11日的软件更新新增内容包括自动泊车以及平行泊车等功能。在行车时,车辆屏幕将标示出可用车位,并以红色P标记做特殊提示;同时,驾
    的头像 发表于 03-22 11:16 188次阅读

    自动泊车和遥控泊车的区别

    随着科技的快速发展,汽车行业也在不断的创新与进步。自动驾驶技术是其中的一个重要方向,而自动泊车和遥控泊车作为自动驾驶的子技术之一,受到了广大
    的头像 发表于 01-31 13:43 570次阅读

    为什么要优化可泊空间预测算法泊车Freespace检测方法如何优化?

    基于视觉的环视可用空间检测自动停车辅助(APA)的基本任务之一。
    的头像 发表于 11-29 10:38 386次阅读
    为什么要优化可泊空间预<b class='flag-5'>测算法</b>?<b class='flag-5'>泊车</b>Freespace<b class='flag-5'>检测</b>方法如何优化?

    一种可靠的峰值和起始点检测算法

    电子发烧友网站提供《一种可靠的峰值和起始点检测算法.pdf》资料免费下载
    发表于 11-22 10:27 0次下载
    一种可靠的峰值和起始点<b class='flag-5'>检测算法</b>

    基于C8051F310的高灵敏车辆检测算法

    电子发烧友网站提供《基于C8051F310的高灵敏车辆检测算法.pdf》资料免费下载
    发表于 10-18 11:00 0次下载
    基于C8051F310的高灵敏车辆<b class='flag-5'>检测算法</b>

    基于Delaunay三角剖分的空间离群点检测算法研究

    电子发烧友网站提供《基于Delaunay三角剖分的空间离群点检测算法研究.pdf》资料免费下载
    发表于 10-07 11:15 0次下载

    智慧矿山ai算法系列解析 堵料检测算法功能优势

    智慧矿山AI算法系列中的堵料检测算法的功能优势,了解其重要性和带来的价值
    的头像 发表于 09-28 18:48 360次阅读
    智慧矿山ai<b class='flag-5'>算法</b>系列解析 堵料<b class='flag-5'>检测算法</b>功能优势

    如何设计时序图—以APA自动泊车系统为例

    时序图是阐明软件设计的利器,也是系统架构的必备武器。今天我们以APA自动泊车系统为例来聊聊如何设计符合绘制原则又通俗易懂的时序图。
    的头像 发表于 09-14 11:20 752次阅读
    如何设计时序图—以<b class='flag-5'>APA</b><b class='flag-5'>自动</b><b class='flag-5'>泊车</b>系统为例

    基于Transformer的目标检测算法

    掌握基于Transformer的目标检测算法的思路和创新点,一些Transformer论文涉及的新概念比较多,话术没有那么通俗易懂,读完论文仍然不理解算法的细节部分。
    发表于 08-16 10:51 432次阅读
    基于Transformer的目标<b class='flag-5'>检测算法</b>

    无Anchor的目标检测算法边框回归策略

    导读 本文主要讲述:1.无Anchor的目标检测算法:YOLOv1,CenterNet,CornerNet的边框回归策略;2.有Anchor的目标检测算法:SSD,YOLOv2,Faster
    的头像 发表于 07-17 11:17 611次阅读
    无Anchor的目标<b class='flag-5'>检测算法</b>边框回归策略

    自动泊车技术的鱼眼相机车位线检测方案

    基于直线的方法通过找到两条分割线与入口线检测车位,在一些使用传统图像处理算法检测车位线的系统中进行出现,使用Sobel,Canny等算子进
    发表于 06-06 11:10 589次阅读
    <b class='flag-5'>自动</b><b class='flag-5'>泊车</b>技术的鱼眼相机<b class='flag-5'>车位</b>线<b class='flag-5'>检测</b>方案

    快速入门自动驾驶中目标检测算法

    现在目标检测算法总结 1. 目标检测算法在机动车和行人检测识别上应用较多,在非机动车上应用较少 2. 对于目标检测模型增强特征表示和引入上下文信息的改进方法几乎对任何场景和任何任务
    发表于 06-06 09:40 0次下载
    快速入门<b class='flag-5'>自动</b>驾驶中目标<b class='flag-5'>检测算法</b>

    DRIVE Labs“常学常新”系列「终点站」:寻找车位自动泊车

    DRIVE Labs 系列文章 终点站: 寻找车位自动泊车 始 发 站 | 自 动 驾 驶 基 础 功 能 第 二 站 | 基 本 路 况 感 知 第 三 站 | 读 懂 交 通 标 志 与 信 号 灯 第 四 站 | 监 控
    的头像 发表于 05-11 20:16 236次阅读
    DRIVE Labs“常学常新”系列「终点站」:寻找<b class='flag-5'>车位</b>与<b class='flag-5'>自动</b><b class='flag-5'>泊车</b>

    基于自动泊车自动驾驶控制算法设计与研究

    介绍了自动泊车系统的硬件架构,在此基础上,对自动泊车控制算法进行了设计与研究,包括
    的头像 发表于 05-04 11:02 932次阅读
    基于<b class='flag-5'>自动</b><b class='flag-5'>泊车</b>的<b class='flag-5'>自动</b>驾驶控制<b class='flag-5'>算法</b>设计与<b class='flag-5'>研究</b>