0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于3D视觉系统的自动驾驶导航

YB7m_Apollo_Dev 来源:未知 作者:胡薇 2018-08-17 09:25 次阅读

自动驾驶需要许多技术,但强大的3D感知是车辆与周围环境互动的先决条件。目前,最标准的方法是基于Lidar来检测和识别物体,发现可行驶道路和相关任务。相比于Lidar,基于视觉信息(如图像或视频)的3D感知对降低成本也至关重要。

2018计算机视觉欧洲大会(European Conference on Computer Vision,简称ECCV)主办的这一挑战要求参赛者基于3D视觉系统来完成自动驾驶相关的一些相关任务,ApolloScape作为Apollo开源平台的一部分,将为本次大会的计算机视觉社区提供一个大规模和高质量的真实场景数据集。本次大会将于9月8日-14日在德国慕尼黑举办,该会议与CVPR、ICCV共称为计算机视觉领域三大顶级学术会议。

ApolloScape是百度在2017年创立的的Apollo自动驾驶开源平台的一部分。为了刻画高细粒度的静态3D世界,我们使用移动激光雷达扫描仪器从Reigl收集点云。这种方法产生的三维点云要比Velodyne产生点云更精确更稠密。在采集车车顶上安装有标定好的高分辨率相机以每一米一帧的速率同步记录采集车周围的场景。而且,整个系统配有高精度GPS和IMU,相机的实时位姿都可以被同步记录。我们的采集图像来自于中国的不同城市,比如北京、上海和深圳等。

ApolloScape拥有来自现实世界的高质量的静态场景的3D标注与动态物体的2D标注。目前,已经产出了14.7万张标注,覆盖了来自三个城市的三个站点周围10KM的地域。而且,每个区域都在不同的天气和光照条件下进行了重复扫描。最终,ApolloSacpe将会发展成为一个不断更新进化的数据集,来自新的城市的数据标注也会陆续的加入其中。ApolloSacpe计划产出至少20万张图片用于举行不同的挑战赛,其中将会覆盖来自三个城市的5个站点的20KM的道路。在下文中,我们将会针对不同的挑战任务进行详细的介绍。

关于挑战赛

对于所有的挑战,除了测试精准度外(精准度会用来给算法排名次),我们也要求参与者具体说明他们所使用的算法的速度和执行细节。我们会鼓励实时运行的算法,例如30 fps,也会将他们突出标注在排行榜上,因为速度是实际应用的关键属性。

挑战赛内容:基于视觉的细粒度车道标记分割

具有车道标记的高精地图通常用作自动驾驶车辆的后端导航。目前,大多数高精地图的生产主要由手工标记构建。在此挑战中,我们要求参与者设计实现基于RGB图像的道路基本元素的自动检测算法。这些分割结果直接用于高精地图的生产或更新环节。这项任务的挑战之处在于不清晰的车道标注和拥挤复杂的交通环境。

整个数据集的Ground truth是在三维点云上标注完成的。然后通过投影得到2D图像的Ground truth。 此外, 移动障碍物的遮挡问题我们也通过2D图像上的手动标注来完成了。参与者还可以利用相应的视频、相机内参和位置来帮助分割任务。我们在图一中举例说明了3D车道标记,在图二中列出了2D的Ground truth。详细的评估标准请参考我们的ECCV挑战赛网站(http://apolloscape.auto/ECCV/index.html)。

2.实时自定位

基于视觉的自定位,即通过图像或视频估计相机的6自由度位姿。与使用LIDAR相比, 具有成本低的优势,但同时也具有更高的挑战。在我们的数据集上我们测试了最新的自定位算法如VidLoc[2],然而我们发现离工业应用仍然有很大的差距(定位精度必须小于15cm)。此外,自我定位算法的实时性对于自动驾驶也至关重要。

在这次挑战中,我们提供了大量的带有精度相机位姿的训练视频。同时我们的测试视频也来自于同一个场景,但是在不同的时间、不同的天气以及交通状况下采集的。我们的指标与DeLS-3D[3]和PoseNet[4]相同。在图3中,我们突出标记了地面实况摄像头姿势。我们已经将所有的Ground truth与ApolloScape发布的数据结合起来。详细的评估标准请参考我们的ECCV挑战赛网站(http://apolloscape.auto/ECCV/index.html)。

3.3D汽车实例了解

对于自动驾驶车辆来说,检测其他车辆、行人、乘客等是非常重要的。系统必须了解每个图像帧中每个物体的3D关系,尤其是自动驾驶车辆周围或附近的物体。在该挑战中,参赛者需要检测,重建和估计图像中所有车辆的3D形状。图4中显示了两帧标注图像的样例。

我们将基于平均精度(AP)来评估车辆的3D边框果,3D形状和姿势。这与2D实例检测和分割类似。详细的评估标准请参考我们的ECCV挑战赛网站(http://apolloscape.auto/ECCV/index.html)。

关于ApolloScape

目前ApolloScape已开放了14.7万帧的像素级语义标注图像,向全球的自动驾驶技术研究人员提供更为实用的数据资源。通过高精度的采集、标注,创造了全球最大的三维自动驾驶数据集Scene Parsing(场景解析)。

此外,ApolloScape计划为数据集拓展更多类型、更多属性的数据:通过添加红外图像,帮助自动驾驶算法更容易进行夜间检测;提取更稠密的轨迹信息,用于对驾驶行为进行建模;以及通过众包模式采集立体视觉的驾驶特殊事件图像。开发者也可以参照我们在CVPR上发表的有关自动驾驶数据集的论文,以便于更好的使用ApolloScape数据集。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 自动驾驶
    +关注

    关注

    773

    文章

    13028

    浏览量

    163202
  • Apollo
    +关注

    关注

    5

    文章

    326

    浏览量

    18292

原文标题:ECCV 2018挑战赛 | ApolloScape:基于视觉的自动驾驶导航

文章出处:【微信号:Apollo_Developers,微信公众号:Apollo开发者社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Cognex发布了In-Sight® L38 3D视觉系统,为3D检测设立新标准

    人工智能(AI)驱动的3D视觉系统自动化制造提供快速部署和可靠的检测功能。
    的头像 发表于 04-15 09:04 125次阅读

    未来已来,多传感器融合感知是自动驾驶破局的关键

    的架构,预计未来许多智能驾驶团队都会引入“占用网络”来提升系统能力。多维像素的应用前景非常广阔。昱感微的融合感知技术+BEV +Transformer+占用网格有望成为L3/L4级自动驾驶
    发表于 04-11 10:26

    如何搞定自动驾驶3D目标检测!

    可用于自动驾驶场景下基于图像的3D目标检测的数据集总结。其中一些数据集包括多个任务,这里只报告了3D检测基准(例如KITTI 3D发布了超过40K的图像,其中约15K用于
    发表于 01-05 10:43 149次阅读
    如何搞定<b class='flag-5'>自动驾驶</b><b class='flag-5'>3D</b>目标检测!

    LabVIEW开发自动驾驶的双目测距系统

    LabVIEW开发自动驾驶的双目测距系统 随着车辆驾驶技术的不断发展,自动驾驶技术正日益成为现实。从L2级别的辅助驾驶技术到L
    发表于 12-19 18:02

    自动驾驶高精组合导航设备导远570D拆解

    这期带来自动驾驶高精组合导航设备拆解,本次拆解分析的产品是导远570D。
    的头像 发表于 11-01 15:38 1196次阅读
    <b class='flag-5'>自动驾驶</b>高精组合<b class='flag-5'>导航</b>设备导远570D拆解

    农机自动驾驶显示系统组成部分以及配置

    、卫星导航以及其他基站定位系统等。 基于目前市场上对自动驾驶系统的需求,墨翟科技研发了一款10.1英寸一体化的车载电脑,专为农业精耕、工程机械应用而设计的升级产品。该产品经过实际的农业
    发表于 10-17 17:52

    【KV260视觉入门套件试用体验】八、VITis AI自动驾驶多任务执行MultiTask V3

    d58cbda2-97976be7__640x360.avi MultiTask V3 旨在同时执行自动驾驶场景中的不同任务,同时实现优异的性能和效率。这些任务包括对象检测、分 割、车道检测、可行驶区域分割和深度估算,这些
    发表于 09-26 16:43

    自动驾驶中激光雷达和视觉感知的区别

    视觉自动驾驶方案从产品分析,目前特斯拉的产品还处于L2的阶段,从今年第一季度的财报上看纯视觉自动驾驶方案是这样解释:目前道路交通系统是基于
    发表于 08-08 12:49 1010次阅读
    <b class='flag-5'>自动驾驶</b>中激光雷达和<b class='flag-5'>视觉</b>感知的区别

    视觉系统自动驾驶至关重要|数据堂

    (V2X)和全球定位系统(GPS)等。自动驾驶汽车的最终目标是提供一辆无需人为干预的,可以在所有道路类型、所有环境(城市、乡村)和所有天气条件中行驶的全自动汽车——但实现这一目标还需要一些时间。在此之前,先进
    的头像 发表于 06-26 17:23 223次阅读

    机器视觉自动驾驶应用有什么

    视觉是人类认知世界最重要的功能手段,生物学研究表明,人类获取外界信息75%依靠视觉系统,而在驾驶环境中这一比例甚至高达90%。
    的头像 发表于 06-20 17:26 382次阅读

    自动驾驶3D点云语义分割数据标注

    自动驾驶环境感知系统中,如何获取高精度实时路况数据,是决定自动驾驶系统行车安全的关键。 目前主流的两种感知技术路径“纯视觉”与“高精地图
    发表于 06-06 09:48 3次下载
    <b class='flag-5'>自动驾驶</b><b class='flag-5'>3D</b>点云语义分割数据标注

    Matlab自动驾驶工具箱使用简介

    一、自动驾驶工具箱 三个依次是 驾驶场景和传感器模块库 车辆控制模块库 3D仿真模块库 二、自动驾驶模块 自动驾驶模块位于模型预测控制工具箱
    发表于 06-02 14:19 0次下载
    Matlab<b class='flag-5'>自动驾驶</b>工具箱使用简介

    自动驾驶导航定位介绍

    自动驾驶中,一般用到的导航定位技术包括,惯性导航以及GPS定位导航,惯性导航一般用到IMU,此外为了进一步确保定位 的可信度,还会采集轮速
    发表于 06-01 16:14 0次下载
    <b class='flag-5'>自动驾驶</b>之<b class='flag-5'>导航</b>定位介绍

    资深自动驾驶3D视觉专家徐一梁归国加入禾多科技

    的创新研发,为自动驾驶方案高效量产落地提供有力支持。 徐一梁拥有南洋理工大学及德克萨斯农工大学双博士学位,曾任职于苹果、亚马逊、腾讯(美国)、Kiware等多家知名科技公司研发部门,拥有十余年视觉定位、3D
    的头像 发表于 05-30 11:31 822次阅读

    ADAS辅助驾驶——NOA自动辅助导航驾驶

    功能的本质意思是把“导航”和“辅助驾驶”结合。在原来L2辅助驾驶的基础上(如车道线保持、自动跟车),加上车机的导航信息(如地图软件)进行
    的头像 发表于 05-05 11:27 1.3w次阅读
    ADAS辅助<b class='flag-5'>驾驶</b>——NOA<b class='flag-5'>自动</b>辅助<b class='flag-5'>导航</b><b class='flag-5'>驾驶</b>