0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于Transformer的越野场景可通行区域检测模型OFF-Net

3D视觉工坊 来源:泡泡机器人 作者:泡泡机器人 2022-10-31 17:25 次阅读

可通行区域检测对于自动驾驶车辆的环境感知和路径规划至关重要。过去十年基于学习的可通行区域检测算法取得了很大的成功,但是基本上都是关注城市场景的可通行区域检测。相比于规则的城市场景道路,越野场景道路复杂多变,可通行区域检测更加困难,另外目前缺少开源的越野场景可通行检测数据集和算法基准。因此,本文开源第一个覆盖多种越野场景的可通行区域检测数据集,ORFD。ORFD采集了包括草原、林地、农田和乡村道路等不同场景道路,覆盖晴天、雨天、雾天和雪天等不同无人车行驶天气状况,包含强光、日光、微光和黑暗等光照条件。ORFD一共有12198帧激光雷达点云和图像对数据,在图像视角进行了标注,包含三种类别:可通行区域、不可通行区域和不可到达区域(如天空)。我们同时还提出了一个基于Transformer的越野场景可通行区域检测模型OFF-Net,利用交叉注意力机制自适应融合点云和图像的多模态信息。数据集和基准代码下载链接:https://github.com/chaytonmin/Off-Road-Freespace-Detection。

主要工作与贡献

我们开源了第一个越野场景可通行区域检测数据集ORFD,包括草原、林地、农田和乡村道路等不同场景道路,覆盖晴天、雨天、雾天和雪天等不同无人车行驶天气状况,包含强光、日光、微光和黑暗等光照条件。

我们提出了一个越野场景可通行区域检测基准算法OFF-Net,采用Transformer结构聚合全局信息,设计cross-attention自适应挖掘点云和图像的多模态信息。

我们的越野场景可通行区域检测数据集ORFD和算法基准OFF-Net,有助于提高无人车在越野场景的自主行使能力。

算法流程

城市场景道路和越野场景道路对比

图1 (a) 城市场景道路有清晰的道路边界 (b)越野场景可通行区域难以准确定义。

数据采集装置

图2 越野场景可通行区域检测数据集ORFD采集装置:Pandora 40线的激光雷达,相机和激光雷达一体。联合标注激光雷达和相机。

越野场景可通行区域检测数据集ORFD

图3 越野场景可通行区域检测数据集ORFD,包括草原、林地、农田和乡村道路等不同场景道路,覆盖晴天、雨天、雾天和雪天等不同无人车行驶天气状况,包含强光、日光、微光和黑暗等光照条件。采集了30段道路数据,一共有12198帧激光雷达点云和图像对数据。在图像视角进行了标注,包含三种类别:可通行区域、不可通行区域和不可到达区域(如天空)。

数据集划分

越野场景可通行区域检测基准算法OFF-Net

图4 提出的越野场景可通行区域检测基准算法OFF-Net。首先将激光雷达点云投到相机视角得到深度图,然后计算得到法向量图,再利用Transformer网络融合法向量图和图像,得到道路分割结果。

实验结果

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据集
    +关注

    关注

    4

    文章

    1179

    浏览量

    24394
  • 自动驾驶
    +关注

    关注

    773

    文章

    13111

    浏览量

    163495

原文标题:ORFD: 第一个开源的越野环境可通行区域检测数据集和基准

文章出处:【微信号:3D视觉工坊,微信公众号:3D视觉工坊】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【大语言模型:原理与工程实践】大语言模型的基础技术

    全面剖析大语言模型的核心技术与基础知识。首先,概述自然语言的基本表示,这是理解大语言模型技术的前提。接着,详细介绍自然语言处理预训练的经典结构Transformer,以及其工作原理,为构建大语言
    发表于 05-05 12:17

    【大语言模型:原理与工程实践】探索《大语言模型原理与工程实践》

    《大语言模型》是一本深入探讨人工智能领域中语言模型的著作。作者通过对语言模型的基本概念、基础技术、应用场景分析,为读者揭开了这一领域的神秘面纱。本书不仅深入讨论了语言
    发表于 04-30 15:35

    基于Transformer模型的压缩方法

    基于Transformer架构的大型模型在人工智能领域中发挥着日益重要的作用,特别是在自然语言处理(NLP)和计算机视觉(CV)领域。
    的头像 发表于 02-22 16:27 291次阅读
    基于<b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>的压缩方法

    一文详解Transformer神经网络模型

    Transformer模型在强化学习领域的应用主要是应用于策略学习和值函数近似。强化学习是指让机器在与环境互动的过程中,通过试错来学习最优的行为策略。
    发表于 02-20 09:55 2936次阅读
    一文详解<b class='flag-5'>Transformer</b>神经网络<b class='flag-5'>模型</b>

    大语言模型背后的Transformer,与CNN和RNN有何不同

      电子发烧友网报道(文/李弯弯)近年来,随着大语言模型的不断出圈,Transformer这一概念也走进了大众视野。Transformer是一种非常流行的深度学习模型,最早于2017年
    的头像 发表于 12-25 08:36 1684次阅读
    大语言<b class='flag-5'>模型</b>背后的<b class='flag-5'>Transformer</b>,与CNN和RNN有何不同

    基于transformer和自监督学习的路面异常检测方法分享

    铺设异常检测可以帮助减少数据存储、传输、标记和处理的压力。本论文描述了一种基于Transformer和自监督学习的新方法,有助于定位异常区域
    的头像 发表于 12-06 14:57 836次阅读
    基于<b class='flag-5'>transformer</b>和自监督学习的路面异常<b class='flag-5'>检测</b>方法分享

    关于深度学习模型Transformer模型的具体实现方案

    Transformer 本质上是一个 Encoder-Decoder 架构。因此中间部分的 Transformer 可以分为两个部分:编码组件和解码组件。
    发表于 11-17 10:34 331次阅读
    关于深度学习<b class='flag-5'>模型</b><b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>的具体实现方案

    基于Transformer的目标检测算法

    掌握基于Transformer的目标检测算法的思路和创新点,一些Transformer论文涉及的新概念比较多,话术没有那么通俗易懂,读完论文仍然不理解算法的细节部分。
    发表于 08-16 10:51 444次阅读
    基于<b class='flag-5'>Transformer</b>的目标<b class='flag-5'>检测</b>算法

    模型Transformer工作原理

    模型
    恬静简朴1
    发布于 :2023年07月18日 17:14:58

    transformer模型详解:Transformer 模型的压缩方法

     动机&背景 Transformer 模型在各种自然语言任务中取得了显著的成果,但内存和计算资源的瓶颈阻碍了其实用化部署。低秩近似和结构化剪枝是缓解这一瓶颈的主流方法。然而,作者通过分析发现,结构化
    的头像 发表于 07-17 10:50 1406次阅读
    <b class='flag-5'>transformer</b><b class='flag-5'>模型</b>详解:<b class='flag-5'>Transformer</b> <b class='flag-5'>模型</b>的压缩方法

    如何计算transformer模型的参数量

    基于transformer模型的,模型结构主要有两大类:encoder-decoder(代表模型是T5)和decoder-only,具体的,decoder-only结
    的头像 发表于 07-10 09:13 7839次阅读
    如何计算<b class='flag-5'>transformer</b><b class='flag-5'>模型</b>的参数量

    基于 Transformer 的分割与检测方法

    一篇关于  Transformer-Based 的 Segmentation 的综述,系统地回顾了近些年来基于 Transformer  的分割与检测模型,调研的最新
    的头像 发表于 07-05 10:18 571次阅读
    基于 <b class='flag-5'>Transformer</b> 的分割与<b class='flag-5'>检测</b>方法

    2D Transformer 可以帮助3D表示学习吗?

    预训练的2D图像或语言Transformer:作为基础Transformer模型,具有丰富的特征表示能力。作者选择了先进的2D Transformer
    的头像 发表于 07-03 10:59 463次阅读
    2D <b class='flag-5'>Transformer</b> 可以帮助3D表示学习吗?

    基于Transformer的大型语言模型(LLM)的内部机制

    本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型(LLM)在使用和部署方面的不断增加,打开黑箱并了解它们的内部
    的头像 发表于 06-25 15:08 1066次阅读
    基于<b class='flag-5'>Transformer</b>的大型语言<b class='flag-5'>模型</b>(LLM)的内部机制

    Transformer结构及其应用详解

    本文首先详细介绍Transformer的基本结构,然后再通过GPT、BERT、MT-DNN以及GPT-2等基于Transformer的知名应用工作的介绍并附上GitHub链接,看看Transformer是如何在各个著名的
    的头像 发表于 06-08 09:56 1478次阅读
    <b class='flag-5'>Transformer</b>结构及其应用详解