0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

多传感器融合如何将收集来的大量数据集中在一起

传感器技术 来源:清研车联 作者:清研车联 2021-03-10 14:10 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

传感器融合面临的主要挑战是如何将收集来的大量数据集中在一起,并做出正确决策。

1

多传感器融合

多传感器信息融合(Multi-sensor Information Fusion,MSIF),就是利用计算机技术将来自多传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程。 多传感器信息融合技术的基本原理就像人的大脑综合处理信息的过程一样,将各种传感器进行多层次、多空间的信息互补和优化组合处理,最终产生对观测环 境的一致性解释。 在这个过程中要充分地利用多源数据进行合理支配与使用,而信息融合的最终目标则是基于各传感器获得的分离观测信息,通过对信息多级别、多方面组合导出更多有用信息。 这不仅是利用了多个传感器相互协同操作的优势,而且也综合处理了其它信息源的数据来提高整个传感器系统的智能化。

2

融合体系

在信息融合处理过程中,根据对原始数据处理方法的不同,信息融合系统的体系结构主要有三种:集中式、分布式和混合式。 1、集中式:集中式将各传感器获得的原始数据直接送至中央处理器进行融合处理,可以实现实时融合,其数据处理的精度高,算法灵活,缺点是对处理器要求高,可靠性较低,数据量大,故难于实现。 2、分布式:每个传感器对获得的原始数据先进行局部处理,包括对原始数据的预处理、分类及提取特征信息,并通过各自的决策准则分别作出决策,然后将结果送入融合中心进行融合以获得最终的决策。分布式对通信带宽需求低、计算速度快、可靠性和延续性好,但跟踪精度没有集中式高。 3、混合式:大多情况是把上述二者进行不同的组合,形成一种混合式结构。它保留了上述两类系统的优点,但在通信和计算上要付出较昂贵的代价。但是,此类系统也有上述两类系统难以比拟的优势,在实际场合往往采用此类结构。

3

多传感器融合特点

多传感器融合 系统具有四个显著的特点: 1.信息的冗余性:对于环境的某个特征,可以通过多个传感器(或者单个传感器的多个不同时刻)得到它的多份信息,这些信息是冗余的,并且具有不同的可靠性,通过融合处理,可以从中提取出更加准确和可靠的信息。 此外,信息的冗余性可以提高系统的稳定性,从而能够避免因单个传感器失效而对整个系统所造成的影响。 2.信息的互补性:不同种类的传感器可以为系统提供不同性质的信息,这些信息所描述的对象是不同的环境特征,它们彼此之间具有互补性。 如果定义一个由所有特征构成的坐标空间,那么每个传感器所提供的信息只属于整个空间的一个子空间,和其他传感器形成的空间相互独立。 3.信息处理的及时性:各传感器的处理过程相互独立,整个处理过程可以采用并行导热处理机制,从而使系统具有更快的处理速度,提供更加及时的处理结果。 4.信息处理的低成本性:多个传感器可以花费更少的代价来得到相当于单传感器所能得到的信息量。另一方面,如果不将单个传感器所提供的信息用来实现其他功能,单个传感器的成本和多传感器的成本之和是相当的。

4

自动驾驶中的应用

自动驾驶车上使用了多种多样的传感器,不同类型的传感器间在功用上互相补充,提高自动驾驶系统的安全系数。自动驾驶要求传感器融合具备一个必须的性质——实时性。 MSDF面临的主要挑战是如何将收集来的大量数据集中在一起,并做出正确决策。如果MSDF出错,意味着下游阶段要么没有必要的信息,要是使用了错误的信息做出了错误的决策。 可以看到,自动驾驶汽车会通过安装在车身周围的摄像头收集视觉数据,也会通过雷达(激光雷达、毫米波雷达等)来收集诸如周围物体运动速度的数据,但是这些数据是从不同角度来描述现实世界的同一样或不同样的物体。 使用越多的传感器,对计算能力的要求就越高,这意味着自动驾驶汽车必须搭载更多的计算机处理器和内存,这也会增加汽车的重量,需要更多的功率,还会产生更多的热量。诸如此类的缺点还有很多。 智能汽车的显著特点在于智能,意思就是说汽车自己能通过车载传感系统感知道路环境,自动规划行车路线并控制车辆到达预定目标。 目前而言,车载感知模块包括视觉感知模块、毫米波雷达、超声波雷达、360°环视系统等,多源传感器的协同作用识别道路车道线、行人车辆等障碍物,为安全驾驶保驾护航。因此,感知信息也需要融合,感知信息也需要相互补充。

5

多传感器融合的四个关键方法

Harmonize

假设有两种不同的传感器,称它们为传感器X和传感器Z。它们都能够感知自动驾驶汽车的外部世界。 在现实世界中存在一个物体,这个物体可能是人,也可能是车,甚至是一条狗,传感器X和传感器Z都能够检测到这个物体。 这就意味着传感器对这个物体进行了双重检测,这种双重检测意味着两种不同类型的传感器都有关于该物体的数据报告,对于该物体有两个维度不同地认知。 假设,传感器X表示该物体高6英尺,宽2英尺;传感器Z表示该物体以每秒3英尺的速度正朝着自动驾驶车辆方向移动。 结合两个传感器采集到的数据,就可以得出一条相对准确的信息:有一个高约6英尺,宽2英尺的物体正在以每秒钟3英尺的速度移动。 假设这两自动驾驶汽车上只安装了X传感器,那么就无法得知该物体的大小;若Z传感器坏了,那么就只有物体的大小信息,无法检测该物体的运动状态。这也就是最近业内广泛讨论的“在自动驾驶汽车上应该安装哪些传感器”的问题。 此前,特斯拉埃隆•马斯克(Elon Musk)旗帜鲜明地声称,特斯拉不会安装激光雷达。 尽管马斯克自己也认为,L5自动驾驶不会通过激光雷达来实现这个想法最终可能被验证为错误的,这依旧没有改变马斯克的决定。 一些反对的声音称,不配备激光雷达的特斯拉,无法通过其他的传感器获取如同激光雷达效果相同的感官输入,也无法提供补偿和三角测量。 但是另一些支持者认为,激光雷达不值得花费如此高昂的费用成本,不值得为其增大计算能力,也不值得为其增加认知时间。

Reconcile

在同一个视场(Field of View,FOV)内,假设传感器X探测到一个物体,而传感器Z没有探测到。注意,这与物体完全在传感器Z的FOV之外的情况有很大的不。 一方面,系统会认为传感器X是正确的,Z是错误的,可能是因为Z有故障,或者有模糊探测,或者是其他的一些什么原因。另一个方面,也许传感器X是错误的,X可能是报告了一个“幽灵”(实际上并不存在的东西),而传感器Z报告那里没有东西是正确的。

Integrate

假设我们有两个物体a和b,分别在传感器X和传感器Z的视场FOV内(a在X视场内,b在Z视场内)。也就是说,Z无法直接检测到a,X也无法直接检测到b。 目前,想要实现的效果是,能否将X和Z的报告整合在一起,让它们在各自的视场内探测物体同时,判断是否为X视场中的物体正在向Z视场移动,预先提醒Z将有物体进入探测区域。

Synthesize

第四种方法Synthesize是将感知数据融合在一起,你可能会遇到这样的情况,传感器X和传感器Z都没有在各自的视场内探测到物体。 在这种情况下,没有传感器知道这个物体的存在,但是可以通过一些其他的感观数据,比如声音,间接地弄清楚在视场之外的物体情况。自动驾驶汽车是时刻运动的,所以要求这种预判是瞬间发生的,像上文提到的一样,是实时的。 多传感器信息融合技术应用至今,有着非常多的应用方法,在所有方法当中较为成熟的方法包括了聚类分析法、证据理论法、DS 算法、最优理论法等。

责任编辑:lq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2577

    文章

    55507

    浏览量

    793964
  • 数据集
    +关注

    关注

    4

    文章

    1240

    浏览量

    26261
  • 自动驾驶
    +关注

    关注

    794

    文章

    14989

    浏览量

    181544

原文标题:自动驾驶中的多传感器融合

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    自动驾驶传感器融合,到底提前融合了什么?

    [首发于智驾最前沿微信公众号]自动驾驶里的传感器融合,本质是把不同来源的信息拼在一起,让系统对环境的理解更完整。摄像头提供颜色和语义,激光雷达提供三维结构,毫米波雷达提供距离和速度,
    的头像 发表于 04-16 09:16 590次阅读
    自动驾驶<b class='flag-5'>多</b><b class='flag-5'>传感器</b>前<b class='flag-5'>融合</b>,到底提前<b class='flag-5'>融合</b>了什么?

    如何使用 Python I2C LCD 与 VIsionFive 一起使用?

    以使用新的 VisionFive.gpio 库。 让我们连接 LCD 监控事物 By Hamzah。 如何使用 Python I2C LCD 与 VIsionFive 一起使用:I2c LCD 是当今非常
    发表于 03-30 06:52

    如何将 VisionFive 2 与业余无线电一起使用?

    VisionFive 2 与业余无线电一起使用
    发表于 03-25 07:01

    阿里狗16.6,层叠表能打开,但是打开后内容缩在一起,调整间距之后,关闭在打开还是缩在一起,怎么处理呢

    阿里狗16.6,层叠表能打开,但是打开后内容缩在一起,调整间距之后,关闭在打开还是缩在一起,怎么处理呢 试过初始化窗口,重新破解,还有重新加载补丁,都不行
    发表于 02-13 11:01

    从单一传感器技术融合 蓝鹏打造工业测量站式解决方案

    1X1X0.5mm(长X宽X深)缺陷。 从单一传感器的精准应用,到技术融合的系统级方案,蓝鹏以品类传感器技术储备为根基,以自研高精度测量
    发表于 12-08 14:57

    ‌ILPS22QS压力传感器评估套件技术解析与应用指南

    压力传感器与Qvar静电传感器和滑动电极安装在一起,因此与STEVALMKI109V3兼容。此外,ILPS22QS完全焊接在电路板中心。
    的头像 发表于 10-30 11:27 697次阅读
    ‌ILPS22QS压力<b class='flag-5'>传感器</b>评估套件技术解析与应用指南

    动态追踪+传感器融合:矿山皮带智能监测的突破之道 #人工智能 #AI

    传感器
    jf_60804796
    发布于 :2025年09月02日 10:38:41

    N9H20如何将 SPI 闪存与非作系统 BSP 一起使用?

    N9H20如何将 SPI 闪存与非作系统 BSP 一起使用?
    发表于 09-01 08:27

    N9H20如何将非作系统 NVTFAT 与 SPI 闪存一起使用?

    N9H20如何将非作系统 NVTFAT 与 SPI 闪存一起使用?
    发表于 09-01 06:38

    汽车传感器融合技术的发展与挑战

    来源:本文编译自semiengineering作者:ANNMUTSCHLER在汽车设计领域,传感器融合正变得日益流行且复杂。它将多种类型的传感器集成到单个芯片或封装中,并智能地
    的头像 发表于 08-29 11:56 2091次阅读
    汽车<b class='flag-5'>传感器</b><b class='flag-5'>融合</b>技术的发展与挑战

    基于传感器融合的切割深度动态补偿与晶圆 TTV 协同控制

    影响,单一传感器获取的信息存在局限性,难以实现切割深度的精确动态补偿与 TTV 的有效控制 。传感器融合技术通过整合源信息,为实现切割深
    的头像 发表于 07-21 09:46 826次阅读
    基于<b class='flag-5'>多</b><b class='flag-5'>传感器</b><b class='flag-5'>融合</b>的切割深度动态补偿与晶圆 TTV 协同控制

    无法Jlink调试与CYBT263065EVAL COOLDIM_PRG_BOARD连接在一起怎么解决?

    我无法 Jlink 调试与 CYBT263065EVAL COOLDIM_PRG_BOARD连接在一起
    发表于 07-03 06:24

    如何将I2S与音频源一起使用?

    ,但 I2S 选项变灰。 我可以通过选择 .wav 播放其他音频 定义。 如何将 I2S 与音频源一起使用?
    发表于 06-30 07:36

    AGV机器人如何实现毫秒级避障?深度解析传感器融合的核心技术

    整合,弥补单一传感器的局限,最终构建出对环境的致性感知。该技术既能融合数据的互补优势(如精准测距与物体识别),又能通过智能算法优化信息
    的头像 发表于 05-28 14:21 1671次阅读
    AGV机器人如何实现毫秒级避障?深度解析<b class='flag-5'>多</b><b class='flag-5'>传感器</b><b class='flag-5'>融合</b>的核心技术

    如何将FX3与WSL(Linux 的 Windows 子系统)一起使用?

    如何将 FX3 与 WSL(Linux 的 Windows 子系统)一起使用? 我在 /dev/ 中找不到任何设备 我有许多项目在 Windows 上使用VISUAL STUDIO项目进行操作,因此请验证该设备是否在 Windows 上运行。
    发表于 05-06 07:11