0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

自动驾驶摄像头中的“目”是个啥?

智驾最前沿 来源:智驾最前沿 作者:智驾最前沿 2025-06-06 09:01 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

[首发于智驾最前沿微信公众号]在自动驾驶系统的感知架构中,摄像头始终扮演着“眼睛”的角色,它以直观的方式捕捉车外环境,将光学信号转化为图像数据,供后端算法进行物体检测、分割、跟踪与深度估计。随着自动驾驶技术从辅助驾驶(Level 1/2)向中高阶自动驾驶(Level 3 及以上)演进,对环境感知的精度、可靠性和冗余度也提出了更苛刻的要求。与此同时,行业内主流的视觉方案也在不断丰富,从早期的单目摄像头,到双目立体视觉,再到近年来开始探索的三目甚至多目的多视角布局,自动驾驶纯视觉解决方案也更加丰富。

wKgZO2hCPd6ACZ3OAAAQo00DEvw439.jpg

单目摄像头

单目摄像头因其硬件结构最为简单、成本最低廉、布置最为灵活而成为自动驾驶感知系统的基础配置。一台普通摄像头即可安装于挡风玻璃后方或车前格栅处,便可获得宽视角的彩色图像序列。单目深度估计主要依赖于图像中的透视几何线索(如远近关系产生的尺寸变化)、运动线索(双帧或多帧光流)、以及深度学习模型对场景先验的学习。

基于单目图像的深度估计方法可以分为监督式与自监督式。监督式借助激光雷达(LiDAR)或结构光相机标定出的真深度进行网络训练,精度较高但对大规模标注数据依赖严重;自监督式则通过视差一致性、光度一致性约束和多视角几何投影建立损失函数,摆脱了稠密标注的束缚,但在纹理匮乏和动态遮挡场景下精度波动明显。单目摄像头在弱光、强逆光条件下表现较好,且与毫米波雷达结合时能够形成较为完善的检测与跟踪管线;但由于其固有的“视差盲区”,在深度估计误差(数米级)与目标尺寸估计偏差(百分之十以内)的情况下,难以独立支撑高阶自动驾驶对亚米级、甚至亚米级以下的深度精度需求。

wKgZO2hCPd-ADp11AAAR42n7O-I410.jpg

双目摄像头

双目视觉系统通过两台同步标定、具有固定基线的摄像机获取左右两路图像,以视差(disparity)为桥梁直接计算场景深度,双目视觉系统也更加近似于人眼。同一物点在左右图像中的横向偏移量与基线长度和焦距共同决定了其绝对距离。经典双目深度重建分为四大步骤:立体校正(stereo rectification)、视差匹配(disparity estimation)、视差滤波与优化(filtering & refinement)、以及点云重建(point cloud generation)。当前主流的视差匹配算法既包括基于局部窗口的代价聚合方法(如SAD、SSD与Census Transform),也包括全局能量最小化方法(如Graph Cuts、Semi-Global Matching),以及最近几年兴起的端到端深度学习方法(如GC-Net、PSMNet)。

双目视觉能够在中短距离(0.5 米至50 米)内提供亚米级的深度精度,并在静态与高纹理场景中表现卓越;但当面对低纹理、重复纹理、强光照不均或半透明遮挡时,视差匹配的正确率会显著下降,导致深度估计失真。此外,双目系统对摄像头外参(相对位置与姿态)的标定精度和时间同步提出了高要求,一旦标定误差超过千分之一(基线与焦距之比),就可能带来数毫米至数厘米的深度偏离。双目系统在算力消耗与数据带宽方面也高于单目,两路高分辨率图像的拼接与匹配、对称的图像预处理与后处理,都需要更强的视觉处理单元(VPU)或GPU支持。

wKgZO2hCPeCATBg6AAASG3BOmsQ949.jpg

三目摄像头

三目布局一般采用共面而非共线的设计,三台摄像头按一定几何形状(如等边三角形基线)分布,以获得更丰富的视差信息。相较于双目,三目系统能够形成两组或三组不同基线长度、不同匹配对的深度估计,从而在多种距离区间内兼顾近、中、远距离的测量精度。例如,基线较短的一对摄像头适合1至10 米范围的高精度测距,而基线较长的一对则能够延伸到100 米的目标探测。

在算法层面,三目视差匹配可同时在多对图像间建立代价体(cost volume),并通过多视角一致性约束(multiview consistency)剔除错误匹配,显著提升了在低纹理与弱光场景下的鲁棒性。三目系统还能够利用不同视角下的遮挡信息(occlusion reasoning)进行遮挡补偿,弥补双目在部分遮挡物体(如行人背后夹杂车辆或路牌)时深度估计的盲区。三目系统的一个挑战是算法复杂度,如何高效构建三维代价体、如何在保证实时性的前提下完成多对视差匹配、如何动态选择最优基线对进行深度融合,都是亟需解决的问题。在硬件方面,为了减轻时间同步与数据带宽压力,通常会采用板载FPGA或专用ISP(Image Signal Processor)进行初步预处理与视差计算,然后再将稀疏或半密集的深度信息传输给主算力单元。

wKgZO2hCPeGAFf9HAAASAJELks8763.jpg

技术方案

在更高阶的自动驾驶车辆上,为了实现360°无死角监控与高精度三维重建,厂商往往会将前向双目或三目视觉与侧向、后向、俯瞰等多路摄像头结合,构成四目、六目甚至八目的多视角网络。此时,系统需要解决的关键问题不仅仅是单对深度估计,更包括跨视角的时空对齐(temporal-spatial synchronization)、全局标定(global extrinsic calibration)、多视角深度融合(multiview depth fusion)与全景拼接(panorama stitching)。在全景感知中,车辆往往需要同时执行多任务,前方车辆与行人的距离测量、侧向障碍物的实时告警、倒车时的俯视图生成,以及自动泊车中的全景轨迹规划。多目布局能够提供更丰富的冗余信息,即便某一路摄像头因泥污、强逆光或物理损坏暂时失效,系统仍能依靠其它视角的深度信息维持基础感知能力,从而满足高安全等级(ASIL D)对感知冗余的要求。

单目方案凭借极低的硬件成本与成熟的深度学习生态,成为市面上大量量产车型实现L2 级别自动辅助驾驶的主流选择;双目方案在特定场景(如干式公路、高速公路集群货运)中能够提供亚米级精度,成为部分L3 级自动驾驶示范区的首选;而三目及多目方案则主要出现在少数高端概念车与少量具备大量数据标注与计算资源支持的示范车队中。对于工程实现而言,还需考虑视觉传感器与整车CAN总线、以太网交换机的带宽匹配;车载算力单元(如NVIDIA DRIVE、Mobileye EyeQ)对并行视觉算法的部署能力;视觉算法与其他传感器(LiDAR、毫米波雷达、超声波雷达)的融合策略以及在极端天气(雨、雪、雾、夜间)下的抗干扰与抗闪烁能力。

当前,为提升单目与双目在复杂场景下的鲁棒性,主流做法是将视觉深度估计与雷达或LiDAR点云进行时空融合,通过深度校正网络(depth correction network)对单目估计值进行回归补偿,或利用Kalman滤波与图优化(graph optimization)框架将多源深度信息整合到同一帧时空参照系内。对于三目与多目系统,则往往采用多视角神经网络(multiview neural network),直接在稠密的多目代价体上进行端到端训练,以统一的方式生成更高精度、更少噪声的稠密深度图。此外,利用自监督式多视角重投影损失(photometric consistency)与几何一致性约束(geometric consistency),进一步优化深度估计的精度和边缘完整性。

wKgZO2hCPeKAOCxJAAARwcz1hbg350.jpg

结语

其实单目、双目与三目乃至多目摄像头方案各有千秋,单目以简驭繁、成本友好;双目以立体、精度可控;三目以多基线、鲁棒性更强。随着算法的精进与硬件的升级,三目与多目系统在复杂场景下的优势将日益凸显,但其算力与集成成本也需要工程团队在量产化中不断权衡优化。自动驾驶视觉方案的选择,从来不只是“目”数越多越好,而是要在安全冗余、深度精度、实时算力与成本之间找到最佳平衡,最终服务于可持续、大规模部署的智能出行愿景。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 摄像头
    +关注

    关注

    61

    文章

    5060

    浏览量

    102518
  • 雷达
    +关注

    关注

    51

    文章

    3266

    浏览量

    122872
  • 自动驾驶
    +关注

    关注

    791

    文章

    14683

    浏览量

    176829
  • LIDAR
    +关注

    关注

    11

    文章

    362

    浏览量

    31181
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    自动驾驶中提到的“深度相机”是

    自动驾驶的实现离不开各类传感器的支持,其中纯视觉方案成为很多技术方案的选择,但由于摄像头无法感知到环境深度信息,因此有部分技术方案提到了“深度相机”的技术。
    的头像 发表于 12-13 13:35 1460次阅读

    自动驾驶既然有双目摄像头了,为什么还要三摄像头

    [首发于智驾最前沿微信公众号]在自动驾驶领域,纯视觉方案一直受到不少人的认可。双目摄像头由于模拟了人眼的工作方式,能够通过视差计算还原三维信息,在距离判断和空间感知上具有天然优势,因此被广泛应用于纯
    的头像 发表于 12-09 08:59 492次阅读
    <b class='flag-5'>自动驾驶</b>既然有双目<b class='flag-5'>摄像头</b>了,为什么还要三<b class='flag-5'>目</b><b class='flag-5'>摄像头</b>?

    自动驾驶中常提的ODD是

    [首发于智驾最前沿微信公众号]在自动驾驶中,经常会听到一概念,那就是ODD。所谓ODD,全称为Operational Design Domain,中文常译为“运行设计域”或者“作业域”。直观一点
    的头像 发表于 09-22 09:04 567次阅读
    <b class='flag-5'>自动驾驶</b>中常提的ODD是<b class='flag-5'>个</b><b class='flag-5'>啥</b>?

    决定自动驾驶摄像头质量的因素有哪些?

    [首发于智驾最前沿微信公众号]摄像头自动驾驶系统中的作用非常重要,并不是简单的“多拍几张照片就行”的设备,它更像是一整套从光学到电子再到软件的感知子系统。把一块光学玻璃、一片图像传感器、一套ISP
    的头像 发表于 09-14 10:59 776次阅读
    决定<b class='flag-5'>自动驾驶</b><b class='flag-5'>摄像头</b>质量的因素有哪些?

    如何确保自动驾驶汽车感知的准确性?

    感知的定义及原理 在聊这个话题之前,我们先聊一聊感知是什么,自动驾驶感知系统就是一把外界变成机器可用信息的工程流水线。感知系统的输入主要依靠如摄像头(可见光、近红外)、激光雷达(LiDAR)、毫米波雷达(RADAR)、超声
    的头像 发表于 08-23 15:06 1405次阅读
    如何确保<b class='flag-5'>自动驾驶</b>汽车感知的准确性?

    自动驾驶中常提的硬件在环是

    [首发于智驾最前沿微信公众号]在谈及自动驾驶技术时,经常会提及一技术,那就是硬件在环,所谓的硬件在环是?对于自动驾驶来说有
    的头像 发表于 08-14 08:54 902次阅读

    自动驾驶中常提的RTK是

    [首发于智驾最前沿微信公众号]在谈及自动驾驶关键技术时,经常会听到一技术,那就是RTK,很多人看到RTK后一定会想,这到底是技术?为啥这个技术很少在发布会上看到,但对于
    的头像 发表于 08-10 10:35 772次阅读
    <b class='flag-5'>自动驾驶</b>中常提的RTK是<b class='flag-5'>个</b><b class='flag-5'>啥</b>?

    自动驾驶中常提的惯性导航系统是?可以不用吗?

    每次提到自动驾驶硬件时,大家可能第一反应想到的是激光雷达、车载摄像头、毫米波雷达等,但想要让自动驾驶车辆实际落地,有一硬件也非常重要,那就是惯性导航系统。在很多讨论
    的头像 发表于 07-24 18:12 1541次阅读
    <b class='flag-5'>自动驾驶</b>中常提的惯性导航系统是<b class='flag-5'>个</b><b class='flag-5'>啥</b>?可以不用吗?

    自动驾驶汽车如何确保感知数据的一致性?

    自动驾驶感知传感器概述 [首发于智驾最前沿微信公众号]自动驾驶系统通常采用多种感知传感器协同感知车辆周围环境。摄像头可获取高分辨率的环境图像,能够识别车道线、交通标志、信号灯以及物体的颜色和纹理信息
    的头像 发表于 06-20 09:14 510次阅读
    <b class='flag-5'>自动驾驶</b>汽车如何确保感知数据的一致性?

    自动驾驶中常提的“点云”是

    ?对自动驾驶有何影响? 点云是? 点云(Point Cloud)是一种在三维空间中由大量离散点组成的数据集合,每个点包含自身的笛卡尔坐标(X、Y、Z),并可附带颜色、强度、时间戳
    的头像 发表于 05-21 09:04 849次阅读
    <b class='flag-5'>自动驾驶</b>中常提的“点云”是<b class='flag-5'>个</b><b class='flag-5'>啥</b>?

    索尼FCB-EV9520L摄像头:赋能自动驾驶新体验

    自动驾驶技术飞速发展的当下,索尼FCB-EV9520L摄像头凭借其卓越性能,正成为众多自动驾驶解决方案中不可或缺的关键组件,为自动驾驶车辆的安全、高效运行提供有力支持。 索尼FCB-
    的头像 发表于 05-09 11:51 454次阅读

    一文聊聊自动驾驶摄像头

    [首发于智驾最前沿微信公众号]自动驾驶车辆的摄像头是感知模块的重要组成,其成本低、分辨率高且能捕捉丰富的语义信息,使其在车道识别、障碍物检测、交通标志和信号灯识别等任务中不可或缺。不同类型的摄像头
    的头像 发表于 05-05 09:59 897次阅读
    一文聊聊<b class='flag-5'>自动驾驶</b><b class='flag-5'>摄像头</b>

    自动驾驶中常提的“NOA”是

    “Navigate on Autopilot”,即自动导航驾驶,是一种依托高精度定位、多种传感器数据融合以及先进人工智能算法和实时决策规划,实现车辆在高速公路和复杂城市道路上自主导航与驾驶的技术。该技术通过
    的头像 发表于 04-09 09:03 2212次阅读
    <b class='flag-5'>自动驾驶</b>中常提的“NOA”是<b class='flag-5'>个</b><b class='flag-5'>啥</b>?

    自动驾驶大模型中常提的Token是?对自动驾驶有何影响?

    、多模态传感器数据的实时处理与决策。在这一过程中,大模型以其强大的特征提取、信息融合和预测能力为自动驾驶系统提供了有力支持。而在大模型的中,有一“Token”的概念,有些人看到后或许会问: Token是
    的头像 发表于 03-28 09:16 1004次阅读

    自动驾驶中常提的鲁棒性是

    随着自动驾驶技术的快速发展,鲁棒性(Robustness)成为评价自动驾驶系统的重要指标之一。很多小伙伴也会在自动驾驶相关的介绍中,对某些功能用鲁棒性进行描述。一鲁棒的系统能够在复杂
    的头像 发表于 01-02 16:32 8386次阅读
    <b class='flag-5'>自动驾驶</b>中常提的鲁棒性是<b class='flag-5'>个</b><b class='flag-5'>啥</b>?