0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Uber自动驾驶事故原因解析_自动驾驶事故还有哪些

电子工程师 2018-04-05 12:18 次阅读

日前,一辆Uber自动驾驶汽车在美国亚利桑那州坦贝市的一条街道上,以每小时65公里的速度撞上了一位横穿马路的女子。该女子在送往医院后不久,不治身亡。这是全球首例自动驾驶汽车路测撞死行人的交通事故,引发了公众的极大关注以及对自动驾驶汽车安全性的担忧。下面就随汽车电子小编一起来了解一下相关内容吧。

事发后不久,坦贝市警察局局长对媒体表示,这场车祸无论是不是人类驾驶,都是不可避免的,这可能不是Uber的错。

然而,这真的是一场无可避免的交通悲剧吗?

众说纷纭的车祸原因

车祸发生后,很多媒体和专家对车祸原因做了分析和猜测。

美国的网友看过视频后表示,在光线昏暗的情况下,摄像头的“视力”通常差得要命,如果用肉眼观察,也许能更早注意到行人横穿。

地平线机器人创始人余凯在接受媒体访谈时,分析猜测认为造成有可能是这辆自动驾驶汽车的预测判断做的不好,出现了问题,没能准确预判出障碍物的走向。

眼擎科技创始人朱继志在其微博中表达了不同的看法。他认为,问题在于摄像头,人从暗部走向亮部,因为路灯的原因,光线明暗反差太大。在暗部的时候,汽车没有监测到,等行人走到亮部的时候,汽车虽然监测到,但已经太迟了。

同时,他认为夜间道路光线环境太复杂,汽车摄像头的动态范围需要提升30倍以上,自动驾驶汽车才有上路的可能。

也有业内人士分析,这辆Uber自动驾驶汽车已经检测到了行人,只是没有采取刹车或停车措施,致使酿成撞人事件。

传统成像技术的天花板

众所周知,当前无人驾驶汽车所采用的视觉系统 ,主要是基于摄像头和光学雷达。有业内人士对其相关的视觉性能优势和缺陷做了分析对比:

从图中我们不难得出一个结论,没有一种方案是完美无瑕,万无一失的。对于基于传统成像技术的摄像头而言,受光照条件的影响非常大,在强光、弱光、逆光、反光等情况下,基本歇菜。

而当前最受车企青睐的激光雷达,也有很难逾越的短板。且不说,短期内无法迅速降低的成本,除了分辨率低外(当然现在已经有128线,甚至300线的激光雷达,但与摄像头的分辨率还是不可同日而语),最大的问题是无法辨识颜色,即无法表示交通标示。

另外,激光雷达也受环境的影响,就连特斯拉和谷歌都承认,即使是堆满昂贵摄像头和激光雷达的无人驾驶汽车在大雪天也基本被废掉一半功力。

现在的自动驾驶汽车都采用摄像头与雷达搭配的方案(或激光雷达+摄像头,或毫米波雷达+摄像头),妄图弥补各自的不足。但显然这样的策略也没有达到1+1>2的效果。原因很简单,一方很难弥补另一方的短板。比如Uber自动驾驶汽车撞人致死的事件中,显然车上的摄像头因为光线问题没有监测到正要横穿马路的路人(除非汽车的刹车系统坏掉了),而激光雷达即使监测到了有反射信号,也无法判断出是行人。正如有专家分析,因为其局限性,光学雷达并不是为检测行人设计的。因为光学雷达分辨率有限,刷新率不高,更无法获取物体对象的颜色信息。所以它不善于实时地分辨物体。

给自动驾驶汽车一双慧眼

从Uber自动驾驶汽车传感器示意图看,这辆出事的自动驾驶汽车上面也安装了不少摄像头,并且这些摄像头都正常工作,却并没有避免悲剧的发生。为什么?

很简单,这些摄像头的视觉能力比不上人眼。

正如专家所说,传统的摄像头成像技术,机器的视觉能力无法与人的眼力相比,甚至很难接近。因为传统的成像技术更专注于做给人看的图像处理,即做图像的优化。而在机器的眼中,不注重像素高低,更不需要美颜,它需要的是精准的测量现实世界,不仅色彩高度还原、而且边缘清晰、锐度高等。

这就意味着传统的摄像头无法满足AI机器在复杂光线下的正常运作。

而对于驾驶员辅助系统,关键挑战则在于保证系统在任何环境状况下(温度变化、阳光照射、黑暗中或雨雪天气)都能正常工作,而且还要能辨认出300米以外的物体。

事故发生后,Uber暂停了自动驾驶汽车路测,丰田暂停了自动驾驶汽车的路测,据说,英伟达也暂停了自动驾驶汽车的路测。

希望之光

不久前拜访眼擎科技时,工作人员向笔者演示了他们最新推出的一项AI视觉成像引擎视觉技术成果:在昏暗办公室内,搭载了眼擎科技AI视觉成像引擎方案的摄像头在室内只有一台电脑显示屏作为光源的条件下,呈现出了明亮、清晰、色彩还原度相当高的图像。而此时,人眼已无法分辨出被拍摄对象的颜色和轮廓。

对此,工作人员解释说,眼擎科技希望解决的是AI机器在复杂光线下的自动适应能力。

有关资料显示,不论2D还是3D摄像头都需要图像传感器有至少130dB的高动态范围(动态范围指一个多媒体硬盘播放器输出图像的最亮和最暗部分之间的相对比值)。只有这么高的动态范围才能保证,即使阳光直射到镜头上,传感器也能得到清晰的图像信息。普通的镜头系统动态范围远远低于这个值。

该工作人员解释,眼擎科技的方案在成像的动态范围上比人眼高18db,所以在人眼无法辨别色彩的极弱光条件下仍能输出清晰的彩色图片。

今年1月份,眼擎科技发布了全球首款完全自主研发的AI视觉前端成像芯片“eyemore X42”。

据悉,eyemore X42成像引擎芯片,拥有比传统ISP高20倍的计算能力,采用了20多种新的成像算法,集成了超过500种不同场景下的复杂光线数据。

其中一个重要原因,eyemore X42抛弃了传统的ISP成像架构,采用了全新的成像引擎架构,来解决复杂光线下的成像难题。

除此之外,eyemore X42芯片还具有独立成像以及API接口丰富的特点。

就像人眼拥有超强的视觉能力,不仅仅在于强大的光学成像系统,更重要的是人眼通过神经与大脑的交互。基于此,眼擎科技也为成像引擎设计了一套与后端AI算法的交互架构,来获知AI对图像的需求。

眼擎科技创始人朱继志表示,这种与AI系统的交互能力,将使得成像系统真正成为AI的有机器官。

写在最后

在本月初的“2018全球AI芯片创新峰会”上,眼擎科技与商汤、地平线等AI新秀一起荣膺“年度AI先锋”奖,代表了业内对眼擎科技AI视觉前端成像技术的认可。

诚然,从Uber和丰田相继叫停路测来看,公众对自动驾驶汽车最大的顾虑还是安全问题。而安全问题的解决,主要取决于车辆本身能否及时监测到危机或作出及时的处理。这就需要自动驾驶汽车整个产业链的成熟发展,包括道路基础建设和5G网络的兴起,而其中最关键的还是需要车辆本身有一双慧眼。而传统的摄像头成像天花板已非常明显,以眼擎科技AI视觉前端成像引擎技术为代表的新生代,或许是冲破天花板的希望所在。

附2015年至今的全球13起自动驾驶汽车交通事故:

时间

事件梗概

2018年3月23日

23日,一辆特斯拉2017 Model X在美国加州101号高速公路上行驶时,撞上了公路的护栏后起火,并被后方两辆来车撞上。

2018年3月18日

美国亚利桑那州一名女子被Uber一辆正在路测的自动驾驶汽车撞伤,被撞女子身亡

2018年1月22日

一辆开启了自动驾驶模式的特斯拉Model S在洛杉矶405高速公路上撞上了一辆停在路边的消防车。

2018年1月12日

一辆特斯拉Model 3翻入了一条小溪

2018年1月10日

在美国宾夕法尼亚州匹茨堡,一辆厢式货车闯红灯,撞到了福特的一辆自动驾驶汽车

2017年12月7日

在温哥华,一辆Cruise自动驾驶汽车正以自动驾驶模式行驶,变道时剐蹭了变道中的一辆摩托车

2017年11月8日

在美国拉斯维加斯,一辆无人驾驶巴士与一辆卡车相撞

2017年3月24日

在亚利桑那州坦佩市,一辆测试中的Uber自动驾驶汽车与一辆普通汽车发生了碰撞。

2016年9月23日

在美国山景城,谷歌的一辆无人驾驶测试车遭受了一辆道奇商用货车的严重撞击。

2016年5月7日

一辆特斯拉Model S在佛罗里达州高速公路上与一辆垂直方向开来的挂车发生相撞

2016年2月14日

在硅谷芒廷维尤市,谷歌的“雷克萨斯”牌改装无人驾驶汽车在路测时,与一辆公共汽车的右侧相撞。

2016年1月20日

京港澳高速河北邯郸段,一辆开启了自动驾驶模式的特斯拉轿车直接撞上一辆正在作业的道路清扫车

2015年7月1日

谷歌公司一辆雷克萨斯牌改装无人驾驶样车在加利福尼亚州芒廷维尤市街头测试时发生追尾事故

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 自动驾驶
    +关注

    关注

    773

    文章

    13025

    浏览量

    163197
收藏 人收藏

    评论

    相关推荐

    【话题】特斯拉首起自动驾驶致命车祸,自动驾驶的冬天来了?

    `特斯拉首起自动驾驶致命车祸,自动驾驶的冬天来了?“一个致命的事故一定是由多个小的错误组成的。”  7月初,特斯拉发表博客叙述了NHTSA(美国国家公路交通安全管理局)正在着手调查第一起Tesla
    发表于 07-05 11:14

    自动驾驶真的会来吗?

    自动驾驶原理示意GIF图  特斯拉自动驾驶死亡事故给全世界带来了极大的震惊,但这并不意味着基于坏消息之上的关注全然没有正面意义。  在接受新浪科技采访中,多位硅谷相关人士告诉新浪科技:一方面是对于
    发表于 07-21 09:00

    [科普] 谷歌自动驾驶汽车发展简史,都来了解下吧!

    里程超过14万英里(约23万公里)。谷歌当时发表博文称,它认为其无人驾驶汽车能够把每年因交通事故死亡的人数减少一半。  2010年,数名大腕工程师加盟谷歌自动驾驶汽车团队:卡耐基梅隆大学教授克里斯·厄
    发表于 10-25 11:08

    细说关于自动驾驶那些事儿

    `事实上,早在1925年就出现第一台自动驾驶概念车,但为什么直至最近无人车才不再被视为科幻小说,而是眼下将实现的革命性科技产品?追其原因,主要在于,人工智能的显著进展,以及开发无人车的所需技术和硬件
    发表于 05-15 17:49

    自动驾驶的到来

    自动驾驶需要海量的数据积累,前期完整的测试是实现自动驾驶的必不可少的步骤。  其次中国非机动车及行人的行为规律存在差异,自动驾驶外部传感器必须对非机动车及行人做出及时准确的判断从而有效避免
    发表于 06-08 15:25

    无人驾驶自动驾驶的差别性

    自动驾驶领域,目前有两大技术路径:一是以特斯拉等汽车厂商为代表的“辅助驾驶”升级路线,其探测技术基础是摄像头(机器视觉)、毫米波雷达、超声雷达;二是以谷歌等互联网公司为代表的“无人驾驶”路线;其
    发表于 09-28 16:50

    车联网对自动驾驶的影响

    通常无法做出及时有效的处理,单纯依靠传感器感知路面环境的自动驾驶也很难避免车祸的发生,但是车联网通过基于两辆车的数据分析,提前预知到“车祸”的可能性,对两辆车完成协调,避免潜在事故发生。车辆网在近年来
    发表于 03-19 06:20

    如何让自动驾驶更加安全?

    最近,国内多个城市开始发放自动驾驶的开放道路测试牌照,意味着自动驾驶的汽车可以在公共道路上进行测试。不过,驾驶安全性仍是社会关注的焦点,美国优步公司进行自动驾驶技术测试发生致命撞击
    发表于 05-13 00:26

    自动驾驶汽车的处理能力怎么样?

    作在未来20 - 30年中,自动驾驶汽车(AV)将改变我们的驾驶习惯、运输行业并更广泛地影响社会。 我们不仅能够将汽车召唤到我们的家门口并在使用后将其送走,自动驾驶汽车还将挑战个人拥有汽车的想法,并
    发表于 08-07 07:13

    自动驾驶汽车中传感器的分析

    特斯拉在五月份发生的自动驾驶事故,和最近在Defcon上演示的如何干扰传感器,都充分说明了传感器在自动驾驶中的重要性:环境感知是自动驾驶实现的基础,如果不能正确地感知周围环境,那么接下
    发表于 05-14 07:34

    ADAS到自动驾驶还有多长的路要走

    ADAS到自动驾驶还有多长的路要走?
    发表于 12-10 07:03

    从ADAS到自动驾驶还有多长的路要走

    从ADAS到自动驾驶还有多长的路要走看了就知道
    发表于 01-28 06:57

    自动驾驶系统设计及应用的相关资料分享

    作者:余贵珍、周彬、王阳、周亦威、白宇目录第一章 自动驾驶系统概述1.1 自动驾驶系统架构1.1.1 自动驾驶系统的三个层级1.1.2 自动驾驶系统的基本技术架构1.2
    发表于 08-30 08:36

    自动驾驶技术的实现

    k随着汽车电子的日益复杂化以及汽车电子电气架构(EEA)的升级,人们对于联网智能汽车的需求也在逐步上升,大量先进技术往汽车上应用,如高级驾驶辅助系统(ADAS)、自动驾驶等,这些新技术也对车载网络
    发表于 09-03 08:31

    公布Uber视频还原事故真相_自动驾驶安全吗

    优步一辆自动驾驶汽车与一名行人之间发生的致命碰撞的视频,发生在当地时间周日晚间的这次事故是全球已知的首例自动驾驶汽车引发的行人致死事故
    的头像 发表于 03-22 10:30 3864次阅读