您好,欢迎来电子发烧友网! ,新用户?[免费注册]

您的位置:电子发烧友网>电子百科>汽车电子>安全驾驶仪>

黑客愚弄特斯拉无人驾驶,制造“前方没有障碍物”假象

2016年08月08日 10:52 作者: 用户评论(0

  近年来,寻找特斯拉的漏洞已经成为黑客们的一个兴趣重点。特斯拉在发送给《福布斯》的一封信中表示,他们认为,在真实世界场景中,这些攻击是无法实现的。

  《福布斯》网站发表文章称,一个黑客团队采用多种方式,成功愚弄了特斯拉无人驾驶仪,让它以为前方的障碍物并不存在。试想一下,如果这个障碍物是行人,或者是一辆高速行驶的大型车,结果会是怎样? 以下为原文:

  今年5月7日,一辆特斯拉model S发生车祸,驾驶者约书亚·布朗当场丧生。布朗当时是在使用无人驾驶仪行驶,也就是说,他的手并没有握在方向盘上。

  自那之后,特斯拉无人驾驶仪“技术奇迹”的光环就黯淡下来,变成了一种让人提心吊胆的东西。据说约书亚·布朗之死就是因为无人驾驶仪出了故障,所以人们难免会对特斯拉智能系统无人驾驶汽车的前景感到担忧。美国政府目前也正在对这项技术的安全性进行调查。

  现在,中国的安全研究人员指出,一些有效的黑客手法可以愚弄特斯拉无人驾驶仪,让其相信前方的障碍物并不存在。虽然他们的实验不是在在高速行驶条件下进行的,但这些研究人员告诉《福布斯》,在现实世界中,黑客确实有这样做的可能,结果就是导致危险的撞车事件。不过就目前来说,这些还都只是实验室的测试。特斯拉公司和这些研究人员都认为,篡改信号造成马路杀戮的现象不会很快就成真。

  如何展示攻击

  来自浙江大学和南卡罗来纳大学的学者,以及中国安全巨头奇虎360的一名专业人员对特斯拉Model S进行了试验。他们主要尝试对超声波传感器毫米波雷达和摄像头进行了攻击。这些传感器用来测量障碍物反射的信号的回声。

  他们采用的是欺骗技术和干扰技术——前者是用假信号冒充真信号,后者是指发射一个相同的、但是更强的信号来干扰正确信号的接收。相比之下,后者比前者容易一些。但在特斯拉无人驾驶仪开启的时候,它们都可以用来引发撞车。

  特斯拉Model S的超声波传感器是用来检测附近的物体是否在进行自动停车之类的操作,黑客团队用一个超声波干扰器(用Arduino主板DIY而成)发送声音信号,导致障碍物反射的真正回声被淹没,因此,障碍物就从无人驾驶仪的视野中消失了,行驶中的特斯拉就可能会撞上障碍物。研究论文的作者之一许文远(音)说,这个障碍物可能会是一个行人。

  团队在奥迪、大众和福特汽车做的实验效果也一样,尽管这些品牌没有配备特斯拉拥有的雷达和摄像头。

  而欺骗信号和和干扰信号结合使用,“我们就可以让特斯拉在它不应该停车的时候停下来。” 许文远说。

  超声波攻击的一个关键问题是,由于使用40和50kHz频率进行传输,信号衰减严重,干扰和欺骗设备和车辆相距差不多只有一米。如果不把信号放大,黑客是无法在真实世界场景中开展这种攻击的。然而在这篇论文中,研究人员警告说,这个问题“很严重,令人担忧”。

  对雷达发动攻击就没有这样的限制了,特斯拉用雷达来支持无人驾驶仪的很多功能,但主要是用来侦测周围的其他车辆以及用于巡航控制。特斯拉Model S 的车头栅格上装有一个中程雷达(MRR)。

  雷达信号是用76-77Ghz高频发送的,衰减没有那么严重,因此攻击可以在更远的地方完成,比如20米开外。团队发射干扰信号后,无人驾驶仪就无法侦测到车辆前面的设备了。

 

  (图:对特斯拉 Model S雷达进行干扰的实验设置。A是汽车雷达,B是示波器,C是信号分析仪,D是信号发生器,E是倍频器、谐波混频器以及它们的电源。示波器、信号分析仪和谐波混频器用来进行信号分析的。信号发生器和倍频器用来进行干扰和欺骗攻击。“从研究论文揭露特斯拉感应器的攻击。)

  但是,他们只对静止不动的特斯拉开展了这些攻击。当特斯拉高速行驶的时候,攻击者需要在前方的一辆车中向它发送信号。 “按理说,如果我们把这个雷达干扰器放在高速行驶的车辆中,对准特斯拉发信号,那么我们可以让它‘看不到’前面的汽车。你可以想象那会有什么后果,” 许文远说。 “我们很担心,如果把所有设备都放在试验车中,在特斯拉的前方行驶,那它就可能会加速行驶撞坏试验车。”她说。特斯拉Model S的起价是7万美元,而设备的价值相当于Model S的三倍。

  干扰摄像头的成本就很低了。许文远解释说:“我们购买了商用的LED,把它们做成指示器。当我们把它对着特斯拉上的设备,摄像头就瞎了,捕获不了任何图像,只能看到模糊的一片红色或白色。车辆用摄像头来识别路标,所以,你把它的摄像头弄瞎后,它读取路标的能力就很成问题了。”

  在现实世界中展开攻击的可能性

  近年来,寻找特斯拉的漏洞已经成为黑客们的一个兴趣重点,不过以前他们针对的是车载计算机。去年在拉斯维加斯的DEF CON大会上,两名研究人员拆开了 Model S的仪表板,找到了六个单独的漏洞。在车辆行驶的过程中。犯罪分子可以利用这些漏洞关掉发动机。2014年时,奇虎的员工找到了可以远程控制特斯拉功能的漏洞,赢得了 1万美元。

  今年3月,这些黑客向特斯拉提交了他们的发现。特斯拉在发送给《福布斯》的一封信中表示,他们认为,在真实世界场景中,这些攻击是无法实现的。

  许文远也认为,他们的技术不太可能用于现实世界中的攻击。 “只有攻击意愿非常强烈,而且有足够的财力支持的人,才会开展这样的攻击。”她说。不过随着时间的推移,攻击技术也有可能获得改进。

  但《汽车黑客手册》(Car Hacker’s Handbook)的作者、汽车安全专家克雷格·史密斯(Craig Smith)表示,干扰型攻击特别令人担忧。 “对于车辆来说,最重要的是要检测出传感器的数据出现了冲突,”他告诉《福布斯》。 “如果传感器的数据出现了明显的不一致,车辆就应该停下来,直到把问题解决了再继续行驶。要对多个信号进行欺骗型攻击仍然十分困难,所以厂商应该把重点放在防御干扰型攻击上。”

  “干扰型攻击是最简单的,如果对干扰信号处理不当,车祸发生的可能性不亚于遭受了欺骗型攻击”。

  而且,正如特斯拉自己说的,无人驾驶仪其实是下一代驾驶辅助系统。车主不应该把它当成一个完全自主驾驶的工具来使用。 “无人驾驶仪系统的聪明度在提高,但它们还不够聪明,”许文远说。“不要依靠无人驾驶仪,因为它们并不是彻底的自主驾驶系统。”

非常好我支持^.^

(1) 100%

不好我反对

(0) 0%

( 发表人:steve )

      发表评论

      用户评论
      评价:好评中评差评

      发表评论,获取积分! 请遵守相关规定!