打开APP

30起无人驾驶事故,29次都怪人类!

“上路不到1个小时就出事!”当地时间11月8日上午,由法国公司Navya开发的不带方向盘的L4级小型无人驾驶公交车在美国拉斯维加斯上路试运营,但不到1小时,其中一辆就与拖挂卡车发生碰撞。尽管事故的后果只是无人车的保险杠受损,并没有造成人员伤亡,但在Waymo的L4无人车刚批量上路之际,这则“小新闻”依然引人注目,瞬间就引爆全球。 

Navya的L4级无人车安全与否,不光是它自家的事,而且还会影响到人们对整个无人驾驶产业的信任感。所以,在Navya出事之后,无论是“友商”、公众,还是媒体,大家都在焦灼地等待对事故的详细调查结果出炉。 

所幸,拉斯维加斯官方很快就发布了调查结果:无人车不必为此次事故承担责任。 

当时的现场情况是,无人驾驶汽车在正常行驶的时候,一辆送货卡车突然从小巷中拐出,无人车已经探测到前方有卡车并及时挺住,但卡车却没有及时刹住,结果就撞在了汽车前部的挡泥板处。拉斯维加斯政府发文称:“这起小事故的责任应由卡车司机承担。发生这类事故不能一味质疑无人驾驶技术的安全性,而要关注卡车是否也有相关感测器和系统能防止事故发生。” 

保险杠受损的无人车在经过常规检修之后将重新上路,而无人车通勤车的运营还会在拉斯维加斯持续12个月。可以说,大家都是虚惊一场。 

不止这次,就此前,虽然无人驾驶汽车上路测试的总行驶里程已经达到数百万英里,总共发生的交通事故几十起,但真正责任在无人车自身的,却寥寥无几。 

谷歌:26次事故,25次都不怪它 

组织无人驾驶路测的公司几十家,但向公众公布测试报告的并不多。谷歌是路测经验最丰富的公司,关于它的公开资料也最多,因此,我们就先重点看一下谷歌的无人驾驶汽车遇到的“事故”。 

自2009年至今,谷歌/Waymo的无人驾驶汽车已经上路行驶了超过350万英里,有数据可查的事故共26例,但大绝大部分都是“别人的错”,因谷歌自身的技术缺陷导致的事故,仅有1起。 

我们能公开查到的第一起的跟谷歌无人车有关的事故发生在2010年5月。当时的情形是,谷歌的一辆普锐斯自动驾驶汽车在人工模式下在山景城 Central Expressway 的红绿灯前被后面的一辆汽车追尾。事故没有造成人员受伤,但是谷歌的这辆车受到一些损伤。 

其后,谷歌无人车遇到的事故大都是“被追尾”:

2012 年 10 月,普锐斯在自动驾驶模式下在 Amphitheatre Parkway 上被另一辆车追尾;

2012 年 12 月,谷歌的一辆雷克萨斯自动驾驶汽车在人工模式下在 Highway 101S 上被后方车辆以 20-25 英里每小时的速度追尾;

2013 年 10 月,雷克萨斯在 Rengstorff Avenue 上慢速行驶接近一个交叉路口时被追尾;

2014 年 3 月,雷克萨斯在 Highway 101N 在交通不畅的情况下被后车连环追尾;

2014 年 7 月,上雷克萨斯在人工模式下等待右转到 Grant Avenue 的时候被后车碰撞;

2015 年 5 月,雷克萨斯在 Shoreline Boulevard 自动驾驶模式下在红灯前的车辆群中停止,另一辆车从后面撞上后保险杠以及传感器...... 

可以看出,在这些案例中,谷歌的无人车都是遵守秩序地正常行驶,但被后面那些“不守规矩”的车给追尾了。它不犯,别人硬要犯它,它是无辜的受害者,你总不能让它承担责任吧? 

还有这几起:

2013 年 3 月,雷克萨斯在 highway 680S 上以 63 英里/小时速度行驶,右方车辆闯入其所在车道与车身碰撞,雷克萨斯上的工作人员立即采取了人工模式接管;

2015 年 2 月,雷克萨斯在山景城附近在自动驾驶模式下交叉路口出与另一车在右后轮出碰撞事故前无人车已经开始探测到情况进行采取刹车行为;

2015 年 4 月,雷克萨斯在 California Street 自动驾驶模式行驶,另一辆车从车右边超越剐蹭掉了右边的传感器和反光镜;

2016年10月,谷歌的一辆改良版的雷克萨斯SUV无人驾驶汽车在芒廷维尤的菲利克斯大道上向北行驶的过程中与被一辆闯红灯的人类驾驶的汽车撞到右车门。 

这几起,虽然不是追尾,但都是因为其他车辆违反交通规则。无人驾驶汽车能做到自己不违反交通规则,但总不能强求它去制止别的车辆违反交通规则吧? 

从2015年6月份起,谷歌每个月都会在网站上公布无人车的“事故报告”,但自2016年12月起,随着无人驾驶部门拆分成立waymo,谷歌在网站上删除了所有关于无人车的事故报告;同时,waymo也不再每个月例行公布事故报告了,只在事故发生的时候向各州机动车辆管理局报告。   

截止2016年11月底,谷歌的无人车共遇到25起事故。此后的一年的数据,我们暂未查询到。 据谷歌方面分析,大部分事故的责任,要么是在“其他车辆”,要么是“人类驾驶员的不当干预”。由于以往的事故报告已经被删除,我们并未查到”人类驾驶员的不当干预“是指什么。 

在这25起事故中,谷歌承认该由自家的无人驾驶车辆负责的,仅有1起。那是在2016年的2月14日,谷歌公司一辆“雷克萨斯”牌改装无人驾驶汽车在芒廷维尤市街头测试。当时,谷歌的无人车发现前方有排水系统的沙袋,为了避沙袋,它便紧急向左变道,结果却意外与一辆公共汽车的右侧方相撞,导致无人驾驶汽车左前翼子板、左前轮和驾驶侧传感器受损。

谷歌承认,为了避让沙袋,无人车没有注意到后面的公交车。这说明,当时的谷歌无人车在面对复杂的交通状况时会出现严重的判断失误。 

我们能查到的距近最近的一次与Waymo无人车有关的事故发生在2017年8月26日上午。当时,Waymo的克莱斯勒Pacifica正在帕洛阿尔托市Alma Street的左侧车道上向东行驶(自动驾驶模式),突然,前方的另一辆车为了躲避道路中的障碍物而来了个紧急转向,在这样的情况下,Waymo的司机关闭了自动驾驶系统,并向右变道。此时,Waymo车辆的后保险杠与一辆2006款本田奥德赛的前保险杠相撞,所幸没有人受伤。 

我们没有看到谷歌对这次事故责任的详细解释,但至少从对现场的报告来看,这次事故,是在有人类驾驶员干预的情况下发生的。这个时候,要说得清无人驾驶系统有没有责任,是要费一番周折的。 

需要特别强调的是,“有人类驾驶员干预”,并非意味着人类驾驶员要对这次事故负责,而是说,在一些紧急情况下,纵使车当时是由人类驾驶员操控,事故仍然是无法避免的。要知道,在2017年11月之前,谷歌的参与测试的无人车,都配备了紧急情况下接管车辆的人类驾驶员,所以,那些事故,都是在人类驾驶员的“眼皮子底下”发生的。人类驾驶员能看明白却依然无力阻止的事故,我们当然不能把责任全都赖给机器了。 

再来看看谷歌的“死敌”Uber。 今年3月份,Uber的无人驾驶汽车在亚利桑那州Tempe遭遇事故。但当地警方介绍说,事故的原因是“另外一辆汽车并没有按照规定让行”,这次事故的责任方并非Uber。 

特斯拉:本来就不是“无人驾驶” 

说到无人驾驶出事,可能很多人会本能地想到特斯拉。但这里可能存在一些误区,因为特斯拉的Autopilot根本就不是“无人驾驶”,而只是个“高级辅助驾驶”(ADAS)。 

特斯拉的第一起事故是在2016年1月20日,当时,一位23岁男青年高雅宁驾驶着自己的特斯拉轿车在京港澳高速河北邯郸段公路行驶,未能及时躲避前方的道路清扫车而发生追尾,事故导致该名车主身亡。 

经交警认定,在这起追尾事故中驾驶特斯拉的司机高雅宁负主要责任。然而时隔半年之后,高雅宁的家人却把特斯拉的经销商告上了法庭。以为,高雅宁的家人认为,事故发生时,特斯拉正开启Autopilot功能,高雅宁过于信任这个“自动驾驶”,因此,注意力并没有在路面上。在事发前一分钟,高雅宁甚至还在唱歌。遗憾的是,Autopilot并没有识别出前方的清扫车,也没有采取刹车和减速措施,然后就毫无防备地撞上了前面的道路清扫车。 

双方打官司后不久,特斯拉在其中国官网上删除“自动驾驶”的字样,改为“自动辅助驾驶”。看起来只加了两个字,实际却意味着法律责任的转移:自动驾驶,是车/制造商对事故承担责任;而“自动辅助驾驶”的意思却是,这个Autopilot只起辅助功能,出了事还得你开车的人自己负责。 

2016年5月,特斯拉造成了第二宗自动驾驶系统致人死亡的车祸。当时,一辆开启Autopilot功能的特斯拉Model S电动汽车在途径十字路口的时候,撞上了一辆正在左转的卡车,Model S的前挡风玻璃撞进了卡车底部,驾驶人也因此死亡。 

事故原因,特斯拉是这样解释的:首先,白天强光下,拖车白色侧面会反光,摄像头会短暂“失明”;而且由于拖挂卡车底盘较高,毫米波雷达无法探测到车身,这种非常少见的情况导致了系统疏忽而没有启动自动刹车;同时,车辆碰撞位置为挡风玻璃,正是防撞系统传感器的安装位置,使得防撞系统失灵,直接撞上卡车。 

这次事故中,Autopilot配置的一个前置雷达、一个前置摄像头、12 个远程超声波传感器,全都没能看到或者感应到前方转弯的 18 轮大货车。超声波雷达,和现在普及的倒车雷达使用相同的技术,探测距离为 5 米,在高速行驶下,即便它感应到大货车,也已经太晚——倘若使用激光雷达,探测距离可达150米,应该还来得及。 

这次事故,暴露了特斯拉以视觉为主的无人驾驶方案的局限性。但总的来说,特斯拉两次致命事故的原因,都不在于自动驾驶本身,而是因为司机过于崇拜和依赖于这个ADAS而自己的手丢开方向盘,以至于在紧急情况下来不及接管,这才是那几次特斯拉事故的原因。如果车主定搞清楚ADAS的定位,仅仅用它来“锦上添花”,应该会安全很多。 

现阶段,无人驾驶作为一项新技术,仍不完美,但至少,与那些动辄酒驾、疲劳驾驶、闯红灯、打电话的人类司机相比,它已经有不少“闪光点”。毕竟,根据美国交通部的调研,94%的致命事故都是人为失误造成的。 

当然,对公众来说,要不要接受无人驾驶汽车,不能全看统计数字,这里还有一个心理问题:很多人的心态是,我自己开车,出车祸,那我“认了”,但如果是无人驾驶汽车出事,我“坚决不干”! 

我们可能对机器过于苛刻。比如,在自己开车的情况下,你所有操作的完全合规,仅仅因为躲闪不及,被别人的不守规矩的车给撞了,这个时候,你只会去找对方车主算账,而不会跟自己算账,也不会找你的汽车供应商算账;但如果你是坐了一辆无人驾驶汽车,同样的场景下,无人驾驶汽车躲闪不及,你的车被别人的车给撞了,你受伤了(甚至只是受到了惊吓),这个时候,你不仅会找对方的车算账,而且还会跟自己坐的无人车算账! 

在技术因素和成本因素之外,我们对机器的过于苛刻,或许会成为是无人驾驶商业化的一个重要障碍。 

根据经济学上的“损失厌恶”原理(与对一件事情可能给自己带来利益的兴趣相比,人们对一件事情能给自己带来的危害更加敏感),要说服人类接受无人驾驶,最重要的,可能并不是强调无人驾驶能给他们带来什么好处,而是得先向他们强调“不接受无人驾驶有什么坏处”——比如,表达句式应该是“人类驾驶会比无人驾驶导致更多的人死于车祸”,而不是“无人驾驶可以拯救多少生命”。 

在这种逻辑下,对那些一看到有关无人驾驶汽车的事故就紧张的人,我们或许可以告诉他们:鉴于大多数事故的责任方都是“其他道路使用者”,那么,如果是把无人车换成人类驾驶员开的车,照样可能出事,并且,因为缺乏各种探测功能,可能出事后果会更严重。

来源:第一电动网

作者:建约车评

本文地址:

返回第一电动网首页 >

相关内容
全部评论·1
暂无评论
我要评一下