儿童节特斯拉在台湾再出事故,到底是车“作死”还是人作死?

文/吴鹏飞

6 月 1 日上午 6:36 分,一辆厢式货车在台湾一条高速公路上发生侧翻,当司机正在路边等待救援时,后向一辆疾驰而来的 特斯拉 Model 3 径直撞向了货车箱体,车头直至 A 柱部分几乎全部没入货车车厢内。

从视频上我们可以看到,当时 Model 3 的时速并不慢,在碰撞之前,Model 3 有过明显的刹车动作,但最终没有刹停。事故发生后,后车都及时发现了状况,所以后续没有发生更多的二次事故。


好在当时的货车拉的是一堆类似奶油一样的食材,所以缓冲比较大,撞上车体的 Model 3 外观虽然受损严重,但司机并无大碍。


据当事司机黄某事后回忆,当时他的 Model 3 开启了 Autopilot 驾驶辅助,速度在 110km/h 左右,看见侧翻的货车时想要刹车已经来不及了。当地警方对黄某进行了酒精测试并没有发现酒驾的行为。 

这起事故非常类似 2016 年在美国加州发生的 Model S 撞白色大货。当时白色大货车正在调头转弯,特斯拉与货车侧面发生碰撞,并从卡车底部钻过,整个车顶被彻底“削掉”了,驾驶员不幸身亡。


2019年3月,类似的事故再次发生,出事的 Model 3 同样在 AP 状态下撞上了一台白色货车,车辆削顶,驾驶员死亡。

前后三起事故都有一个共同点,一被撞车辆都近乎静止状态;被撞面都是大面积白色。(前两起事故更复杂之处在于货车的底部是悬空的。)

众所周知,为了节省传感器成本,特斯拉的 AP 驾驶辅助甚至更高级别的 FSD 都依赖一套视觉方案,也就是以摄像头为主,毫米波雷达为辅的传感器组合,并未用到成本昂贵的激光雷达。

(8 个摄像头、12 个超声波传感器和一个增强版毫米波雷达)


从感知层面来说,这套视觉方案有很多槽点。

法雷奥中国首席技术官顾剑民在接受采访时曾说过,“对摄像头来说,需要用机器学习来训练识别物体。但静态物体类别多,形态也千差万别,没经过样本训练识别不了。”

有人说,摄像头识别不了,那毫米波雷达也不工作吗?

事实上,毫米波雷达优点在于测速和测距,对于复杂类型的静物识别率并不高,用顾剑民的话说,“毫米波雷达几乎无法区分龙门架、道路侧面的金属标牌或道路上停放的静止汽车。”

理想汽车CEO李想也曾在微博上发表评论:“目前摄像头+毫米波雷达的组合像青蛙的眼睛,对于动态物体判断还好,对于非标准的静态物体几乎无能。视觉在这个层面的进展几乎停滞,哪怕是动态,车辆以外的识别率也低于80%,千万别真当自动驾驶来使用。”

那么摄像头和毫米波雷达对于静态物体就一点辙没有了?也不尽然。


只有经过足够多的样本训练加上日复一日的机器学习,系统才能清楚地区分复杂类型的静物,所以你会看到特斯拉在芯片研究上的不吝投入,其车载芯片的算力在业内也是首屈一指。

没有强大的算力,没有影子模式强大的学习能力,特斯拉这套“简陋”的传感器方案很难支撑高级别的自动驾驶。

随着芯片算力的不断跟进,机器学习的不断丰富,我们看到了特斯拉在识别层面的一些进步。比如 V10.0 版本后开始对雪糕筒进行识别了,但识别率上依然存在问题,出洋相的是,系统曾多次把新车车尾的红绳和柱子上的竖状反光条识别成雪糕筒……


所以即便天气条件没问题,摄像头能够正常工作,算力足够,系统也经过了长时间的机器学习,但出现识别 Bug 依然会作为概率事件存在,这是所有采用视觉方案为主的自动驾驶系统所绕不开的 corner case。

直白点说,只要机器以前没有学习过的,它就有概率出现问题。

前文提到的大面积白色车身,这个对于摄像头很麻烦。面对大面积白色,摄像头很难提取有效的特征点,加上白天的强光反射,这些特征点被进一步模糊。好比一个相机去拍纯白又光滑的墙,没有特征点就很难对得上焦。

你可以这样理解,在面对白茫茫的一片,摄像头等于什么都看不到,此时毫米波雷达也无法做到精细化的识别,系统很容易默认前方无障碍,细思极恐。

说回到本次事故,我反复翻看了视频,通过轮胎拉烟我们可以发现事故 Model 3 在距离侧翻货车大概 100 米左右时便进行了第一次制动,但并不果断;眼看刹不住了,车辆开始了第二次的大力制动,此时有很重的轮胎烟,ABS 有抱死的迹象。


从第一次制动到撞车,整个过程大概在五秒左右,如果第一次果断制动,刹车距离是够的,即便撞上的话,撞击力度也不会像视频那么大。

我的第一判断是,驾驶员走神了!正常人遇到这种情况一般都会第一时间制动或者铤而走险变道,不太会存在二次制动的可能性。再考虑到事故发生的时间,司机很有可能是周一大清早开车犯困了……

我猜想,第一次的刹车应该长距离摄像头识别到了有障碍物,AP 给出了刹车指令,但由于系统对障碍物的判测不明,这次刹车并不果断;

等驾驶员反应过来的时候,此时和前车的距离已经很危险了,大力制动已经为时已晚。


不管怎么说,这次事故大概率是要驾驶员自己承担全部责任了,L3 级自动驾驶以下,人类驾驶员仍然是车辆的主导者,分神这种事依然是不被允许的。

但话又说回来,如果这次 AP 能够强势介入,果断刹车,理论上事故损失可能就不会那么大。奈何目前特斯拉的自动驾驶技术并没有那么完善,尤其是这套视觉方案不确定性因素太多。

我咨询了自动驾驶公司文远知行的 CEO 韩旭,业内的说法很明确,对于上述提到的静态物体、白色反光等等,“使用激光雷达不会有这样的问题”。


自动驾驶公司禾多科技创始人倪凯认为,首先是驾驶员分心了,毕竟特斯拉目前的系统明确要求驾驶员随时关注路况的;第二就是计算机视觉技术需要更长的时间才能独立承担起安全件的高可靠性要求。

他的意思是,本起事故的核心原因一个是人类的分心驾驶,还有在于 AP 之前学习中没有见过这样的“车”,所以机器视觉一下子不知道怎么办了。如果 Model 3 搭载了激光雷达,那么台湾的这起事故是可以避免掉的。

当然,激光雷达也不是“包治百病”。相比特斯拉的纯视觉方案,倪凯更支持激光雷达+摄像头融合的做法,在一些小物体的识别上,激光雷达就有可能因为分辨率不够而识别不到,所以需要摄像头进行补足。

激光雷达虽然目前成本还居高不下,但结合摄像头可以确保感知层的万无一失。而固执的马斯克向来坚持性价比至上的视觉方案,并曾扬言:“傻子才用激光雷达。”这种自信面对一桩桩血的教训,特斯拉依然不为所动。

近四年过去了,同样的事故还在发生,我有理由怀疑特斯拉究竟有没有足够重视这样的“概率事件”,或者说仍然没有能力通过纯视觉方案克服此类问题。

目前来说,人类驾驶员依然是车辆的最高决策者,所以发生事故后提供驾驶辅助的厂商大概率是可以“免责”的。你唯一能做的就是好好开车,握紧方向盘,驾驶辅助绝不是你开车随便走神的理由。


本内容来自汽车之家创作者,不代表汽车之家的观点和立场。
车系: Model 3(进口)
0 +1
收藏
纠错/举报
5.5万关注 | 9475作品
+ 关注
汽车产业最具影响力自媒体
Ta的内容

下载之家app

113
评论
收藏
意见反馈