
无人驾驶的研发过程中,人类是否高估了自己对意外状况的控制能力?人类是不是一定要作为无人驾驶逻辑里的核心,这种研发逻辑能否有效诞生无人驾驶,其实是这个领域里一直在争吵的话题。
为此,正如上一篇文章提到的那样,谷歌和传统车企分成了两派,各有各的说辞。当然,对大多数人来说,以人为本的渐进式开发无人驾驶最容易被接受,因为这种方案至少在航空领域已经被证明是可行的,坚持由人做决策的观点自有其独特的吸引力。
只是,有没有可能,真理只掌握在少数人手中,否则谷歌为何会选择跨越式的无人驾驶路线?

外科医生借助机械臂完成手术,如果发生事故,必然是医生的责任,人类借助智能软件实现自动驾驶,那责任该由谁来承担呢?抑或者,软件在驾驶行为中该负责哪部分操作,人类又该负责哪部分内容,这些都没有严格的边界。
从根本上讲,一群人从事一项工作的失败概率要远远大于一个人,因为负责完成任务的不同成员可能会觉得遗漏一些事项也不要紧,他们会理所当然的认为其他人会补上,如果双方都这么认为,那么任务就会失败。
无人驾驶中,如果在碰撞将要发生之际,软件认为人类此次必须进行介入,而人类则坚定相信软件,最终事故就会发生。
2018年3月,一辆Uber的无人驾驶汽车在进行路试时发生事故,与一位手推购物车横穿马路的年轻女性发生碰撞,导致一人死亡。
这件事情直到今年法院方才宣判,此事责任无需由Uber无人驾驶系统承担而是由驾驶员承担,原因在于驾驶员在路试期间一直在用手机刷视频,当车辆提示驾驶员需要接管车辆时,无人驾驶和人类之间「权力交换失败」。
基于这项实验,谷歌认为无人驾驶汽车是不存在中间地带的,也不存在所谓的「权力交接」,人类就不应该和软件共享方向盘,这种观点看似极端,但却是充分考虑到消费者人身安全,最谨慎和明智的发展路线。
第一,自动驾驶会诱导驾驶员投入到另外一件事情上,比如看书、玩手机、看视频,这将直接导致驾驶员注意力从道路上移开;
第二,自动驾驶会损害驾驶员的情境意识,或者说妨碍驾驶员对驾驶环境中关键因素进行识别,并作出迅速恰当的反应。
这两个因素结合起来,会导致分心的驾驶员完全不知道车外面发生什么事情,进而清晰的说明驾驶中「责任分散」是十分危险的。
大结论是所有年轻人都认为驾驶过程中使用手机是一种极度不安全,对自身安全不负责的行为,但他们不认为自己在等红绿灯间隙用手机发消息属于上述行为范畴之内。同时,每个人对「开车时使用手机」有自己的一套判定标准,比如有人认为开车时刷一下微博不算,自拍也不算。
可见就是传统汽车驾驶,人类尚且如此,更何况提供了不错性能的自动驾驶系统呢。人类现在十分信任无人驾驶系统的未来,但遇到危险,无人驾驶系统是无法将人类从沉睡中唤醒的。同时谷歌还提出,如果驾驶员长期不驾驶汽车,其驾驶技能会逐渐退化,遇到危险无法躲避的概率将大大提高。
根据谷歌的月度活动报告,谷歌的无人驾驶汽车在过去的数年里总共只发生了17次轻微交通事故和1次备受关注的与公交车低速碰撞事故,而17次轻微事故中,主要责任都不是无人驾驶汽车而是另一方人类驾驶员。
与公交车碰撞的那次责任属于无人驾驶汽车,因为无人驾驶汽车错误的判断自己继续向前行驶,公交车会主动停车避让。
在这场高风险、全球性汽车行业的博弈中,胜负始终难以预料,而这一切取决于政府,如果政府通过法令支持「人类决策」的渐进式策略,那么汽车企业就是赢家,并将继续掌控汽车行业;另一方面,如果法律允许,从安全角度出发要求无人驾驶汽车必须实现完全自动化,那么软件公司就会拔得头筹。
这还是一个继续的复杂的争论。
图 | 来源于网络
About Astoncar
爱车,更多一点
雅斯顿 | 以消费者的目光探讨汽车,分享更多原创真实的汽车观点
Contact us
gao@astoncar.com