
许多消费者认为只有当无人驾驶做到「绝对安全」时才能被广泛应用,甚至进入法律。关于这一点,之前有文章已经提到,无人驾驶更切合实际的标准应该是比人类驾驶水平足够优秀即可,因为无人驾驶不可能做到「绝对安全」。
1「绝对安全」的误解
如果认为「无人驾驶」需要做到绝对安全才能被写进律法,那么可以断定「无人驾驶」永远不会取得合法地位,因为时至今日尚没有一款操作系统或者硬件可以保证完全零失误。即便有企业发布声明表示,自己的操作系统和硬件可以做到零失误,也只是基于当下的科技发展水平。

当然,增加备用系统是一套不错的解决方法,即当一款系统出现故障时,另一套备用方案立即启动,这是一套切实可行的办法,在不计较成本投入的前提下,软件层面的失误可以降低大部分。
既然无法达到「绝对安全」,我们又该如何针对「无人驾驶」进行安全评级呢?虽然之前提及,智能机器驾驶汽车只需要高于人类驾驶水平即可,但问题是该如何衡量人类的驾驶水平,智能机器的驾驶水平又需要高到何种程度才能被消费者接受?
「无人驾驶」的驾驶水平一定要高于人类,即便只是和人类驾驶水平相当也不能取得人类的认可。
在人类看来,一个普通人驾驶车辆由于疲劳、醉酒等等原因导致的车祸,可以迅速的「被原谅」,仅仅因为事故原因简单明了,责任明确,只要强加约束人类不良行为习惯即可。当「无人驾驶汽车」发生事故时,并不会被原谅,反而会引起整个社会的公愤,原因在于事故原因不可预测,消费者只会将原因归于「无人驾驶」的不可靠。
如果将「无人驾驶」水平设定为人类驾驶驾驶水平的两倍,那也就意味着「无人驾驶」汽车每40万公里才会出现一次保险理赔,或者每34年才会出现一次事故。针对事故和保险理赔金额再进行更加详细的评级,则很容易得出量化「无人驾驶」驾驶水平的体系。
这样的体系对于消费者来说显然更容易接受,对汽车制造企业来说也更加简单,汽车安全或许会成为所有汽车企业共同参与创建的云数据库。因为对于汽车安全来说,需要不断重复的测试,但这对机器来说就更加简单了。
问题是,不同汽车未来并不会因为拥有相同的云数据,就会具备一致的安全能力,不同价位不同配置的车型依然会拥有不同的安全系数,这种安全系数同样可以以高于人类驾驶水平的能力评价,比如高于人类驾驶水平2倍,3倍或者5倍。
3民航飞机对无人驾驶的启发
无人驾驶的政府监管则可以借鉴民航飞机数十年来的发展。如今民航飞机每200万次飞行出现一次故障,相比上个世纪50年代大概提升了100倍,而且因为安全性的提升,飞机已经可以更加安全的执行更长时间、更长里程、更快速度的飞行任务了。
同样由于系统的不稳定性,美国联邦航空管理局就要求飞机需要高度模块化和冗余设计的操作系统,比如在飞机上关键物理结构需要有双重或者三重的防护设计,比如燃油管路需要双层护套,当内侧油管发生泄漏时,外侧油管不光可以承接泄漏并可以侦测报告。
这些分离的系统之间还需要保持联系,当其中一个系统发生故障,其他程序可以在一定程度上承接,当遇到多个系统反馈不一致时,系统内部可以通过「投票」得到解决方式。
除此之外,无人驾驶所有的线缆和车载电脑应该远离人体,避免人为的故意损坏,同时「无人驾驶」汽车还会被要求安装第三方或者政府机构的监督软件,记录系统的操作过程,以便解决纠纷。
过去,消费者购买汽车大都衡量汽车的动力水平、变速箱匹配,但随着「无人驾驶」汽车的普及,未来消费者的决定因素会逐渐转移到安全系数上,越高的安全系数意味着技术越先进,传感器越复杂等等。
图 | 来源于网络
About Astoncar
爱车,更多一点
雅斯顿 | 以消费者的目光探讨汽车,分享更多原创真实的汽车观点
Contact us
gao@astoncar.com