为什么所有汽车“智驾”,都要当“弱智”看?

“智驾”被炒成汽车圈热词,也引来不少误会。最常见的误会,一是“智驾”被误认为是自动驾驶,二是某些车主错误地认为配备“智驾”的车更安全。

“智驾系统”、“专属AI司机”、全域领航、NOA、FSD……汽车品牌都是语言高手,这些新词都不直接说“自动驾驶”,但天真质朴的群众一听,就自动误会了。

然而,目前全球面向大众市场的最顶尖“智驾”依然没能突破L2级,有的厂商自作主张在L2后边添加号,一个不过瘾就多来几个,但就算L2+++也成不了L3。

简单来说,L2并不是自动驾驶,只能算“驾驶辅助”,现在各种所谓“智驾”,最大的价值就是能让人开车轻松点。升到L3级别才能叫“有条件自动驾驶”,这个“条件”就是,你依然不能完全相信车子的智能水平,仍要做好必要时接管的准备。

各种所谓“智驾”,皆为“驾驶辅助”

L2能在一定程度上控制车子行驶,减少人类开车时手脚的动作,减轻驾驶疲劳;另外,理论上还能靠各种传感器感知判断周边环境,协助车主采取刹车、避让等动作,降低车祸风险。

但目前这些所谓“智驾”真的能让开车更安全吗?

十分遗憾,尽管不少汽车厂商声称自家的“智驾”能提升安全(比如马斯克说Autopilot的安全是普通车8倍,FSD将比人类开车安全10倍),但美国权威汽车安全测试机构IIHS近期发布的结论却完全相反:

“部分驾驶自动化是一项便利功能,旨在让长途驾驶变得更加轻松。没有证据表明它可以使驾驶更安全,而且事实上,它会让驾驶员的注意力更容易分散,从而带来新的风险”。

IIHS正在推进一项新的评级项目,对装备智能驾驶辅助系统的车辆防护等级进行评定。所谓防护等级主要涉及两方面:一是防止误用,二是确保驾驶者开车时注意力集中。

IIHS认为“智驾”容易导致开车分心(图据IIHS)

现在很多带“智驾”的车子出现追尾、失控、幽灵刹车等事故,厂商为逃避责任,往往归咎于驾驶人“误用”。IIHS的新评级,就是对防止误用的措施提出了具体要求。

“误用”还包括一种情况:“滥用”。我们已经看到,汽车厂商用“擦边”新名词进行误导性营销,并且用“全国都能开”、“全程零接管”之类的煽情描述,让车主误以为车子可以自动驾驶,甚至导致有些车主谜之自信,开车时以“大撒把”为荣。

IIHS的新评级,要求车子能监测驾驶者的视线和手部动作,如果发现驾驶者滥用“自动驾驶”,开车时没有看路或者手离开方向盘,汽车要以声音、视觉、座椅振动等多种方式发出警告;如果警告无效,要启动减速等应急程序。

IIHS新评级要求“智驾”对驾驶人行为进行监测提醒(图据IIHS)

IIHS新评级对我们的启示是:如果驾驶者过度信任甚至是滥用“智驾”,会让他们开车时分心,在突然遭遇紧急情况时无法及时有效处理险情,从而导致车祸风险增加。

为什么现在的“智驾”都不够智能,也不够安全?

最根本的原因,在于人工智能目前还有一些难以克服的缺陷。

所谓自动驾驶,是让汽车自主模仿人类的驾驶行为,像人类驾驶者一样开车。这一方面需要“眼睛”,用摄像头、雷达之类的硬件去感知环境;另一方面需要“大脑”,用人工智能去判断、决策和操作车辆。

自谷歌公司2008年启动自动驾驶项目以来,自动驾驶主要有两种路线。

一种是“规则派”。汽车的感知、决策、执行都依赖人类工程师预先编写好的规则,这些规则存在于一行行代码中,代码数量会多达数十万行。

这个流派的主要缺陷有两种:

一是会面临没完没了的“长尾问题”。在现实环境中开车,会面对各种各样的场景,就算模型中预设好了99.9%的规则,剩下的0.1%罕见场景还是无法合理应对。

“智驾”仍有大量潜在风险

二是代码错误。人类工程师编写代码难免出错,在几十万行的代码中不可能没有错误代码,你不知道那些隐藏着的错误代码什么时候会“爆雷”,引发车辆失控等严重后果。

最新的流派是“transformer”派

在过去5年中,transformer深度学习构架彻底改变了人工智能。Transformer开启了生成式人工智能新时代,现在那些炙手可热的AI模型和产品——聊天机器人ChatGPT、图像生成工具Midjourney、视频生成工具Sora等等,都是基于transformer构建的。

transformer始于谷歌8位科学家2017年发表的一篇论文(图据FT)

在汽车自动驾驶领域,视觉transformer也公认是最有前途的研究方向,特斯拉2021年发布的FSD应用了transformer架构,国内很多厂商也随后加入这一赛道。

Transformer看上去前途无量,但也远谈不上完美。它效率更高,扩展性和通用性更好,但训练模型需要消耗恐怖的算力(或者说天量资金),特斯拉拥有的算力已经是其它车企的数倍,但这远远不够,今年马斯克要在算力上追加100亿美元投资,并声称是这是做自动驾驶最基本的门槛。

另一个难以逾越的障碍是“黑盒问题”。基于transformer的模型都是“黑盒”,它们的内部运作过于复杂和不透明,人类无法准确理解它们的行为方式。这也就意味着,如果模型偶尔输出了一个异常结果,人类也束手无策。

“黑盒问题”可能会让ChatGPT说出一句不着四六的话,也可能让Midjourney输出一张古怪的图像,你可以对这个结果付之一笑。但如果“智驾”汽车突然出现幽灵刹车、意外加速、错误转向,谁能笑得出来?

特斯拉FSD时常牵涉碰撞事故(图据NBC News)

Transformer也许能把汽车自动驾驶带上金光大道,也许它也只是个过渡性技术,一切尚未明了。

在烧掉超过100亿美元之后,苹果公司今年初关闭了研发10年之久的汽车项目。项目失败最重要的原因之一就是,苹果把赌注押在了完全自动驾驶上,而事实证明,即使是全球最顶尖的科技公司,也没能找到实现汽车完全自动驾驶的清晰路线。

人工智能远远没有那么强大,目前所有的“智驾”都是处在实验探索阶段的半成品,如果你比较在意自己和家人的安全,还是谨慎使用为妙。即便车子装备了“智驾”,也要专心驾驶,别信什么“全程零接管”、“想撞车都难”之类的鬼话,也许你轻信“智驾”100次也安然无恙,但只要有一次出现意外,就是你无法承受之重。

本内容来自汽车之家创作者,不代表汽车之家的观点和立场。
车系: 问界M7 理想L9
标签: 技术解析
0 +1
收藏
纠错/举报
1.9万关注 | 524作品
+ 关注
车评人
Ta的内容
1
评论
收藏
意见反馈