今年的广州车展,新势力品牌基本上都在D馆,而在D馆,我听到的最多一个词,就是「端到端」
理想今天在车展上分享、展示了一波关于智能驾驶端到端+VLM(视觉语言模型),双系统方案也是理想首创,「车位到车位首家全量推送」
万人团推送车位到车位功能,将随OTA 6.5于11月内全量推送
对用户来说,「端到端」可能不好理解,但能实现从车位这一端到另一端,带来的感知就极为强烈了
还是说说理想这套端到端+VLM的运转逻辑
车企早期的智驾中,往往都是依赖感知→决策→执行这个程序去进行,依赖算法规则去完成智驾操作
端到端更像一个「人」在开车,根据路面情况自行推理,直接输出决策
而VLM则需要在复杂场景中学习,理解现实世界复杂的交通环境和语义
这么说可能不太直观,理想举了两个例子
一个是潮汐车道,一个是公交车道
VLM会识别路面标志、地面文字,结合当前时间,再输出当前车道是否可以通行的信息给到端到端进行执行
你也可以把VLM理解为你脑子里负责处理额外复杂内容的区域,他只在最重要的时候跳出来,告诉你这个点不该走公交车道,省下一笔罚款
另外理想建立了云端的世界模型,收集智驾的「错题集」,再次用AI模型进行模拟训练,快速迭代
端到端保证通行,VLM在复杂路况及时护航,这是理想的逻辑
对于用户来说,你只要知道他具备学习能力,而且能从车位这端到那端,上车就能开智驾,就可以了
一个小细节是这场宣讲中多次提到了Open
AI,可见理想对AI的态度和专注程度
对于未来的规划,理想给出的时间表是,2027年,智驾像人类一样开车。
还有两年,见分晓