理想用端到端和VLM,让智驾进入AI时代

今年的广州车展,新势力品牌基本上都在D馆,而在D馆,我听到的最多一个词,就是「端到端」

理想今天在车展上分享、展示了一波关于智能驾驶端到端+VLM(视觉语言模型),双系统方案也是理想首创,「车位到车位首家全量推送」


万人团推送车位到车位功能,将随OTA 6.5于11月内全量推送

对用户来说,「端到端」可能不好理解,但能实现从车位这一端到另一端,带来的感知就极为强烈了


还是说说理想这套端到端+VLM的运转逻辑

车企早期的智驾中,往往都是依赖感知→决策→执行这个程序去进行,依赖算法规则去完成智驾操作


端到端更像一个「人」在开车,根据路面情况自行推理,直接输出决策

而VLM则需要在复杂场景中学习,理解现实世界复杂的交通环境和语义


这么说可能不太直观,理想举了两个例子


一个是潮汐车道,一个是公交车道


VLM会识别路面标志、地面文字,结合当前时间,再输出当前车道是否可以通行的信息给到端到端进行执行

你也可以把VLM理解为你脑子里负责处理额外复杂内容的区域,他只在最重要的时候跳出来,告诉你这个点不该走公交车道,省下一笔罚款


另外理想建立了云端的世界模型,收集智驾的「错题集」,再次用AI模型进行模拟训练,快速迭代


端到端保证通行,VLM在复杂路况及时护航,这是理想的逻辑


对于用户来说,你只要知道他具备学习能力,而且能从车位这端到那端,上车就能开智驾,就可以了


一个小细节是这场宣讲中多次提到了Open

AI,可见理想对AI的态度和专注程度


对于未来的规划,理想给出的时间表是,2027年,智驾像人类一样开车。


还有两年,见分晓

本内容来自汽车之家创作者,不代表汽车之家的观点和立场。
标签: 品牌分析
0 +1
收藏
纠错/举报
619关注 | 571作品
+ 关注
一个看车和开车的人
Ta的内容
0
评论
收藏
意见反馈