2024年全国两会
确定

网站 > 原创视频-原创作品-原创力

李想:L3无监督的自动驾驶在三年内一定能够实

【视频/财圈社 小何】


我们在考虑如何把这样能力给到车上,就是VRM。视觉语言模型,为什么不是大语言模型?因为没有把一个大语言模型在云端使用。如何把一个视觉大语言模型进行足够压缩,最后放到车上去。他能够在面对一个没有红绿灯的左转路口提前作出预判,来知道我这个路口如何进行特殊的处理、进行复杂的处理,还有另外一个重要的功能,就是告别高清地图,也高徒所有清图在内的方式。为什么?因为视觉的语言模型还有一个最重要的功能,能够像人类一样去读懂导航地图。


包含导航地图的横向、纵向、速度、时间,包括红绿灯,哪怕车辆的遮挡红绿灯也不再成为问题。我们发现有效通过视觉语言模型解决系统2的问题,一方面为端到端进行一个兜底,另一方面解决各种各样泛化的问题。所以发现非常有意思,车的ADMAX(音)有两颗芯片,一颗跑端到段,另一颗可以运行压缩到大概20亿规模VRM(音)的模型。整个验证结果非常兴奋,认为最早在今年年底,最晚在明年上半年,真正有监督的L3自动驾驶就能驾驶,而不是做实验了。

所转载稿件如有侵权,请与我方联系删除;邮箱:daogecaijing@126.com

评论

暂无评论
已全部加载
x
保存图片

京ICP备19026526号-2