如何提高座舱芯片AI的算力?中科创达执行总裁常衡生:有两个办法
3月28日-30日,以“夯实电动化推进智能化实现高质量发展”为主题的中国电动汽车百人会论坛(2025)在京隆重召开!本届论坛汇聚20+政府有关部门领导、30+院士专家、100+汽车及相关领域的企业代表,共议汽车产业变革新路径。在30日召开的AI汽车论坛上,中科创达执行总裁兼智能汽车事业群总裁常衡生发表精彩演讲。以下内容为现场发言实录:
中科创达执行总裁兼智能汽车事业群总裁 常衡生
尊敬的各位嘉宾,大家下午好,我是中科创达的常衡生。
今天非常有幸能够在这个地方来分享一下中科创达在大模型上车的一些具体实践。刚才蔚来和长城的两位老总分享了他们在这个领域里面的一些想法、思考,胡总非常高屋建瓴地讲到蔚来AI的长远发展趋势,长城分享了他们具体AI落地方面的一些实践。
我今天分享的话题是围绕操作系统。我们聚焦在未来2-3年内AI大模型上车到底会发生什么,我可能主要讲这么几个大点。1、大模型上车到底为用户带来什么价值、到底有什么场景、能不能够帮助用户卖车;2、让大模型上车之后对操作系统,刚刚前面胡总讲对操作系统到底带来什么样的变化和变革;3、大模型对算力的高要求使得在端侧,在上车之后算力问题到底怎么去解决;最后,我们会给出来中科创达的一些相关解决方案。
首先,第一个大的端点,今天大家已经在行业形成了共识,大模型应该是端云混合的架构才能达到最好的用户体验。今天很多的车只是把云侧通用大模型接入车上面,非常像过去移动互联网接入汽车,这个可能不一定完全能带来更好的差异化用户体验。我们知道在车上面它是移动的,它需要第一时间响应、需要有一些隐私保护,也需要在断网时候能够持续服务。这样的话就要求很多的模型还是必须部署到端侧。
云侧目前的一些场景,比如问答、通用的个人助理、图文视频生成,继续保持在云端。但是在端侧围绕驾驶场景,怎么样安全可靠地驾驶,怎么样像老司机一样驾驶,怎么样让乘车的用户感觉到更加舒适,围绕这些,在车端反而可以打造更多的差异化用户体验。所以我们看到长城汽车也把端侧和云侧很多能力结合起来,这样打造一些不一样的场景。
今天所有人都在问大模型上车,所有人都在谈AI,但是大模型上车之后对于最终的用户到底有什么不一样的体验,我相信所有的车厂的研发者都在思考一个问题,除了像过去的导航、音乐、自动驾驶以外,第四个杀手级应用到底在哪儿?虽然现在大家还没有定论,但是我相信杀手级应用将来一定会和AI相关,而且到今天我们看到非常多的车上应用场景逐步开始显现出来,而且这些场景不是在PPT里面,不是概念,我们今天已经逐步把它落下来,走向商用、走向量产。
这里面具体分为这么几个大的场景。
1、非常典型的语音相关的,意图的理解加强。所以在端侧通过把语言大模型部署在端侧,实现非常高速的响应。上午我记得有个厂商说在云端的大模型今天的反应速度1.5秒,但是要像人一样自然交互,一般需要几百毫秒级响应,只有端侧部署才能实现。
2、多模态感知相关的。舱内和舱外感知,舱外的camera和雷达的识别,舱内的camera对于舱内的活体检测、驾驶员状态检测等方面。
3、能够达到差异化的就是增强现实,比如说在复杂的天气情况下,在晚上、在人眼对外侧环境观察相对比较弱的时候,可以通过车身传感器对周边的障碍物、标志物、建筑物能够很好地识别,从而能够帮助更加安全地驾驶车。
4、和记忆相关。用户的操作记忆,能够记住驾驶员或者车主整个习惯,从而自主做出推荐甚至自主操作。
刚刚的场景是我们已经和合作伙伴落地的场景,我们看具体的比如和视觉相关的。现在的环视大家都用,但是晚上周边非常暗的时候会看不清楚,我们可以用AI增强,在晚上暗光条件下可以像白天一样把周边环境看的非常清楚。右边用了一个视频,非常典型的,不是降噪,是用微光和弱光还原物体本来的面貌。
第二是通过AI加强过去的哨兵模式。现在人接近它就会发出一个警告,事实上大模型推理之后,通过对监控视频推理之后,只有真正对车本身有威胁的时候才会报警,能够真正做到大事不漏,小事不打扰。类似这样的场景我们今天已经逐步走向量产。这样的端侧部署的AI大模型上车之后,我们发现会带来一个大的变化和一个大的挑战。变化主要是前面胡总也提到了,讲到了AIOS。今天大模型上车之后,从根本上改变了今天操作系统的逻辑,我们知道历史上每一次交互方式的改变都会让操作系统发生迭代和更新,从过去键盘到后来鼠标、触控,到今天的端侧语音模型部署之后,使得人和机器能够真正实现自然的交互。过去完全以触控、以硬件的按钮作为交互逻辑的设计,到目前为止APP一定会发生变化。我记得去年这个场景下我提过“去APP化”,当时有很多同事在摇头,但今天我想已经没人怀疑这个事情了。因为你不再需要那么多的触控,不再需要那么多物理按键,可能过去很多步骤今天一句话就完成了,比如我想去我上一次去的火锅店,车会给你导航,它会通过记忆理解你的意思。这样我们讲APP会逐步变成智能体,变成Agent。当然不是所有的APP都会去掉,在相当长一段时间内可能Agent和APP还会同时存在,但是去APP化这个趋势我相信今天没有人怀疑。
在这样的情况下界面这么大屏,它的显示、UI逻辑就不是控制入口,而是以显示为主,这样更多的3D场景会显示。同样它的场景也不像预先设计的一堆的HMI,可能在你需要的时候自动生成,不需要的时候自动消失。即从过去的GUI到今天的VUI,基于语音的交互方式。相应的在操作系统层面,从底层模型的接入在显示方面整个逻辑都会发生变化,这是今天AIOS中间非常大的一个变化。
另外会带来一个挑战,当前汽车端侧所有的电子电气架构和芯片部署其实是对AI不友好的。大部分今天主流的座舱芯片AI的算力都是非常弱的,几十个T。来看非常典型的大模型用户场景,可能只能跑一点几个B、两个B左右的模型,所以推理能力相对有限。这么多场景逐步得到应用的时候,而且还不止一个模型,将来端侧会有很多模型,因为你会有很多很多场景。在这样的情况下,对算力的要求会急剧上升。所以我们看到今天运行一个7B以上,流畅运行差不多需要100T以上的算力,就像今天高通8650自动驾驶域控制器的算力。
在未来越来越多算力部署的时候,可能在算力上面我们预计可能在1-2年之内布置500T的算力很快就会来临,而且这个时候我估计不会太短,也许就是1-2年。
怎么解决这个问题?两个解决办法,在端侧。1、尽量布置大算力的芯片,我看各个芯片厂商主流的芯片不管NPU、CPU、GPU都在大幅上升,但是价格确实比较贵。当然这里面也呼吁一下,我认为大模型上车之后带来自动驾驶和座舱的融合,因为大算力之后最后不管是自动驾驶还是座舱都会变成CPU、GPU和NPU的算力。大算力控制器上车之后自然肯定会有一部分车型走向融合;2、如果不能部署大算力芯片,不是所有车都会部署那么大的算力,还有一个办法是加载一个小的AI Box,这也是今天中科创达推荐的一个解决方案,确保你对今天的电子电气架构不做大的变动情况下,可以实现我们前面讲的各种各样的AI场景。而且在今天我们讲自动驾驶平权,下一个可能就是AI平权,怎么实现AI平权,用AI Box是其中一个解决方案。
我们今天讲了,有这么多的大模型的应用场景,又有这么多的算力上的挑战,同时还有一些巨大的变化,我相信今天对于想用大模型的车厂或者上下游厂商来说都有一定的挑战,所以行业里面需要一个做AIOS的base。中科创达我们一直做操作系统,经过我们多年积累,我们把我们滴水OS操作系统本身就是面向AI原生的操作系统。这个里面我们做了四件事情:1、我们本身对各个主流芯片AI算力方面的支持,包括像英伟达、高通、AMD、英特尔,大家知道在不同的芯片平台上面工具链都会不一样,这个挑战我们已经提前去蹚了:2、我们和行业里面主流的大模型厂商本身就有很好的合作,像和面壁、火山引擎、微软的OpenAI,我们提前做了适配,今天还有一个词“适配爆炸”,今天太多的模型、芯片和平台,我们在前面做了这样一些适配;3、我们形成了一套AI中间件和Framework,使得大家用这套系统可以快速实现大模型的落地;4、AI Agent,通过多Agent的联合实现多个场景的应用。
滴水OS是一个支持支持AI在车上落地的架构,中间黄色的部分是刚刚提到的AI的中间件和Framework,能支持各种芯片和云侧、端侧大模型的接入。,包括前面讲的概念,我们有一个小的视频,演示一下滴水OS能实现什么功能,这是我们和面壁、火山引擎联合制作的这么一个大模型,是实车的。
(视频)
(视频讲解)这个是把云端火山的生态接进来,这个是车内多模态识别。这个是到站之后给你自动把车门打开,自动提醒。这是我们前面讲的云车的结合能力,并且跨多个Agent之间的协同。
滴水OS作为中科创达的一个操作系统平台,它不仅仅只有AI,它本身一诞生就是为了中央计算和AI而生的,同时支持全球和国内的应用生态,已经对主流的芯片进行了适配,我们也是开放的,也是希望能有更多的合作伙伴一起参与进来,我们也知道谷歌最近又把AOSP闭源,作为中国操作系统厂商我们是开放,希望更多合作伙伴加入进来,一起把中国的操作系统做的更好。
最后提一个也许明年我们可以探讨的话题,在今天AI越来越能够自主决策之后,我上次和一家车厂讨论,自主决策之后,怎么样防止AI误判和误操作,对车辆和乘客带来的危险。在自动驾驶情况下,不管怎么样,自动驾驶只要踩刹车就可以退出那个状态。但是刚刚我们在座舱里面还有很多场景里面,这个限制并不是那么容易做,这是我们现在在操作系统里面也需要做的一个事情和课题,也许到明年的时候再和大家做一个分享。
谢谢大家。
评论