2024年全国两会
确定

网站 > 2025中国电动汽车百人会论坛

黑芝麻智能单记章:2030年几乎所有的车辆都会实现城市NOA的功能

3月28日-30日,以“夯实电动化推进智能化实现高质量发展”为主题的中国电动汽车百人会论坛(2025)在京隆重召开!本届论坛汇聚20+政府有关部门领导、30+院士专家、100+汽车及相关领域的企业代表,共议汽车产业变革新路径。在29日召开的高层论坛上,黑芝麻智能科技有限公司创始人兼CEO单记章发表精彩演讲。以下内容为现场发言实录:



尊敬的各位领导、各位同仁,大家好!我是黑芝麻智能科技有限公司创始人兼CEO。今年百人会论坛的主题是“夯实电动化推进智能化”,从2016年开始,黑芝麻主要聚焦在在智能AI芯片方向默默耕耘,非常荣幸去年成功IPO。今天讲的题目是《全“芯”构建全场景智驾新生态》。

智能驾驶最重要的一个部分就是安全可靠的AI计算能力。过去几十年摩尔定律推动了计算速度的高速发展,过去几微米就是最先进的,现在已经进展到2纳米量产,后面到1纳米,物理的技术的进化在推动计算速度的高度发展。但是自从AI神经网络在理论上突破之后,计算架构发生了巨大变化,从CNN的神经网络转移到现在以Transformer为基础的各种各样的大模型,算法也是从数据驱动转到数据和知识驱动。这个对计算能力、计算架构的需求提出巨大的挑战。过去我们(评价算力)的是CPU计算能力都是几百、几十K DMIPS,现在AI的计算能力都是几百TOPS、几千TOPS,实际上差了千倍万倍的区别。智能驾驶在算法,特别是去年端到端算法和高算力AI芯片的推动下,智能驾驶出现突飞猛进增长,今年大家说智能驾驶大规模量产的元年,从现在往前看,除了智能驾驶之外,大模型在云端的应用突飞猛进,从过去ChatGPT,到后来SORA,再到现在DeepSeek,这些在云端上面的应用。

同时我们也看到各种各样的具身机器人、人形机器人、四足机器人等各种各样的机器人大量涌现,未来大家会在自己的生活、生产中看到各种各样的具身机器人大量涌现。大量应用的涌现会推动计算架构进一步往前发展。

从计算速度到计算能力的大幅突破之后,后面面临主要大的问题是带宽的问题。参数量都是几B、几十B、几百B的参数量,对带宽的要求非常高。前几天英伟达GTC上面看到他们参数的展示,包括Thor算力700多TOPS,对比Orin X的200多TOPS,算力提升了三倍多,但是展示出来的性能只提升了一点几倍,最高到两倍,主要原因就是带宽的限制。下一步的突破应该在带宽上面,从半导体的设计、应用来讲,大模型会推动端侧推理、端侧应用的时代。

2023年提出来L3级别的自动驾驶在五年内具备可行性,现在来看这个判断非常正确,今年的智驾平权,智驾大幅推广。2024年提出一个观念,NOA会下探到10万级别的车辆。比亚迪和吉利今年年初率先推出全民智驾、智驾平权,一些分析报告中的非常多的分析数据验证这样的观点,智能驾驶会爆发式增长,会全面覆盖所有的智能汽车。2024年NOA不光是高速NOA,包括城市NOA价格成本会大幅下降,普及到主流车型。一些分析报告显示,2023年主要是高速NOA,2023—2024年上半年高速NOA普及,2024年下半年开始,城市NOA开始普及,因为端到端模型也在高速的普及。

往前看,报告指出2025年底乘用车的NOA渗透率达到20%,2030年几乎所有的车辆都会实现城市NOA的功能。

基于这些认知,黑芝麻智能一早布局了底层的芯片,2020年推出的16纳米工艺的车规级计算芯片(A1000)。2023年推出在电子电气架构往中央计算推进的过程中非常重要的一颗芯片,就是我们做到四域融合,C1296;同时在智驾上面进一步升级C1236,基于7纳米工艺的芯片,可以全方位实现城市NOA功能。今年我们把最新的芯片A2000送到客户的手里,这颗芯片非常重大的突破就是AI计算效率重大突破,后面展示一些性能参数。

A1000从2020年推出之后经过五年,我们非常自豪地可以说,在中国传统自主品牌的乘用车上面,我们无论是从量产的车企,还是量产的车型,我们都排名第一。在全球出货的芯片里面排名第三,占有的市场份额12%点多。这是非常自豪的一件事情,这颗芯片现在是16纳米工艺,稠密算力58TOPS,相当于100多T稀疏算力。我们还在持续拿到定点车型,现在持续得到一些量产,得到超过20款车型和新的定点。

刚才说到武当系列C系列的芯片,这颗芯片是全球7纳米里面集成度最高的一颗芯片,集成了四个域的功能:座舱、驾驶、车控、MCU。可以为智能驾驶从系统的角度大幅降低成本,今年预计会是全球第一颗多域融合的单一芯片控制器量产。

A2000这颗芯片有非常多的创新,支持单芯片除了高阶智能驾驶之外,还可以做到数据闭环。另外,支持非常灵活的拓展,可以多芯片互联,做到非常高速的芯片互联、多芯片封装在一起。

对于这颗芯片里面最核心的部分,神经网络的计算,我们有非常多的创新。第一个创新,对于像LayerNorm、Waping这样的Faction各种各样非线性的计算我们都有加速,同时对AI计算里面大量需要的memory数据类型的操作、数据排序的操作专门有硬件的memory reshape engine。对于自动驾驶来讲安全,过去大家讲的安全都是CPU的安全,我们把A2000这颗芯片的神经网络engine做到神经网络计算的冗余备份安全、冗余计算安全。

这颗芯片支持的灵活性非常高,不光支持INT4、8、16,同时也支持FP8、FP16,可以让用户非常快速地部署训练出来的模型,可以不用做combination,把训练的浮点模型直接部署,直接高效各种各样的优化方式,稀疏、各种大模型的部署,除了支持基于transformer大模型之外,支持MoBA模型,支持Liquid基础模型。

从效率方面,用了几个比较典型的模型对比,包括CNN模型、transformer模型,这些数据模型可以从公开渠道拿到。蓝色的英伟达Orin计算结果,模型芯片上面得到的帧率,绿色的框是当前最新的芯片Thor 770T算力的芯片,这颗芯片有可能没有完全优化,我们做了预测,灰色的优化可能达到50%,黄色的是A2000的性能,实际跑出来的性能。ResNet50,Orin是56,Thor是201帧/秒,预计可以优化到300帧,A2000跑出来是328帧,实际超过它。

EfficientNet Lite0对比友商的数据快非常之多。

BEVFormer运行出来的结果,可以看到预计它们的帧率到140帧,但是A2000超过200帧,从这些上面来讲,我们的A2000其实计算的效率非常之高。另外,相信大家都关注到过去这一段时间美国《芯片法案》,包括台积电在加码《芯片法案》的执行,其实对我们用比较低等级的制程达到高效率的计算能力其实是非常重要的。我们用7纳米的工艺达到了甚至超过4纳米工艺最先进的芯片,未来我们还面临着带宽的挑战,相信大家都关注到HBM,台积电制作的芯片不可以拿出来用别的地方TSV工艺,也是非常大的一个挑战,未来怎么突破,怎么解决高带宽的问题,这个是我们下一代芯片要解决的问题。

A2000最早的应用方向就是智驾,单芯片可以部署VLM+LLM(快模型+慢模型)在同一颗芯片上面,同时可以部署数据闭环。我们会在很短的时间之内打造一个样板间,欢迎同行朋友去试乘基于A2000部署的车辆。A2000是非常通用的计算芯片,也会提供端到端完整的参考模型。除了智能驾驶的应用之外,我们这颗芯片还可以用于各种通用计算,包括各种端上面的应用,各种具身机器人、推理卡,过去中国很多地方装了监控传感器,现在主要靠人看,非常低效。一颗芯片可以接96路视频做AI大模型的分析,这个应用非常广泛。

另外,机器人,A2000和C1200结合起来,可以解决所有智能机器人的AI智能计算。C1200有非常丰富的接口,可以简化所有关节的设计,把真正需要的计算全部送到芯片里面,C1200做计算。A2000可以作为大脑计算,部署各种各样多模态的大模型,语言模型。

回归到当时设计A2000的初衷,希望A2000赋能端到端VLM、VLA和算法实现全场景通识智驾。我们认为2026年通识智驾大模型将实现大规模量产和上车。我们希望做到的一个功能,从家里停车位出发,自动泊出停车位,开出停车场,通过匝接口进入城市道路,经过人车混杂的各种复杂场景,通过十字路口,上高架,穿过隧道,甚至包括环岛复杂的场景,进入到公司的停车场,泊入停车位,单芯片实现通识全场景智驾功能。

我的演讲就是这些,谢谢大家!

所转载稿件如有侵权,请与我方联系删除;邮箱:daogecaijing@126.com

评论

暂无评论
已全部加载