作者 | 德新
编辑 | 王博
2025年的车市即将迈入「金九银十」,各家头部车企在关键的辅助驾驶竞争上也摩拳擦掌,酝酿各自年度的大版本更新。
华为ADS4即将推送,并升级到WEWA架构;小鹏、理想、元戎选择了VLA,已经或者马上在新车推出新版大模型;地平线、Momenta则更强调强化学习,前者HSD新车马上要量产了,后者正准备R6大模型上车。
华为ADS4 WEWA架构, HiEV拍摄
如果用一句话来总结辅助驾驶在今年的趋势,那就是全面进入了「GPT时代」。这一代的辅助驾驶系统,普遍在车端的模型参数规模上已经超过了十亿参数门槛(1B),云端模型参数规模更是接近千亿级(100B)。
当然,与大语言模型相比,今天辅助驾驶「大模型」还在非常早期的阶段。但针对模型训练所需的数据规模,以及算力投入已经在显著地增长。头部的车企,包括吉利、理想、奇瑞等在内,云端算力储备已经超过10EFlops,各大车企加码云端算力以EFlops计算;头部公司今年增加的辅助驾驶里程,将以10亿公里计算。
在辅助驾驶的研发上,大模型主导的技术路线已经非常明确,车企的挑战从路线的摸索,转向对新范式下研发组织的变革以及效率打磨。
一、辅助驾驶进入GPT时代
在整个大AI领域,Scaling Law模型参数规模带来的算法性能收益仍在持续,辅助驾驶也追随这一定律。
OpenAI刚刚在8月初发布了GPT-5,其早前历代的大版本——GPT-2是15亿参数,GPT-3跃升至1750亿,而GPT-4达到了1.8万亿。历代模型随着参数加大,每代模型的能力都令人刮目相看,模型的训练成本也是直线飙升。
我们没有最新的GPT-5的数据,但是据此前Deep Trading创始人Yam Peleg爆料:GPT-4大约在2.5万张A100上训练了90 - 100天,利用率在32%到36%之间。业界估算训练算力成本将近8000万美元,耗电超过2亿度。
目前,就辅助驾驶的模型参数规模,进到端到端大模型后有显著的提升,车端参数规模在10亿级(几B),云端参数规模已经达到百亿级(几十B)。头部公司小鹏公布其在训练的云端辅助驾驶基座模型参数规模为72B,理想VLA的VL基座模型达到32B。
纯从参数规模角度,辅助驾驶云端大模型现在的发展阶段,介于GPT-2和GPT-3之间。
X
模型参数规模的增长,在车企的研发上是全链路的挑战。
车端视角下,过去BEV + Transformer的范式,需要的车端算力规模大概在100 Tops,现在需要数百甚至1000 Tops级的车端算力;典型的11V 800万像素摄像头,每天采集到的数据是数个TB。
云端投入也在高速增长期。吉利的星睿智算目前算力规模超过23 EFlops,理想最近公布云端算力超13 EFlops,奇瑞的天穹智算算力也超过了13 EFlops。光这3家加起来就接近50 EFlops,之前有行业预测称2028年国内车企总算力规模达到100 EFlops,如今看已经太保守。
除了资源上的压力,头部公司也在面临新的问题,比如MPI的增速放缓,又比如在超过10亿级里程积累后挖到有价值数据的难度越来越大,模型训练的周期也在被拉长。
总之,辅助驾驶在从70、80分,向100分挺进的路上,车企开始踏上最难的一段坡
二、车企破局「大模型」开发
在2025年轰轰烈烈的「全民辅助驾驶」运动里,保守估计国内市场至少50%以上的新车会搭载L2辅助驾驶系统,也就是一年1000万台级的增量。
尤其对传统厂商来说,今年会压力陡增,一个是车企的用户基数大,另一个是因为今年他们的辅助驾驶配置率拉得很快。比如长安汽车现在大概有2000多万的车主,奇瑞有超过1600万,长安预期今年会有数百万台的增量,而奇瑞则谈到今年辅助驾驶里程增加在20亿公里以上。
除了堆更高的车端算力,大模型带来的挑战大部分聚焦在云端的工作,比如训练算力、数据挖掘、模拟仿真等等。
以长安汽车为例,长安今年选了华为云CloudMatrix384超节点来做辅助驾驶的云端模型训练;前不久的智能汽车大会2025上,搭载华为云 CloudMatrix384超节点的长安天枢智驾重磅发布。
华为云CloudMatrix384超节点首创将384颗昇腾NPU和192颗鯤鹏CPU,通过全新高速网络Matrixlink全对等互联,形成一台「超级 AI服务器」,单卡推理吞吐量跃升到2300 Tokens/s。针对今年汽车行业大模型的趋势,华为云专门跟主流车企做了专项深度的优化,尤其是针对端到端和VLA的大模型。
前面我们提到过GPT-4在训练时,2.5万张A100利用率是32 - 36%,什么意思呢?这实际上是说,此时GPU的算力是够的,但因为一些原因没有「喂饱」浪费掉了,可能的瓶颈包括显存带宽、通信带宽等等。
而华为云CloudMatrix384超节点将算子从CPU向NPU下发,使用的不是传统的PCIe,而是华为自建的UB(Unified Bus),可以大幅加快算子的下发速度;而在显存带宽上,CM384是GB200 NVL72的2.1倍。
显存高就是在模型的训练过程中,可以喂得更快、算得更快,模型的参数规模也可以更大;对车企来说,就是同样电费,迭代更快,训得的模型更大。
在模型训练,除了计算之外,还有一大瓶颈是存储。
华为云在CloudMatrix384超节点的机柜中部署了AI-Native智算存储节点,是专为AI 全生命周期设计的存储解决方案,也是辅助辅助驾驶开发的加速器。
通过向量检索,其每次检索能返回的条数高达10万条;AI-Native智算存储还提供大模型训练所需的高缓存容量和带宽,到年底,其高性能缓存容量将增长到128PB,高性能缓存带宽将提升到12TB/s。
所谓「向量检索」,比如高速场景中会搜集海量数据,想找到「 前车车尾伸出了一根长长的钢管」,要从海量的场景中找到对应的数据堪称「大海捞“帧”」;使用传统的检索方法每次只能反馈一千条的结果,而华为云通过AI存储和向量检索结合,一次可以返回十万条的结果,大幅提高数据挖掘的效率。
目前,长安与华为云开展深度合作,基于华为云CloudMatrix384超节点及华为云高带宽、大容量的存储集群,成功实现了长安汽车自动驾驶模型的高效训练。双方已进行了VLA、端到端等多种自动驾驶模型的适配。
华为云通过AI上饱和式的投入,以及CouldMatrix384超节点、AI-Native存储等核心技术的创新,正在成为车企布局大模型的首选伙伴。
三、辅助驾驶,如何驶向更安全的未来?
伴随着开年的「全民辅助驾驶」运动,今年对辅助驾驶安全的关注也是空前的。
前不久在贵阳,华为云发布了全国首个具备大规模超节点的汽车专区 —— 华为云贵安汽车专区。
华为云贵安汽车专区发布,企业官方
华为云贵安汽车专区是专为汽车行业打造的云基础设施,依托分布式接入架构与全国高可用布局,实现低时延就近接入,保障用户在自驾游等跨区域出行场景中,都能享受到一致的智能辅助驾驶体验。
同时,多专区多活架构让系统可靠性大幅提升,实行车云时延降低60%,可用性达99.999%,让智能辅助驾驶体验更流畅、更可靠。
此前,华为云已建成业内首个 「 三可用区(3AZ)」乌兰察布专区,此次贵安专区上线标志着其第二大汽车专区落地。后续芜湖汽车专区上线后,华为云即将完成业内首个三专区上线。
未来,三大专区协同联动,将为智能辅助驾驶技术研发提供安全合规、低时延、高可用的基础设施保障,支持分布式全国就近接入,显著提升用户体验。
据了解,中国最大的智能驾驶辅助企业引望跑在昇腾云上,引望使用云上算力已支持100万辆车智能飞驰。
华为云在辅助驾驶的体验上还有一个重要的创新思路是,以云助车。
「 以云助车」方案为复杂的智能辅助驾驶场景提供澎湃动力,已帮助车企落地泊车与低速巡航场景:一方面将难例泊车成功率提升15%,另一方面借助云端大模型辅助优化端到端泊车效率,让准备出行的用户享受更轻松的驾驶过程。
真正「大模型」时代对车企的挑战是日新月异的,用华为云中国区Marketing与解决方案销售部部长刘飞的话「华为云帮助车企造更智能的车」。目前,已有5000万辆智能网联汽车由华为云提供服务。