当前位置: 首页 » 资讯 » 新科技 » 正文

小鹏北大VLA论文入选顶会!用“小模型”跑赢大模型,推理提速4倍

IP属地 中国·北京 车东西 时间:2025-12-29 14:17:55


车东西(公众号:chedongxi)
作者 | Janson
编辑 | 志豪

端到端自动驾驶大模型可以“脱离云端、直接上车”了?!

车东西12月29日消息,日前,北京大学与小鹏汽车团队的最新研究成果FastDriveVLA被人工智能顶会AAAI 2026收录。


▲小鹏官宣此次获奖信息

这次双方研究的内容并非实验室里的纸上谈兵,而是通过一个参数量仅为0.07B(7000万)、计算开销几乎可以忽略不计的即插即用模块ReconPruner,硬生生将VLA大模型的整体计算量(FLOPs)削减了7.5倍。

要知道,车端算力“寸土寸金”,它打通了高性能AI算法与量产硬件之间的“天堑”。

这意味着原本需要昂贵算力集群支撑的端到端大模型,现在已经具备了在英伟达等主流车载芯片上实现低延迟、高响应运行的能力。

AAAI2026作为人工智能领域的CCF-A类顶级会议,北京大学与小鹏汽车的研究论文被这样的顶会收录,也说明了其研究内容的价值。

一、车机算力有限 让AI学会“只看重点”

在智驾系统进入“端到端”时代的当下,VLA模型展现出的拟人化推理能力也让自动驾驶进入到一个新高度,但随之而来的“算力黑洞”也让工程师们倍感头疼。

举个例子,为了让AI看清复杂的十字路口,系统必须将高清图像切碎成数以千计的Token喂给大模型。

这样就造成了一个问题——视觉Token的通胀,在毫秒必争的驾驶决策中,庞大的计算量直接导致了车机“跑不动、反应慢”,甚至可能出现因推理延迟导致的系统卡顿。

此前,业界并非没有尝试过对这些Token进行“剪枝”去重,但效果不稳定,像盲人摸象。


▲三种剪枝策略对比

传统的注意力剪枝法(Attention-based)过度依赖文本指令,但在自动驾驶场景下,简单的驾驶指令往往无法提供足够的辨识权重,导致系统为了追求极致速度,可能会在不经意间删掉远处微小的红绿灯或障碍物。

而另一类基于相似度的剪枝法(Similarity-based)则过于追求视觉上的多样性,它们可能会为了保留独特性而记录路边的野花和天空的流云,却忽略了对决策至关重要的、平淡无奇的路面信息。

对此,北京大学和小鹏汽车团队合作的FastDriveVLA引入了极其朴素的“人类驾驶直觉”。

就像老司机在开车时,视网膜会自动过滤掉高耸的建筑和空旷的天空,瞳孔始终锁定的只有路面、行人和周边的车辆。

这种对“前景信息”的专注,正是FastDriveVLA的方案逻辑核心,AI不再对整张图像进行全量计算,而是精准捕捉并保留关键的前景Token。

这种思维转变,让AI对算力的要求减少7.5倍,也避免了算力的浪费。

二、ReconPruner 一个0.07B的“超级过滤器”

能实现上边的这种效率的提升,离不开ReconPruner这个参数量仅为0.07B的微型模块。如果说VLA模型是整车智驾的“大脑”,那么ReconPruner就是一个敏锐且轻量化的视觉中枢。

在AI领域,优化庞大的模型通常意味着动辄数万美元的重新训练成本,但ReconPruner这7000万参数的量级对于动辄3B起步的VLA主模型来说几乎可以忽略不计。


▲FastDriveVLA总体架构

它能够以即插即用的方式无缝集成到Qwen2.5-VL等大模型上,这种设计不仅极大地降低了量产部署的门槛,也让现有的智驾模型可以低成本升级,而无需修改主模型。

但真正让ReconPruner产生质变的,是一套被称为“对抗重建(AFBR)”的设计逻辑。

这套策略本质上是系统要求ReconPruner利用选中的Token尝试还原画面,如果它选出的Token确实包含了车辆、车道线等核心前景,重建出的画面质量就会更高。

反之,如果它关注了背景,重建结果就会不理想。

为了防止AI在这一过程偷懒,研究团队还引入了对抗博弈机制,强制要求模块必须在前景和背景之间做出明确的价值判断。

在这种严苛的训练下,ReconPruner被打磨成了一个能精准锁定关键驾驶目标的过滤器。

而支撑起这套“视觉本能”的基础,则是北大与小鹏团队潜心构建的nuScenes-FG数据集。


▲nuScenes-FG数据集

这套包含24.1万对高质量标注图像的数据集,对复杂的交通环境进行了像素级的拆解,将车辆、行人和道路边界等关键前景从杂乱的背景噪声中剥离出来。

正是这些海量的、带有标准答案的教材,喂出了AI的驾驶直觉,让FastDriveVLA能够在大模型处理海量视觉流的瞬间,精准切中影响安全的核心关键。

三、计算量缩减7.5倍 AI反而变聪明了?

在科技产品的迭代逻辑中,人们往往习惯了性能越高,功耗越高的直觉,但FastDriveVLA在测试场拿出的硬核数据,却展示了一种“反直觉”的进化。

从算力开销来看,FastDriveVLA对冗余信息的修剪堪称“暴力”。在nuScenes基准测试中,VLA模型的整体算力开销(FLOPs)从原始的38.2T骤降至5.1T,整整实现了7.5倍的缩减。


▲不同模型效率分析

这种算力压力的释放直接反馈在了推理速度上,这套模型在预填充阶段(Prefill)实现了3.7倍的提速,而解码阶段(Decode)也提升了1.3倍。

对于智驾系统而言,这省下的每一毫秒,都是为突发情况争取时间。

除此之外,性能的反常识增长也是这个模型的关键能力。


▲不同模型的性能对比

实验数据显示,在将视觉Token剪枝25%的情况下,FastDriveVLA在L2轨迹预测误差和路面边界交集率等核心指标上,超过了未经过任何剪枝的完整模型。

这就引发了一个值得思考的问题,为什么小模型反而比“大模型”更聪明?

从这个模型设计原理中不难看出,当下,冗余信息往往是AI决策的干扰项,当AI分配算力去处理天上的云朵(参数丨图片)、路边的写字楼或无关紧要的植被时,这些背景噪声都在稀释大模型的逻辑推理能力。


▲不同算法的“眼力”对比

FastDriveVLA就像是一个专业降噪器,通过过滤掉这些噪声,让大模型得以专注核心任务。

这也让AI的规划逻辑从过去的“博而不精”,进化成了如今可以对相关场景实现“精准打击”。

结语:VLA效率再提升

小鹏与北大的这项研究让已经上车的VLA模型,跑得更轻盈、更聪明。

FastDriveVLA的出现,本质上是对算力不足恐惧症的化解,在智能驾驶的下半场,竞争不再仅仅取决于谁的模型参数更大,而在于谁能更高效地利用每一分车载算力。

可以说,这种通过复刻人类驾驶的方法,让ReconPruner 这种极轻量化模块不仅解决了感知层面的噪声干扰,更打通了顶层算法与底层硬件之间的效能壁垒。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。