![]()
AI 上车不缺口号,缺的是一条从模型到量产的完整通路。
作者|靖宇
今天在北京车展上爆火的极氪8X,有网友放出了一段新车演示视频,用户坐在车里说了一句「带我去接孩子放学,顺便找一家麦当劳,5 点前我要到学校」。
接下来发生的事情,和你过去对「智能汽车」的认知完全不同。车辆自主规划路线,启动智能驾驶,中途停靠麦当劳,到达学校门口自动泊车。整个过程,用户不需要碰导航、手动切换智驾模式、或者在停车场里找车位。
这不是一个语音助手在帮你搜索,而是一个 Agent 在替你执行。
在这个炫酷演示的背后,需要的不是「在车里接入一个聪明的大模型」,而是一套从「大脑」到「四肢」都打通的整车智能体系统。
AI 上车喊了三年。为什么到今天,我们才开始看到这样的产品?
01
从 ChatBot 到「AI 上车」
回头看这两年的「大模型上车」热潮,一个尴尬的事实是——大模型进了车,但并没有真正变成车的一部分。
2024 年到 2025 年,几乎所有车企都宣布接入了大模型。DeepSeek、千问、豆包,各家轮番登场,座舱语音助手确实变聪明了不少。它能陪你聊天,能查百科,做得好的把车辆手册灌进去了,可以告诉你「轮胎压报警怎么办」。
但最终,这还是一个跑在座舱里的对话机器人。
语音助手管不了方向盘,智驾系统也不知道你刚才跟车机聊了什么。就像给一个人装了一颗聪明的大脑,但大脑和手脚之间没有神经连接。智驾技术有自己的演进路线——从规则驾驶到 BEV+Transformer,到端到端,再到 VLA+世界模型——但这条路和座舱智能完全是两条平行线。
这种割裂不是因为没人想解决,而是确实难。
第一个挑战是模型本身。行业主流做法,是拿一个通用大语言模型,再用智驾数据做后训练。这种「拼接式」路径能让模型聊天,但不能让它真正理解物理世界——它不懂交警手势意味着什么,不懂复杂路口里行人和车辆的博弈逻辑。想走向 L4,模型需要从预训练阶段就具备对物理世界的理解,而不是事后「补课」。
第二个挑战是架构。智驾和智舱是两套系统、两颗芯片、两个团队。要实现「一句话调动全车」,整车架构需要从底层重构——感知、决策、交互,得统一在同一个模型体系下。
第三个挑战是量产。从 PPT 到量产车之间,隔着芯片适配、车规安全、成本控制和 OTA 迭代,拼凑式的合作模式很难高效跑通这个闭环。
也就是说,真正的 AI 汽车,需要的不是在车里放一个聪明的大模型,而是用 AI 重写汽车的底层逻辑。
02
谁有更好的答案?
2026 年北京车展前夕,几乎所有厂商都在喊「AI 汽车」。但仔细看各家的方案,你会发现它们解决的是不同层面的问题。
智己和阿里合作的 IM AIOS 生态座舱,强项在于把阿里的生态服务——饿了么、高德、支付宝——以 Agent 的形式搬进了车里。用户用自然语言就能点外卖、订餐厅,体验确实新鲜。但它的核心聚焦在座舱服务层,不涉及智驾融合。
字节的豆包大模型接入了别克至境、荣威等多个品牌的座舱,主要提升语音交互的智能度。这属于「模型即服务」的轻量合作——模型公司提供 API,车企在座舱里调用,各自边界清晰。
这些方案各有价值,但有一个共同点——模型和车之间,是 API 接入的关系,不是从底层融合的关系。
4 月 22 日,阶跃星辰与千里科技宣布达成全面战略合作,双方将联合共建「原生智驾基座模型」。这个合作的打法,和上面几种方案走的是一条完全不同的路。
核心差异在于「原生强耦合」。
传统路径是「先做一个通用大模型,再拿到车上做适配」。阶跃和千里的做法是反过来——从基础模型的预训练阶段,就同时注入通识数据和智驾数据,让模型原生具备对物理世界的理解能力。不是把一个通用大脑塞进车里,而是从头培养一个「懂开车」的大脑。
阶跃星辰的技术底座撑得住这件事。作为国内知名的基模公司,阶跃围绕「AI+终端」战略,构建了一套完整的技术体系。面向 Agent 场景的旗舰基座模型 Step 3.5 Flash,发布以来在 OpenRouter 调用量登顶全球第一,成为全球开发者构建智能体的首选模型之一。
在多模态领域,阶跃拥有国内最全的自研模型矩阵——语音交互、音频推理、图像理解、图像生成、视觉语言模型,覆盖了汽车场景从「听」到「看」到「说」的全链路感知需求。在部署层面,阶跃构建了从 1B 到 200B 参数的端云协同模型体系——端侧轻量模型负责实时感知和快速执行,云侧大模型负责复杂场景的推理和决策,形成类似人类大脑「快思考+慢思考」的分层架构。
千里科技则补上了另一半——全栈工程能力。
![]()
双方的合作不是简单的商务结盟,而是对「AI 原生汽车」同一终局的共同押注。技术架构对齐,产品愿景对齐,从模型设计,到终端部署形成完整闭环。
有人把这称为最符合「Grok + FSD」叙事的中国组合——特斯拉用 Grok 大模型,和 FSD 智驾的原生融合定义了 AI 汽车的标杆,而阶跃 × 千里,是目前中国最接近这一模式的搭配。
值得注意的是,阶跃的生态拼图还在持续补全。
4 月 23 日,阶跃星辰与腾讯云达成战略合作,双方将围绕智能座舱展开深度协作。腾讯在音乐、视频、地图、支付等领域的生态矩阵,将通过智能座舱 Agent 与用户连接——基于个性化偏好做内容推荐,打通从需求识别到交易完成的车内服务闭环。
如果说阶跃+千里解决的是「大脑+四肢」的问题,腾讯云的加入则补上了「生态服务层」,让这个智能体不仅会开车,还能帮你点歌、导航、付费。
03
真正的「AI 汽车」,要来了
而极氪 8X,是阶跃和千里「Grok + FSD」模式下最新的量产标杆。
Step 3.5 Flash 从全面开源到正式上车,只用了 40 多天——这个速度本身就说明了原生强耦合模式在工程效率上的优势。
极氪 8X 首发搭载的超级 Eva 整车智能体,实现了大模型与智驾、底盘、动力的原生融合。基于阶跃最强语音模型,Eva 具备情绪理解和思辨能力,语音自然且富有感情;基于视觉理解模型,Eva 能看到车周围的环境并做出判断——路况、车位、周边商铺,都在它的感知范围内。
4 月 17 日极氪 8X 正式上市,29 分钟大定突破 10,000 台——市场在用脚投票。
两年前,大模型刚上车的时候,它能做的最多是帮你查一下附近的麦当劳在哪里。今天,它能替你规划路线、开车、停车、点餐,全程只需要一句话。
这个变化的背后,不是某个模型变强了,而是模型和汽车的关系从根本上变了——从「外挂 App」变成了「原生大脑」。
当 AI 真正成为汽车的底座而不是配件,驾驶体验的变革,才刚刚开始。
*头图阶跃星辰
本文为极客公园原创文章,转载请联系极客君微信 geekparkGO
极客一问
你觉得现在的车载语音助手,
和真正的「AI 汽车」之间,还差几步?





京公网安备 11011402013531号