在粤港澳大湾区车展的“2025未来汽车先行者大会”上,元戎启行CEO周光向业界透露了一个重要消息:该公司的VLA模型即将面向消费者市场推出。VLA,即视觉、语言、动作模型的缩写,是元戎启行在自动驾驶领域的一项创新技术。
周光详细介绍了VLA模型的四大核心功能,这些功能旨在全方位提升自动驾驶汽车的安全性和智能化水平。首先,“空间语义理解”功能如同给汽车装上了“透视眼”,能够精准破解驾驶中的盲区问题,如桥洞通行或公交车遮挡视野等场景。通过全面还原驾驶环境,该功能能准确预测潜在风险,并执行相应的驾驶决策,从而避免碰撞。
紧接着,“异形障碍物识别”功能如同驾驶领域的“万事通”,它能够深刻理解各种障碍物背后的驾驶动机,并准确预测潜在危险。例如,在面对载货三轮车时,VLA模型不仅能识别出前方车辆类型,还能结合实时路况信息,输出相应的驾驶决策,如避让绕行,并保持横向安全距离。
“文字类引导牌理解”功能则是AI汽车的“路况翻译官”。它不仅能够“看见”道路标识,还能“读懂”文字背后的通行逻辑。在面对左转待行区、可变车道等复杂路况时,VLA模型能够高效匹配实时路况,并准确执行相应的驾驶操作。这一功能让复杂路况决策变得如同“开卷考试”般轻松。
最后,“语音交互控车”功能实现了与用户的高效交流。用户可以通过语音指令控制汽车做出相应的驾驶决策。当用户的意愿与导航信息相冲突时,VLA模型会优先采纳用户意愿,并通过语言功能与用户进行确认。例如,在拥堵道路通行时,VLA模型会考虑到驾驶的安全性,询问用户是否需要贴左边车沿行驶,并根据用户的回复执行相应的驾驶操作。
周光透露,目前元戎启行已完成VLA模型的真实道路测试,并计划在今年推出首款搭载该模型的车型。预计今年将有超过5款搭载元戎启行VLA模型的AI汽车陆续推向市场。VLA模型将率先搭载在NVIDIA Thor芯片上,并计划通过技术优化适配更多芯片平台,以满足不同车型的需求。