00:00 / 00:42
连播
清屏
智能
倍速
点赞8
很多人看到这条新闻,第一反应是,小鹏是不是在跟特斯拉走同一条路。答案是,方向上确实越来越像。3月2日,小鹏正式发布第二代VLA,并宣布将在3月推送,这套架构最关键的变化,不是单纯“更聪明了”,而是它把自动驾驶的大脑重新改了一遍,直接从视觉信号生成动作指令,拿掉了中间那层“先翻译成语言、再去做决策”的环节,目标直指更高阶的自动驾驶能力。小鹏自己把它定义为“开启L4时代的物理世界大模型”。而特斯拉官方这几年反复强调的核心路线也很明确,就是基于视觉与规划的通用智能方案。 大家想一想,人类开车靠什么,本质上不是靠“先把路况翻译成一段话,再决定踩油门还是刹车”,而是眼睛看到环境,大脑瞬间判断,手脚直接动作。所以无论是小鹏VLA,还是特斯拉FSD,为什么都越来越坚定地选择端到端的视觉自动驾驶方案,其实逻辑很简单,因为这条路线更接近人类驾驶的原生机制。过去传统自动驾驶更像流水线,感知是一个模块,预测是一个模块,规划又是一个模块,中间还要经过规则、标签、甚至语言式中介,这样做的优点是可解释、好拆解,但问题也很明显,一旦场景复杂起来,链路越长,信息损失越多,延迟越高,模块之间还容易互相“甩锅”。小鹏这次去掉语言转译,本质上就是要减少中间损耗,让模型直接学习“看见什么就怎么开”。特斯拉官方把视觉和规划看成实现通用自动驾驶的核心,也是同样的逻辑,因为真正决定上限的,不是规则写得多细,而是模型能不能在海量真实世界视频里学会泛化。 再往深一层看,这背后其实反映的是整个智驾产业的范式切换。以前行业拼的是零部件堆料,是把雷达、摄像头、算法模块一块块拼起来,谁的配置高谁就更像“高阶智驾”。但现在越来越多车企发现,硬件当然重要,可真正拉开差距的,是数据闭环、算力基础设施和大模型训练能力。换句话说,自动驾驶开始从“工程问题”加速转向“AI问题”。一旦进入这个阶段,端到端视觉路线的优势就会越来越明显,因为视频数据是最天然、最丰富、最容易规模化积累的数据形态,而端到端模型又最吃数据规模和训练迭代效率。小鹏第二代VLA本月推送,意义不只是一次功能升级,而是在告诉市场,中国车企也在从“做功能”切到“做模型”。这意味着什么呢,意味着未来竞争焦点会从单点功能体验,逐步转向谁能形成更强的数据飞轮。 #小鹏vla #特斯拉fsd #德赛西威 #经纬恒润 #伯特利
00:00 / 04:45
连播
清屏
智能
倍速
点赞94
00:00 / 07:45
连播
清屏
智能
倍速
点赞5
00:00 / 03:02
连播
清屏
智能
倍速
点赞314
00:00 / 00:48
连播
清屏
智能
倍速
点赞33
00:00 / 02:53
连播
清屏
智能
倍速
点赞6