最近汽车圈有个大事儿,不知道大家关注到没有。就在3月2号,小鹏汽车扔出了一枚深水炸弹,发布了他们的第二代VLA智能驾驶系统。何小鹏在现场说了一句话,让全场都沉默了,他说,我们比行业一流选手领先了接近5倍。 大家先别急着反驳,咱们今天不聊口号,专门来拆一拆,这个所谓的第二代VLA,它到底牛在哪?以及为什么小鹏和特斯拉,这些智驾的头号玩家,都不约而同地走上了同一条技术窄路? 其实逻辑很简单,小鹏这次干了一件什么事呢?他把VLA中间的字母L给删掉了。VLA全称是视觉语言动作模型,传统的智驾车处理路况,流程大概是这样的:眼睛看到画面,脑子把它转化成语言描述,比如前方有行人横穿,然后再根据这个描述下指令,减速。每转译一次,就有一次延迟,有一次信息损耗。 而小鹏的第二代VLA,把中间的语言翻译环节直接砍了。实现了从眼睛看到,到手和脚去动,端到端的直接生成 。这意味着什么呢?这就好比我们普通人开车,靠的是脑子想;而一个顶级赛车手,靠的是肌肉记忆。反应速度快了可不是一星半点,官方数据说响应延迟降低了80% ,推理效率提升了12倍 。 大家想一想,为什么特斯拉的FSD,还有现在小鹏的第二代VLA,最终都殊途同归,选择了这种纯视觉的端到端方案?其实答案就藏在2026年智驾行业的一个核心矛盾里。 过去我们总以为,智驾堆硬件就行了,激光雷达越多越安全。但到了今年,行业突然发现,真正的瓶颈不是看没看见,而是理没理解。你哪怕装了再多的雷达,遇上雨天、逆光,或者路上突然滚出来一个奇形怪状的障碍物,传统规则就显得力不从心 。 这时候,端到端的视觉方案的优势就体现出来了。它不再依赖写好的规则,而是通过海量数据去训练一个“神经网络”,让机器自己去学习什么叫路况,什么叫博弈。就像教小孩一样,你告诉他红灯停绿灯行,他记不住;但你带他过一万次马路,他就自然而然地会了。小鹏这次发布的底气,就来自于它那50PB的训练数据 ,和3万卡的算力储备 。这不只是技术的竞争,这是数据富矿和算力军备竞赛的降维打击。 那么,当我们把这里面的逻辑理顺了,再来看资本市场,机会其实就浮出水面了。 小鹏这次把技术发布会开成了“宣战会”,直接叫板特斯拉FSD V14版本 。 #小鹏vla #端到端自动驾驶 #纯视觉自动驾驶 #联创电子 #德赛西威
00:00 / 04:14
连播
清屏
智能
倍速
点赞607
很多人看到这条新闻,第一反应是,小鹏是不是在跟特斯拉走同一条路。答案是,方向上确实越来越像。3月2日,小鹏正式发布第二代VLA,并宣布将在3月推送,这套架构最关键的变化,不是单纯“更聪明了”,而是它把自动驾驶的大脑重新改了一遍,直接从视觉信号生成动作指令,拿掉了中间那层“先翻译成语言、再去做决策”的环节,目标直指更高阶的自动驾驶能力。小鹏自己把它定义为“开启L4时代的物理世界大模型”。而特斯拉官方这几年反复强调的核心路线也很明确,就是基于视觉与规划的通用智能方案。 大家想一想,人类开车靠什么,本质上不是靠“先把路况翻译成一段话,再决定踩油门还是刹车”,而是眼睛看到环境,大脑瞬间判断,手脚直接动作。所以无论是小鹏VLA,还是特斯拉FSD,为什么都越来越坚定地选择端到端的视觉自动驾驶方案,其实逻辑很简单,因为这条路线更接近人类驾驶的原生机制。过去传统自动驾驶更像流水线,感知是一个模块,预测是一个模块,规划又是一个模块,中间还要经过规则、标签、甚至语言式中介,这样做的优点是可解释、好拆解,但问题也很明显,一旦场景复杂起来,链路越长,信息损失越多,延迟越高,模块之间还容易互相“甩锅”。小鹏这次去掉语言转译,本质上就是要减少中间损耗,让模型直接学习“看见什么就怎么开”。特斯拉官方把视觉和规划看成实现通用自动驾驶的核心,也是同样的逻辑,因为真正决定上限的,不是规则写得多细,而是模型能不能在海量真实世界视频里学会泛化。 再往深一层看,这背后其实反映的是整个智驾产业的范式切换。以前行业拼的是零部件堆料,是把雷达、摄像头、算法模块一块块拼起来,谁的配置高谁就更像“高阶智驾”。但现在越来越多车企发现,硬件当然重要,可真正拉开差距的,是数据闭环、算力基础设施和大模型训练能力。换句话说,自动驾驶开始从“工程问题”加速转向“AI问题”。一旦进入这个阶段,端到端视觉路线的优势就会越来越明显,因为视频数据是最天然、最丰富、最容易规模化积累的数据形态,而端到端模型又最吃数据规模和训练迭代效率。小鹏第二代VLA本月推送,意义不只是一次功能升级,而是在告诉市场,中国车企也在从“做功能”切到“做模型”。这意味着什么呢,意味着未来竞争焦点会从单点功能体验,逐步转向谁能形成更强的数据飞轮。 #小鹏vla #特斯拉fsd #德赛西威 #经纬恒润 #伯特利
00:00 / 04:45
连播
清屏
智能
倍速
点赞96
3月9号这天,小鹏汽车干了件大事,他们在广州把一帮机构投资人请上车,试驾第二代VLA智能驾驶系统。结果你猜怎么着,港股小鹏午后逆势拉升,盘中涨近6%,股价直接突破70港元。大家想一想,为什么一次试驾能让资本市场这么兴奋?其实逻辑很简单,因为这次试驾传递了一个信号:小鹏的智驾,真的要从实验室走向千家万户了。 咱们先说说这个第二代VLA到底牛在哪。官方的说法是,这套系统实现了视觉直驱动作,去掉了语言转译这个中间层,视觉信号直接输出转向和加速指令。这意味着什么呢?决策延迟从200毫秒压缩到80毫秒以内,比人类眨眼还快。大家想一想,80毫秒是什么概念?就是你还没反应过来,车已经做出决策了。这种直觉式驾驶,本质上是在模仿人类的本能反应,而不是像传统智驾那样先理解再执行。更关键的是,这次试驾是在复杂城市道路进行的,反馈显示部分路段的通行效率竟然优于出租车司机,用时比导航预估还快。这可不是简单的参数提升,这是从能用到好用的质变。 咱们咱们把视野拉大一点,看看现在的宏观环境。2026年的政府工作报告明确提出要推动人工智能商业化规模化应用,还要深入整治内卷式竞争。这意味着什么?意味着汽车行业正在从价格战转向技术战,智能化和轻量化成为关键增量。小鹏这个时候推出第二代VLA,恰逢其时。何小鹏甚至放话,完全自动驾驶将在未来1到3年内真正到来。大家想一想,如果这个预言成真,整个出行产业的游戏规则都要重写。 既然小鹏的智驾技术要大规模落地,那产业链上哪些环节会真正受益呢?咱们得往深处挖一挖。首先是传感器这个赛道,小鹏的VLA系统虽然主打视觉直驱,但高阶智驾离不开激光雷达和摄像头的融合。速腾聚创作为小鹏的核心供应商,2025年车载激光雷达销量同比增长了近一倍,随着小鹏2026年智驾车型渗透率提升,激光雷达的出货量还会持续爆发。大家想一想,当智驾从高端选配变成标配,传感器厂商的订单量可不是线性增长,而是指数级跃升。 再看域控制器和芯片封装环节。小鹏自研的图灵芯片虽然掌握核心IP,但晶圆代工和先进封装还得依赖产业链伙伴。长电科技、通富微电这些封测龙头,在车载芯片封装领域的技术积累深厚。随着小鹏图灵芯片量产装车,先进封装的需求会显著增加。这意味着什么呢? #小鹏自动驾驶 #海天瑞声 #长电科技 #伯特利 #联创电子
00:00 / 04:05
连播
清屏
智能
倍速
点赞172
#小鹏第二代VLA发布#,目标是让智驾更接近完全自动驾驶。接下来,3月2日,全球200家媒体将率先试驾;3月11日,全国732家门店同步开放体验,欢迎全网对比评测。与此同时,一场从喀什到上海、全程5000公里的智驾穿越中国即将启动,小鹏Robotaxi也已开始公开道路测试。 这套系统的驾驶表现让人很难分辨是人在开还是车在开。上车五分钟就能放松下来——它能识别异形车辆、前车开门,过减速带会提前减速,夜间也能看清穿深色衣服的行人,还会礼让小动物。夜间识别能力提升了72%,接管次数减少了70%。为了量化这种“安心感”,团队自研了一套评估工具,从急刹、摆动等维度进行客观衡量。 场景覆盖上,有路就能开,没路也能应对。P挡下可以直接激活全程辅助驾驶,高速、城区、窄路、没有地图的停车场全都能用。早市的人车混杂、荒野烂路、夜里锥桶封路、雨天夜市这些复杂情况,都能做到全程无接管。 通行效率也比传统L2和Robotaxi快30%,时间基本接近导航预期。高峰变道利落,不容易被加塞;城中村小路也能平稳通过。它还会主动避让救护车、看懂交警手势、在查酒驾场景自动减速配合。新手开着省心,老司机也觉得靠谱,打破了智驾“保守、慢吞吞”的印象。 从技术底层看,自动驾驶本质上是物理AI的问题,L4能力取决于模型、算力、数据和车本身的结合。小鹏第二代VLA采用原生多模态大模型,能看、能听、能理解,视觉推理效率提升了32倍。它支持语音、视觉、动作多种输出,可以自己推演最优路线,也为座舱和驾驶的联动打好基础。 算力方面,自研的图灵芯片发挥了关键作用。它的算力利用率达到82.5%,模型推理只要80毫秒。一颗图灵芯片的有效算力大约相当于10颗Orin-X,车端流畅运行大模型。车端视觉数据的信息密度是其他传感器的300倍,累计训练数据达到50PB,每天消耗的token量是58.8万亿,相当于全国数字AI调用量的80倍。 最后,此次发布会宣布大众将成为小鹏第二代VLA的首发客户。过去几十年是中国车企在学习别人,如今智能驾驶成为汽车的核心,软件和模型定义了一辆车的价值。这个合作不仅属于小鹏,也意味着中国智驾正在被全球认可。#小鹏智驾负责人称拉开差距的时刻到了#
00:00 / 04:07
连播
清屏
智能
倍速
点赞25
00:00 / 00:28
连播
清屏
智能
倍速
点赞1
00:00 / 00:33
连播
清屏
智能
倍速
点赞0
00:00 / 01:22
连播
清屏
智能
倍速
点赞28