粉丝1.8万获赞7.6万

自动驾驶曾被无数人唱衰,甚至被认为是资本的泡沫。苹果投入百亿美金后项目调整,福特与大众合作的阿 go ai 终止运营。 uber 早年的自动驾驶测试也出现过安全事故, 整个行业陷入低谷。很多人以为这项技术已经走到了尽头,但在二零二一年,特斯拉纯视觉 fsd 引发了行业震动,国内车企也纷纷加速入局。为了搞清楚自动驾驶到底是怎么回事,我翻阅了上百篇论文,发现自动驾驶的核心其实就一个字,难! 很多人以为自动驾驶是近几年 ai 热潮的产物,其实早在一九八五年,德国恩斯特迪克曼斯教授就开创了动态视觉方向。 一九九四年,他的团队将多块处理器装入奔驰 s 级轿车,依靠早期机器视觉在巴黎高速完成了长距离的自动驾驶测试。而如今热门的端到端大模型,早在一九八八年就已出现雏形。 当年卡内基梅隆大学的迪安波莫洛在基于神经网络的自主地面车辆这篇文章中提出了二文模型,用三层神经网络通过前视摄像头控制转向。为了验证这些前沿的构想,二零零四年,美国国防部举办了达帕莫哈维沙漠挑战赛,奖金百万美元,全程两百四十公里, 所有车辆都没能完赛,跑的最远的悍马也就行驶了十二公里。当时的算法以惯性导航为主,就像是蒙着眼睛走路,多次积分运算 会让微小误差不断放大,定位极易偏离,加上早期路径规划算力有限,遇到障碍物容易陷入反复进退的循环,车辆的环境感知和能力非常有限。正是这次早期探索的集体失利,推动了行业反思。在随后几年,业内开始大量搭载激光雷达,并重新构建底层算力架构。 早期探索让行业在模块化的路线上走了近十年。那时候,自动驾驶被拆分为感知、预测、规划、控制多个模块,信息逐层传递,环节多、链条长。这种依靠大量人工规则搭建的流程,在复杂场景下效率有限。 在这篇端到端驾驶中束架构与训练方法论文中,就提到了极连误差这个概念,这是模块化架构长期无法突破的核心瓶颈。大白话就是传话游戏。就好比在大公司的跨部门沟通里,眼睛部门看错了一个小像素,汇报给大脑时,误差就被放大了十倍。等手忙脚乱 传给手脚部门时,车早就发生了危险。怎么解决?二零二零年,特斯拉首创了 b e v 加 transformer 架构,在论文通过引示、反投影边把任意摄像头组图像中讲得很清楚, b e v 加 transformer 架构 把四周的摄像头拍到的扁平画面像揉面团一样拉伸拍碎,用 transformer 缝合起来。简单来说,它直接在汽车的脑子里加起了一个三 d 立体的实况模型。这下眼睛虽然好使了, 但跨部门走流程还是太慢,怎么办?答案是,去掉中间多层模块,直接端到端输出。这就迎来了现在最火的端到端大模型, 无数的真人驾驶视频直接喂给 ai, 它不再走流程,而是摄像头看到画面,方向盘立刻跟着动。这就好比老司机的肌肉记忆,看到前面有个大坑,手绘下意识的打方向盘躲开。这时候肯定有人要问,既然没有了程序员写的规则代码, 也没有了中间部门,那 ai 脑子里到底是怎么沟通的?面向规划的自动驾驶?这篇论文给出了答案。在这个架构里, ai 内部不再靠人类强加的规矩,而是进化出了一种类似脑电波的默契,学术上叫查询向量。在这个大脑里,不再有复杂模块间的协调损耗。 目标高度统一,所有的神经元只有一个终极目标,别撞车,安全开回家。一旦开错,整个系统会为了这一大目标自动进行集体的自我反思和进化。 目前行业内正展开两大技术路线的激烈竞争。第一条是感知硬件路线差异, 是以特斯拉为代表的纯视觉派,每天收集海量真实数据,疯狂投喂给云端,构建起碾压全行业的数据飞轮, 不断优化算法,弥补硬件短板。无论你的 b、 e、 v 算法有多牛,它本质上依然是在靠二 d 的 像素预测,三 d 深度遇到黑夜暴雨、强逆光,或者镜头上糊了一块泥巴。这种基于概率预测的算法,在极端工况下容错率低,容易触达安全边界。 另一派则是以 vivo、 华为、卫小李为代表的多传感器融合派,摄像头看不清没关系,我直接上激光雷达。 激光雷达打出去的不是概率,是实打实的物理测距,虽然贵,但是这个方案比较安全。如果说硬件之争还是成本的妥协,第二场就是算法之争,也就是端到端模型的可信与可解释性问题。 比如论文重新审视 nuance 数据集下端到端自动驾驶的开环评测,提到了端到端模型在开环测试中表现亮眼, 受限于数据级场景覆盖度高分并不完全等同于真实路况的理解能力。当你把这些纸面数据好的大模型真正放到 b 环的真实马路上,他们会面临另一个问题, 学术上叫斜变量偏移,他平时吃的训练数据都是人类老司机安全行驶的画面,模型见的事物比较少,就学不会应对危险。在这个黑盒里, 只要马路上出现一点没有见过的偏差,这个误差无法被下游模块纠正,还会像雪球一样越滚越大,最后出现失误。现在端到端出现事故,代码溯源很难, 但这恰恰逼出了当今中国和美国头部车企的护城河,哪里出错了,就立刻在仿真库里生成几万个类似的危险场景,让 ai 在 云端疯狂重新学习。这已经不是几个程序员能搞定的重资产战役。 面对端到端模型的可解释性与实时性挑战,行业内正朝着 v l a 视觉语言动作大模型与世界模型两个方向突破。如果说端到端是老司机的肌肉记忆, la 模型相当于给自动驾驶加上了常识理解能力,能够结合场景语义做出更人性化的判断。比如他看到路边滚出来一个皮球,就能判断后面大概率跟着一个小孩,看到前方交警打手势,能用人类的语言解释并做出决策,这就是完全自动驾驶了吗?在这篇论文 驾驶与大型视觉语言模型的融合中就提到,目前 v l a 大 模型用的最多的是英伟达的 r v x 芯片,在未优化的状态下,推理时延迟仍偏高。在毫秒必争的关键决策时刻,等你的大模型解释完,前方有障碍物,我要刹车,车早就出现危险了, 车载算力仍有很大的提升空间。另外一条技术路径就是世界模型。在面向真实场景驱动的自动驾驶世界模型,这篇论文是这么解释的。 简单来说,世界模型就是给 ai 的 大脑里装进了一个与现实平行的虚拟物理引擎,它不仅能看懂现在,还能预判未来几十秒内的轨迹可能性,然后挑出最安全的一条路走。所以,真正决定车子智能上限的,远不止车机里那两块芯片, 而是车企藏在千里之外的云端超算集群。世界模型需要天亮的算力支撑,让 ai 每天在机房的梦境里经历数万次极端危险仿真训练,才能换来现实中的一次平安回家。当你明白了这个逻辑,你就会知道,自动驾驶的下半场本质是头部企业之间的算力竞争, 人类工程师始终是在算力成本、物理规律与生命安全之间寻找着平衡。随着高阶智驾普及,责任界定、法规标准、轮理规范也在同步完善, l 三级自动驾驶涉及系统接管的场景对驾驶员的注意力仍有明确要求, l 四、 l 五级别的完全无人驾驶,仍需要技术法规、轮理的长期完善。在视频的结尾特别提醒,目前智能驾驶的本质仍是辅助驾驶, 可以大幅减轻长途拥堵等场景的驾驶负担,但任何情况下,驾驶员都必须手握方向盘,保持注意力,遵守交通法规,对行车安全全权负责。好了,这期就聊到这里, 如果对于自动驾驶还有什么疑问,欢迎在评论区讨论,也请关注我,我是路客,带你看懂改变世界的硬核科技,我们下期见!

好一条视频,保证大家可以听懂什么是 v l a。 今天理想汽车的郎伯郎贤鹏发了一条视频,他说 v l a 这个东西就是在用 g p t 的 方式来做自动驾驶。翻译一下,其实我理解大家做的事情就是在训练豆包,训练 german 这样的多模态大模型来开车。好,接下来问题就是,我到底为什么要这么做?这么做的好处是什么? 其实以前大家做辅助驾驶,做自动驾驶,更像是在做一个只会开车的,脑子只会开车的模型。打个比方,就像是有一个人,从小在深山老林里面闭关,没有接触过人类的社会,没有人类社会的生活经验。 有一天你找到他,说来,我们一起来驾校里面训练开车,学习科目一二三四,学完之后呢,他在开放道路上开车,确实很多场景会让你觉得有一点点蠢。有一个老生常谈的例子,就是说 有一个皮球从盲区从车后面滚出来,我们很自然就可以推导出,接下来可能会有一个小朋友跟出来,大家要小心驾驶,但当下的辅助驾驶没有这样的思维和推理能力。 再举一个更贴近生活的例子,比如说路边停了一辆车,这辆车究竟是临停上下课我们要绕行,他还是在正常的排队,我们跟在他的后面?当前的辅助驾驶也很难做出正确的选择,背后的原因呢,就是他不具备人类社会的经验、知识背景,这是当前这个脑子的局限性。好,我们换一种思路, 一个人呢,从小在城市里面长大,正常的接受教育,理解人类社会的风土人情、生活经验、知识背景等等等等。这个时候你再把它放在驾校里面开车, 它能够达到的驾驶能力的上限是不是会更高呢?我举个例子啊,比如说你现在就去问豆包,一个皮球从车后面滚出来,那我在驾驶上面应该注意什么?它可以很自然推导出接下来的几秒可能会有一个小朋友冲出来,你要小心驾驶,这就是因为他理解人类社会。再比如你现在用视频跟豆包对话,豆包现在前面的车是 零停车还是路口排队?车辆是零停车,他停在路边,没在路口排队,他的判断率非常的高。当豆包这样的模型拥有了这样的认知和理解能力, 我们再给他更多的驾驶相关的数据,他是不是就是一个更好的司机呢?从逻辑或者从人自己的实践和成长逻辑上来说呢? 我认为是对的,这个本质上就是大家在做的 v l a 就是 在训练豆包,训练 jimmy 这样的大模型来开车。接下来问题就是车企大概率会怎么做?究竟是重复造轮子,我再去做一个豆包,还是说我站在前人的肩膀上?比如说拿 deepsea 千万这样的开源大模型来训练他们开车, 个人的逻辑,第二者会更加顺畅一点,因为你训练一个大模型投入的成本不是几亿、十几亿就能打得住的,它可能是上百亿甚至几百亿, 那车企完全没有必要重复投入,没有必要重复的造轮子,他只需要站在前面的肩膀上,做好车企自己最擅长的部分工作,就是把自己拿到了驾驶数据,喂给这样大模型,让他学会开车, 这才是车企最应该做好的事情。但是这样的研发过程呢,是非常困难的,因为车端的算力有限,他需要解决功耗,解决算力,解决部署,解决帧率等等各方面的问题, 过程一定是非常困难的,不是几个月甚至一年就可以做的好,需要更长的时间来达到质变。从我的观察上来说呢,现在不只是理想在这么做,其他的车企呢,研发思路很相似,所以大家现在集体呢,是进入了一个深蹲期,那什么时候起跳? 我个人感觉还需要一段时间,但我相信当他起跳那一天,他能够达到的驾驶的上限会比现在高,是会让大家看到本质上的变化的。

现在这些车企啊,就是爱拽词,这两年什么端到端,世界模型 v l a 满天飞,天天翻来覆去的念叨,看是看眼熟了,但是要具体解释好像也说不太清楚哎,这几个词到底是什么意思呢?这期节目 生动形象的给各位捋一下。众所周知,现在最火的东西叫大模型,汽车的辅助驾驶也是之前的规则方案,招式固定,比较死板,没学过的东西它就不会,你踢它一脚,它还你一拳,但你要是挠它嘎吱窝,它就荡机了。没人教过呀,这招怎么回呢? 但是现在啊,用大量数据喂出来的大模型,学会的那是经验,能够举一反三,融会贯通,遇到没见过的事,算也能算个概率,大概猜出来,有了自己的思维方式,规则之外的决策也能做。 但是模型虽然聪明,怎么安排他干活也是个问题。开始大家是让一个模型跟几个规则搭配着干活,模型出力,规则监工,省得模型乱来。但是模型脑子比规则聪明,有时候模型这聪明劲就让规则给摁住了,他使不出来。所以最后啊, 大家看了看,那干脆让模型来干活吧。几个模型分好工,一个看环境,一个看地图,一个管油门刹车、方向盘, 这样哪部分出了问题,都好排查。但是你想啊,三个聪明人各自有想法,这口径很容易对不起,内耗比较严重,而且来回传话信息就失真了,就好比上班打一个报告,等三层审批完,黄花菜都凉了, 老板也没明白你要干啥。于是最后啊,咱们要说的这个,端到端架构闪亮登场,直接训练一高手,所有的活都可以他一个人干, 从信息的输入端到驾驶动作的输出端,只有一个模型。以过年包饺子来说,非端到端就是你负责擀皮,你爸负责和馅,你妈最后包和煮流水线作业, 那结果没沟通明白,你这皮也薄了,你爸的馅也割多了,你妈勉勉强强包上,最后这饺子还是煮成了一锅粥。而端到端就是有一个全自动的饺子机, 从入口这端把面、肉菜、调料全都和进去,咣咣咣,从擀皮到和馅到它煮熟,全都包圆了,内耗没有了,效率提高了,直接把热气腾腾的饺子给你输出到饭桌上了。一切都是母慈子孝的样。但唯一的问题就是,一般的大模型,也就是这个全自动饺子机啊,他比较自闭, 里面什么结构看不见,尤其在于端到端这种架构下,除了结果,什么过程都不告诉你,那如果想让你今天的饺子咸一点,多煮一会,就没法按你的想法定量控制了,那这也就是所谓的黑箱属性。所以又有了后面两个东西,让大模型来更加听话, 它们就是 v l a 和世界模型技术。 v l a 大 名叫视觉语言动作模型,但关键是中间的语言,它作为一个枢纽,让模型能真正的动人事。 v l a 的 工作过程是把看见的、听见的、摸到的东西都转化成文字描述,也就是语言,然后根据这些文字里信息推理和深度思考,决定该怎么做。没错,核心和豆包、千问、元宝这种大语言模型基本是一样的, 你可以跟他对话,他能听懂你的语言,而世界模型呢,更在意模型是不是能在底层认知里理解物理规律和人情世故, 不用言语也不用思考,看到刮风就知道要下雨,看到打灯就知道你要变道,这样的话,你一个眼神,一个手势,他就能读懂你的意思。 总结一下啊,端到端强调结构,说的是这个个体户一个人说了算。 v l a, 关注的是理解方式,说的是这个老板识文断字,会读书看报,从中逻辑推理, 判断大局。室内模型看中的是客观规律,人情世故了然于胸,不用太多思考,下意识的反应就很准。所以各位应该明白了啊,这三个东西完全它不矛盾,而是一个东西的三个不同方面的特性。那么你, 你说这些厂家吵来吵去,到底在喊什么呢?咱们一起评论区聊一聊吧!我是小新,这里是智能车工作室,咱们下期见!

v 二七搭载的与地平线共同开发的,是目前这个级别绝对的第一梯队智能辅助驾驶标杆。今天呢,地平线的 ceo 于凯博士啊,也来到了我们的现场啊,欢迎! 首先,软硬一体是 v 二七的很大的优势,算法和芯片呢,来自地平线地平线 hsd, 请大家记住这名字啊,未来几年智能辅助驾驶的大战中, 无论几分天下,一定有一分是 h s d 的。 v 二七的本地系统啊,还运行着一套国内最领先的真一段式端到端架构。过去的这个多段式算法啊,都是不同模块干不同的事,形象地说呢,像三个新手抢着开车,而一段式端到端啊, 是由一个大脑统一指挥,相当于请来一位国宾车队的老司机,果断稳重。丝滑的感觉呢,马上就上身了,比如路口拐弯,他会提前的慢慢减速进弯,匀速通过,全程丝滑流畅。另外, 系统还匹配了一个云端智囊 v l m 大 模型,老司机呢,也不可能去过所有的城市对吧?那么走过的这个路况呢,也有很多时候是新的 v l m 啊,就是要解决这个问题, 他呢,就是能看懂具体场景意味着什么,比如说他能识别危险的大车啊,就主动避开。简单说呢, v r m 大 模型啊,就像人一样啊,他能理解世界,让 v 二七到哪啊,都是本地的国宾老司 机。元宵节前啊,我跟于凯博士啊,我们一起在北京对最终要下线交付的智能辅助驾驶啊版本进行了验收,表现相当好,百分之百辅助驾驶开下来的啊, 如果闭上眼基本分辨不出来是智能辅助驾驶在开还是真人在开。 icar 和地平线呢?一起开发同级别第一梯队的表现领先的软硬件一体解决方案,国内第一个真一段式端到端架构加 v l m 云端大模星 上车就能启动,提供全程国宾级司机的丝滑平顺体验。

领跑汽车最近更新的城市领航辅助的技术路线是什么?到底是不是端到端制驾大模型?我先说结论,不是端到端制驾大模型,他依旧走的是高精地图和传统规控的方案。领跑这次更新城市领航辅助的这个 ota 啊,我感觉更像是一次完成任务啊,就是我完成我的制定目标,我到这个时间点了,我再不推出来,所有的车主就要 开骂了,那我不推出这个功能可能会影响我的销量,所以我不得不在这个时间节点来推出这个功能。我们上一次听说开成是什么时候?是在二零二三年的四月份,华为 a d s 二点零开始推出开成的方案,华为 a d s 二点零走的就是高精度加归空的方案, 所以说领跑的城市领航辅助现在依旧用的是三年前的技术水准,如果是端到端支架大模型的话,领跑绝对不会说我这么偷摸的就上线了, 我肯定会跟小鹏一样,我去开第二代 v l a 二点零的技术发布会的,它不需要依赖于高精度,不需要开成啊, 直接使用泛化能力,就是可以实现全国无土都可以开的这种模式。你想小鹏、华为、比亚迪,包括未来他们投入的研发费用都是大几十亿大几百亿的这种状态,那么领跑目前在质价的投入就只有十几亿,就说这个投入他是做不出来房业顶尖的质价模型的。感谢您的观看,我是小四,我们专注于每一个影响人的发展进程的技术。

二零二六年开年的第一场试驾活动,其实严格来说今天甚至都不用我自己去开了,因为交给他就可以了。 今天又是一次地平线最新版本的 h s、 d, 然后以及奇瑞现在下面,然后今天换了一个搭载的主角,这个是最新的没有里程焦虑的 icar 全新 v 二七,一个黄金增程的硬派越野。看这个小造型还挺别致,圆形的人型轮毂,上面没有封口,然后这个底盖上面有个隆起, 所以这个牵扯线还挺凶的。然后两侧特别外扩的这个轮毂,然后加上这套最长续航超过一千两百公里的黄金增程,这个车就可以说是无论家用还是出去撒欢都是没有问题的。 现在我们是在北京的望京,和之前上海不太一样,北京这个路况个人认为个人观点,北京的这些平均交通参与者的素质和上海是稍微有一点点差异的,就比如说压实线这个省,上海人可能天生骨子里就有这个白线,不能压,但是对于北京的很多交通参与者来说, 这个白线就跟加门槛一样,随便的跨,所以我觉得今天这个难度应该还是要比上海大一些。给大家看今天我们的这个路线图,基本上是把望京这个 cbd 的 核心整个绕了一圈里,画了一个一个画了一个特殊符号,有很多的弯弯角角。给我们看一下正式上路之后,这个最新版本的 地平线 hsd, 看看在北京能有什么新的惊喜。现在是一个无保护的左转,有很多的对向车辆 好,现在确认安全之后,一把货还是比较丝滑的,然后刚才是避让了一个左侧横穿车道的一辆宝马, 可能是展现了我们平行线 h s d 的 礼貌这一点。它这辆埃卡威士忌呢是平行线最高版本的 h s d 就是 六 p 的 芯片, 五百六十 top 的 算力和英伟达那个 solo 其实都差不多了,而且是按整消算力来看的话,它的性能表现其实要超过英伟达那个 solo。 为什么?因为地平线它是一个软硬结合的方式,就是软件的 这个算法,算力上包括硬件的反感都是由地平线自己来做。呃,光这么说你可能不太理解,咱们打个比方,比如说软件是人,这个硬件就是衣服是吧?你这个一米六的人,你给你一个叉叉叉 l 一 米八一米九的衣服穿着之后,你肯定就无论干什么都会显得拖沓使不上劲, 他要是一米八九的大个,给你一个 s 号的幺六零的衣服,穿上之后肯定得给你勒的够呛,你也很难说舒服他地平线的软硬结合就是基本上是人一合一。 呃,基本上就是那种干啥都很顺畅那种感觉,所以它的整体效率要更高,又是一个比较大的无保护的左转路口,然后这个我们是为了避让对象的车辆。这个往前感觉稍微有点太靠前了,甩了好大的一个弯。 这块我觉得其实可以再机敏一点,或者干脆刚才就不要往前去试探。刚才方向盘提示让我轻拨方向盘,因为 ikev 二十七用的是扭矩传感,那不是这个握力的传感。 人行横道超有礼貌,减速停车,没有人正常行驶,可能是刚才路边的那个人,他站在那个机动车道上,是吧?他以为他要过马路, 感觉这是一个小难点。我们前面是一个环岛,他是需要从第二个路口出去,这个环岛的图画的感觉还是挺有难度的。来,我们需要从右车道,然后向左切两条车道之后进入这个环岛,好从第二个环岛出口出去,然后还有 走在环岛路上当自家客厅的行人, ok 丝滑的就过来了。其实现在虽然开了只有这大概十几二十分钟吧, 他感觉地平线的 h s d 其实,呃,就是他面对很多场景,呃,不需要那种说过去,前两年我们试驾到很多这种驾车型,他需要一个博弈的过程,就感觉车在犹豫,呃,最近该怎么走,然后 刚才虽然路上也有些突发情况,但是能看到看到这辆埃卡威二七,它的底盘 hsd 基本上都是秒反应,基本上你感受不到它这个博弈的过程,但这过程肯定还是在的。但现在底盘线 hsd 通过它的这个一段式弯道端加上云端的 v r m 大 模型呢?呃, 官方有一个叫什么与人类司机驾驶行为对齐的一个愁态的模型。呃,我打个比方就是说,比如大厂那些,我们经常说有一个 经常听到的词,就什么对齐颗粒度,我觉得这个可以大概一个意思,就是说这个他的移动大模型和我们人类老司机的这个驾驶行为也是一个对齐的方式,他的很多的驾驶的车辆的操作都是和老司机的这个行为基本上是大差不差的。 左转,然后有一个大爷要过马路,我们也是自动的轻踩刹车让了一脚,前方闪黄的信号灯能够感受到这辆 v 二七他是没有因为检票前方是没有过马路的行人,也没有其他的, 这个交通参与者几乎是没有减速,没有出现任何停顿的动作。刚才有一个小细节,刚才我们右转之后,本来是在最右车道,但是这个直行的两条车道里面,明明最左是最快的,所以刚才绝对不是我操作的,这辆车是他的一面, h s d 自己就从最右车道连变两条之后 选择在最左侧这个最快的车道,这段路没什么难度。咱们再聊聊地平线,这个 h s c d, 刚才我们在听官方讲的时候,我觉得有一个功能挺有意思的,就是那个慢游模式, 还有很多这个有自驾的车主可能开车的时候一个,就比如我就可能出家门去很短的距离或者很熟的地方,我不需要设置导航,但这个时候你的支架又用不了,就很难受,那底片的 h s d 呢?就可以完美解决这个问题。嗯, 不需要依赖导航,路径随时都可以开启,让我刚才看对方的演出视频,在平静的一个山路上,甚至没有任何的车道线都能够用,这个就很夸张,这应该是最后一个难度点,无保护的左转对象有车辆,我们看一下, ok, 还是选择了让没有问题,毕竟人家是直行的,现在对象是没有车辆,选择完成这个左转,前面还有两公里,然后整个路线 就会结束了,节前可能大家都还没有完成返京,即便是最后一个工作日的梦高峰,感觉梦境的难度系数拉的也不够满,这个一端是端到端加深度学习的大模型,能让 现在底面变成六 p 的 这个顶配的 hsd, 它的操作足够的老,司机响应足够的灵敏。 最后一个小彩蛋啊,现在我们开启的就是地平线 h s d 的 慢游辅助驾驶功能,现在我们这个导航上没有任何的路径设置,然后我们在一个内部的停车场里面,这个车所有这些转弯呀,包括避让动作,还是完全可以交给它的驾驶辅助系统。 三个车在绕来绕去的找车位,看我们怎么去绕过去,相当聪明, 这个车你看怎么博弈一下。好,我左你右,大家愉快的通过,效率还是很高的,即便是漫游模式, 右手边就是我们的目的地停车场了,今天的体验就到这。

朋友们,今天我们要体验的这台车呢,就是长城汽车旗下首款搭载 v l a 大 模型的车型,卫牌全新阆山智能进阶版。 说到这里呢,相信大家肯定已经抓到重点了,没错,正是这台车的一大亮点,搭载 v l a 大 模型。 当然我相信肯定有不少朋友们呢,对此也是感觉有些陌生,所以我来给各位介绍一下 v l a 算法。大模型是以大语言模型为认知基座,通过多模态与端到端的深度融合,构建起能感知、能理解、能决策的完整闭环, 并且依靠索尔优算力的提升,能够流畅支持 v l a 全链路实时运算。如果通俗一点说,它就像一个车端大脑一般,让辅助驾驶系统听得懂、看得见、会思考, 由此带来多项全新的功能和体验。不过各位你看,咱们说了这么多,感觉还是有些太抽象了,所以为了更方便更直观的了解,接下来咱们就采用最直观和最深入的方式和大家体验一下。来咱们上车接着聊。 现在咱们就是在辅助驾驶功能就绪且环境满足的情况下,咱们就可以使用语音控车这项功能了。就比如现在小魏同学请减速, 目标车速已减慢,小魏同学在呢,请向左并道 怎么样?这种感觉像和代驾说的话,现在你也可以对着这台车说,而且还能轻松实现,这是一方面,另一方面像是我们在行车的过程中呢,偶尔呢会遇到行车视线受阻或者不好的这种情况, 例如会车过程中左侧视野被挡或者盲区会入掉头场景,那这个时候系统会同时进行智慧识别,精准感知各种盲区隐患,并以防御为先,提前处理潜在危险。 和这种情况比较类似的情况我们也是时不时的会遇到,就比如雨雪天气、暗光场景、坑洼路面,或者是一些施工场景、窄路啊这些。那对于这套系统而言,它能够合理的进行选道和控速,非常智能化的同时,也能进一步保证我们的行车安全。 在这基础上, v l a 大 模型还有一个非常抢眼的地方在于新增思维链卡片。为什么这么说呢?因为眼下对于大部分辅助驾驶而言,用户不知道系统为什么会做出这样的决策,所以有的时候也是并不信任。但是在 v l a 的 实际体验中,长城汽车引入了思维链, 用户在车机上可以清晰看到感知推理、决策、执行的全过程,这样就让用户可以直观看到系统的推理逻辑。 所以这个时候用户不光是乘客,更是与系统沟通的协作者,这样带来的沟通感和信任感完全就是更紧密,也更实在。经过咱们一番体验之后,可以感受到长城的这套 vlv 大 模型不但听得懂、看得见、会思考,而且还可信任, 而这些正是它的重要意义所在。当然,对于这台全场景 v l a 智慧旗舰 suv 卫牌全新蓝山智能进阶版而言,这也将让其更好地为全家人的出行提供一份安心和保障。