近日,一辆启动的智驾功能小车撞击环卫工人的视频引发社会广泛关注。网传视频显示,涉事车辆开启 nca 驾驶模式后蛇形走位,最终撞上禁止站在导流线的环卫工人。目前,事故具体原因仍在调查。 公安部交管局已明确指出,市场上销售的汽车所搭载的制驾系统都还没有实现自动驾驶的目标,因此驾驶员始终是行车安全第一责任人。 虽然不少车企在宣传营销时会着重强调其制驾能力,但作为驾驶者应该清醒认知到,一旦使用辅助驾驶功能出现事故,需要担负民事赔偿、行政甚至刑事责任的不是车企方,而是司机个人。 从行业共识来看,车企应坚守安全底线,实事求是,勿夸大其词误导用户,而车主需理性看待目前的辅助驾驶技术,不可过度依赖,遇到复杂场景时应及时接管,切实做到人车共驾。
粉丝471.4万获赞3.6亿

今天爆出某品牌汽车智驾撞环卫工人,在微博找到该事发地,咱们来听听这位博主的分析。 事故发生是在 b 点,你如果开车从东往西开,在 a 点位置一个加速直接进了桥洞的话,没有右转掉头,那就只能从 a 点一直开到河西去,来回掉头起码十五分钟。 b 点也就是事故发生位置, 只能右侧车辆汇入上桥,不能左侧车辆出去。我怀疑车主的目的地应该不是过河,但是又走了桥洞,智驾提前没识别, 在最后要上桥的时候强行右转,结果转弯处还占了个环卫工人 c p u 给干冒烟了。

为什么武装全身的感知顶配融合方案碰上环卫工人就变智驾残废了呢?你认真思考过吗?我们先看最近很火的一个融合方案智驾视频。第一次右转 看到实线缩回来了。第二次右拐,刚过实线末端,发现路口又是实线,又拐不过去,又往左拐。车子的智驾导航可能是准备去右边车道的,但是每次拐过去都被一根实线困住,而是陷入了一种脑裂逻辑死循环。 最终,在这反复横跳的自信博弈中,他竟然直挺挺的撞向了路中间的环卫工人。很多人都有疑问,融合方案大厂不是有激光雷达吗? 不是有融合方案吗?为什么武装全身的感知顶配最终表现出来的是智驾残废呢?今天就从融合方案的角度聊聊这个视频。按理说,激光雷达能测距, 摄像头能识别分类,号称双重保险,激光雷达还能兜底,但可能在这一刻,系统内部他们可能打架了。首先,静态过滤。为了防止误刹车,算法通常会对静态物体做平滑处理。 环卫工人当时几乎不动,在雷达眼里,他可能和路边的电线杆、固定锥筒没区别。其次,分类失败。环卫工人拿着大扫帚,穿着橙色反光背心。在他们的视觉大模型的训练级里,这种异形障碍物的知性度如果不够高, 系统会犹豫,这是个路牌还是个大追桶呢?但是最致命的是规控逻辑。视频里,车子在实线末端强行右转,在自动驾驶的代码逻辑里,交通规则如不能压实线,通常被设定为高权重、硬约束。 它的逻辑里,在计算路径时会给各种行为贴上 cost 成本,跨越实线的成本被设得极高,接近于不可通行。结果呢,算法在毫秒级的计算中不断尝试根据实时路况和高度依赖的导航博弈。 当他想向右跨线避让时,规则层就会报错警告检测到实线,此路径不可选。于是系统被迫切回原车道, 车机脑子陷入了死循环,车机 c p u 可能正在疯狂计算怎么在不压实线的前提下完成右转。这种复杂的计算占用了大量算力,当感知层告诉他前面有个东西时,龟共层可能为了执行右转指令,强行拟合出了一条自以为能绕过去的曲线,结果 就变成了对环卫工人夺命的撞击,也还触发了无效 adb。 所以 说,这个视频再次告诉大家,融合方案是过度营销的文字游戏,融合方案绝对不是和他们宣传的一样,并不是万能药。大多数融合方案之下, 博弈能力远超常识判断。他学会了死磕交规,却没学会防御性驾驶。如果你问我这个问题,谁是罪魁祸首? 算法有缺陷,但作为驾驶员,在车辆如此频繁晃动,决策犹豫时重夺控制权,是你作为驾驶员唯一的救命稻草。最后忠告一下所有使用智驾的用户,别用别人的生命去测试算法的边界, 因为你的生命在融合的世界里可能只是一行一行的代码。这下你理解为什么有的智驾考试比赛总是第一名,但是到了实际场景就变得差强人意了呢?作为用户的你, 你是希望你在路上碰到那些喜欢和人博弈的制驾,宣传告诉你可以全向防碰撞的制驾,还是对人敏感谨慎带防御性驾驶的制驾呢?欢迎在评论区留下你的观点。

自驾又朝着环卫工人撞去了,还好这次车主做到了及时接管。看视频, 这跟之前的那次其实很像,唯一不同的是这次车主做到了人机共驾,遇到不对及时接管,否则发生什么很难说。另外我看评论区有人说是因为被车别倒了才会导致的。 怎么说呢,先不说有没有被别道,就算被别道了也不能吵到人去吧。不管怎么说,你自驾还是存在问题的。那你就不能宣传什么自驾断层领先,开车能顺便睡个觉,所以使用自驾各位车主最好。哎,不对,是一定要做到人机供驾,确保安全。

我们在全力配合相关部门的事故调查,详情结果请您等待官方交警相关公告。

支架又朝着环卫工人冲过去了,一模一样的场景又重现了,这次幸好这个司机没睡觉啊,在看路,要不然又是一场悲剧。 连续的这几起已经足以证明啊,你们家这个支架有 bug, 尤其是针对环卫工人,这个工作服啊,识别到就是往上冲,我感觉因为有你们家这个支架的存在啊,现在环卫工人的危险系数又大大提升了, 本来在马路上就很危险,再加上这种针对他们的智驾啊,再加上这些不看路的司机,真的是拧了把汗啊。

智驾又撞了一位环卫工人,那毫无疑问,肯定是司机全责。其实时至今日啊,重点已经不是智驾会不会出事故,而是智驾出现了严重的信任危机,遥遥领先很可能是这个时代最危险的幻觉。就 过去我认为啊,很多悲剧都源自品牌方不负责任的夸大宣传,什么想撞都难。 l 二点九九九,甚至车上睡觉这些用力过猛的营销话术,模糊了辅助和自动的边界。但是后来我发现,这并不完全是单个品牌的问题,而是整个社会啊,太过于沉迷,赢得红 大趋势,凡事都是先赢了再说。表面上看,国产质价确实足够亮眼,功能繁多,本土适配性强悍。但如果我们拨开营销的外壳,从各个维度和国外的质价方案进行深入对比,就会发现一个令人不安的真相,这不是领先不领先的问题, 是压根就不在一条赛道上。首先,底层的技术哲学完全不同。我们主流的制驾方案是规则驱动强,规则强,干预,高度依赖中国场景特化优势就是在中国极其复杂的道路场景 下,非常的聪明,像什么重庆的魔鬼立交桥,完全是游刃有余,但本质上是靠海量的人工标注加规则引擎,再加上高精地图堆砌出来的一个本地学霸,其代价就是,第一, 泛化能力弱,换个没训练过没见过的乡间小路,体验感就大打折扣。第二,每新增一种障碍物,比如像这次的环卫工人,事后都需要重新标注,重新训练,然后再 o t a。 第三,系统极其脆弱, 一旦雷达或者传感器失效,它就容易懵逼,因为它应对的策略都是基于已知的场景进行匹配。而国外的智驾方案,以 f s d 为例的纯视觉派,它是数据驱动端到端神经网络,直接从人类的驾驶行为中学习,让 ai 像人一样理解整个世界,本质上是追求通用制。 哪怕是在非洲的土地、挪威的雪原,只要人能开,理论上 f s d 都能学会,代价就是在中国会水土不服。 各种原油啊,懂的都懂。当然,短板也很明显,就是对静止的物体反应会慢,但他的底层逻辑更接近自动驾驶的终极形 态。因此,我们国内的智驾更像是在根据中国的路况,解一道有标准答案的考题,而 f s d 则是在尝试发明解析的方法,前者见效更快,后者无疑走得更远。 其次,安全文化的缺失也是最痛的差距。我们国内行业的现状是,先出成绩再说问题。这就催生了一个无解的死亡三角。车企为了卖车吹了牛, 用户信以为真放了手,但是法规没有跟上,出了事故司机背了锅。而国外的车企对质价的态度要谨慎的。多特斯拉的 f s d, 你 想用,得先签免责协议, 规模就更极端了,在凤凰城一条路上反复测试了整整八年,才敢撤掉车上的安全员。国际上更是有硬性的标准,车企必须证明,哪怕是用户误操作,哪怕是遇到完全没有遇见过的场景,系统也不能做出危险的反应。 反观我们的车企,在比谁敢开车睡觉,谁敢不抓方向盘最后一天,所谓遥遥领先的真相是, 或许我们在应用层面的确遥遥领先,但是在基础层面却是遥遥落后。硬件上咱们确实领先,哎。激光雷达的成本达到二百美元以内,全球最低。像特斯拉则是另辟蹊径,干脆弃用激光雷达, 只靠摄像头,成本更低也更轻便。数据上,我们最优秀的厂商据说能做到日军采集三亿公里,而特斯拉的数据来自全球几十个国家, 雪原、沙漠、山路窄巷,各种极端场景,泛化能力自然更强。算法上,我们的系统更像是流水线,先识别再规划,最后控 制,中间依靠大量的人工规则来进行衔接。像特斯拉的端到端神经网络,摄像头就像眼睛看到了画面,直接输出给方向盘进行动作,还有仿真测试。 各大厂商都说在做,但其实是有本质区别的。我们主要靠真车上路,采集新场景,再回传数据,然后再把已经出现过的各种问题场景 放进仿生里,再复现一遍,大家可以理解为是事后回放。而特斯拉用的刀绞超算,能从一段普通的行车视频中 ai 生成千万种极端变量,让系统在虚拟世界中反复试错。这就属于是事前预演,一个是补缺,一个是预防。 而最关键的差距,其实是事故的透明度。 l 二级智驾出事,法律上都认定驾驶员是第一责任人,这一点中外没有本质的区别。但差别在于,像北美一旦开启智驾发生碰撞,车企必须在二十四小时内向国家公路交通安全管理局 上报事故细节。这些数据每季度都会公开,任何人都可以查到系统在哪些情况下会失效,频率有多高,而我们的质价事故数据完全由车企掌握,监管部门并没有建立强制上报机制, 只有等鱼情发酵了才被动介入。而没有透明就没有监督,没有监督就很难有真正的安全。所以你看,我们在能用好、用快用上跑的确实快,但在为什么安全,怎么证明安全?谁来为安全负责这些根本的问题上, 还有很长的路要走。真正的领先,不是比谁的功能更多,而是比谁更敬畏生命,更诚实的面对技术的边界。哎,我们这些年的发展确实太快了, 可谓日新月异,或许真的应该停下来好好想一想,有时候是不是太急于证明我们赢了,反而忘记了智能驾驶的初心。

警方回应,尊驾支架撞了环卫工,造成对方轻微受伤。目前事故正在调查当中。刚看到有媒体报道这起发生在湖南长沙的交通事故,从行车监控的状态来就可以看到,当时车辆开着 nca, 不知道为什么这辆车在路上来回动,看起来有点化龙,随后这台车就撞到了一个环卫工。 其实说来说去还是那句话,辅助驾驶不是自动驾驶,如果当时驾驶员随时戒备着,根本就不会出现这种问题。

环卫工被撞这个视频相信大家都刷到了啊!当舆论焦点指向辅助驾驶的时候,其实咱们都已经被带偏了,毫无悬念,交警肯定会判司机全责,司机也不可能从车起唠叨任何好处或者补偿, 这司机啊,脑子肯定就有问题,听我说完再喷我啊!第一,司机当时在干什么?眼睛看哪去了?手脚又在干嘛, 完全可以提前介入避免事故,为什么他偏偏不?第二,目前的辅助驾驶不是自动驾驶,连智驾这个词都不让用了,人机供驾才是核心。第三,出了事情就想通过网络发酵,引导舆论攻击,让车企 迫于舆论压力替你承担责任,这才是真实的目的。当咱们理性看待,就能看到这些本质,难道不是吗?

都说不要过分地去依赖自驾辅助,你看事故又发生了!常常依赖中建 s 八零零,在开启自驾辅助过程当中突然微亏,快的导流性赚下了。正在作业的华为功能 车辆仪表显示呢,碰撞前最后一秒,系统从 nca 状态切换至自动紧急制动状态,但还是未能及时避免事故。长沙交警部门证实,还未供工人受轻伤,并强调事故仍在调查,暂未公布责任认定结果。侦检方面也表示,目前正在配合调查,需等待官方最后通报。 视频中有个细节值得注意,车辆一开始是直行的,这车是压着磁性往右靠,很快又前调整方向往左边转, 就在这个时候撞上了环卫工人。给人感觉是系统一开始入行判断可能出现了偏差,然后想急于把它调整回来,但是呢,又没有及时识别到前方的障碍物,或者说是环卫工人,于是事故就发生了。

又有车主爆出一起自驾冲向环卫工人,好在车主他时刻盯着路面,没有造成交通事故。连续出现自驾车辆对环卫工人、环卫工作服识别异常,出现往上冲的行为,这确实是非常严重,必须严肃对待的安全问题。 以下仅仅是从技术层面分析,不做其他陈述。很多环卫服是高反光条加荧光黄或荧光橙,这有可能是视觉模型对这种衣服的误判。如果训练数据里环卫工场景样本不足,标注不细, 模型很容易把穿着反光服的人误判成路牌、交通标识、车道线、护栏边缘,甚至是无障碍物可通行区域。 一旦被误判为非障碍物,道路元素制驾,就不会减速避让,反而会按正常路径直接开过去。 如果只有一次,可以说是极端场景。司机走神,连续多起都是环卫工人,都是工作服,都是冲过去,这就不是用户没看路的问题了,很有可能是感知加决策层的系统性漏洞。 环卫工人本身就是道路高危群体,常在车道内、车流中作业,很多时候是凌晨、夜间逆光、雨天视线很差, 本身防护只有反光符,没有物理隔离,再叠加上智驾对它们识别失效加主动往上冲。如果是正常类的司机,看到反光符,本能的减速避让, 如果是有问题的支架看到反光符,再通过它判定为可通行,就会导致不减速,直接按照原速开过去。 这就不是辅助驾驶风险,而是把一个高危职业直接推向更高危的境地。 在叠加,很多司机把支架当成全自动驾驶,放手走神,看手机睡觉,等于机器不躲,再加上人不看的致命组合。

智驾直撞环卫工,别再把辅助驾驶当无人驾驶!今日智驾撞环卫工人视频刷爆全网,涉事车开启智驾正常行驶,竟径直冲向路边环卫工,车主仅最后一秒仓促接管,惊险画面让网友炸锅, 有人质疑智驾识别失灵,也直指车主过度依赖系统,分心驾驶。目前市面智驾多为 l 二级辅助驾驶,传感器,对路边特殊目标本就有识别短板,车企也明确 a、 e、 b 并非全场景生效, 法律和现实都明确,智驾再智能,驾驶员也必须手握方向盘,眼盯路面,把生命交托系统终究是赌命。

依旧辅助驾驶,依旧最后一秒退出。就在前两天,某车型在开启智驾的前提下,车辆发生偏移,跨越车道直直往环卫工人撞去。等车主反应过来掌控方向盘后, nca 智驾领航辅助也同时退出了。这次事故发生 很明显车主要负很大责任,明明可以提前接管方向盘规避风险,却因为过度信任辅助驾驶才导致事故发生。要知道,现在的智驾依旧只是辅助驾驶,就算开了智驾也要看路方便随时接管,才能避免事故发生。

刚刚刷到质检把环卫工人撞了,这事我希望大家能理性一点,从法律角度来说,司机肯定是第一责任人,至于车企有没有责任,这个我们不能妄自评判,但就怕某些博主耐不住寂寞,找一大堆理由非要出来诡辩两句。 但我看了一圈,目前他们还是装死的态度,为啥呢?因为环卫工人是站在那里不动的,他们角度不太好。找到这里我真得说这司机两句了, 你为什么不及时接管把方向盘回正呢?说破天,现在的智驾也都是 l 二级的辅助驾驶,你要做到人机共驾,这大半年期间多少官媒科普过了,不要盲目相信,辅助驾驶怎么就那么头铁呢?别的不说了, 希望大家正确看待辅助驾驶,开车做到不睡觉、不玩手机、不打扑克,遵守交通规则,也尊重他人的生命安全。