00:00 / 00:41
连播
清屏
智能
倍速
点赞NaN
Drrenew3月前
硬件进步如何推动自动驾驶算力需求演变 AI4 阶段,这时候主要是高阶辅助驾驶,还特别注重冗余提升。算力方面,要满足 L3 到 L4 级自动驾驶,实际算力已经到了 200-400 TOPS,有些高端方案甚至突破了 1000 TOPS。硬件上,集成了高性能的 CPU、GPU、NPU 这些,还引入了不少冗余设计,像多核并行计算、双节点对比。传感器也不含糊,固态激光雷达、毫米波雷达这些汽车级的都用上了,就是为了强化环境感知和安全保障。不过算力飙升了,功耗管理就难了,所以得用高带宽内存,比如 GDDR6,带宽能到 512-1024GB/s,还得有进阶的热管理方案。 再到 AI5 阶段,就讲究多模态融合和软硬解耦了。算力要求更高,面向 L4-L5 级,得突破 2000 TOPS,比 AI4 提升了好几倍,这样才能支撑全场景无人驾驶和多传感器融合。硬件上,异构架构成了主流,把 CPU、GPU、ASIC/NPU、FPGA 这些融合起来,按任务特性细分处理。而且硬件平台变得模块化、可扩展,方便以后更新迭代算法和模型。系统方面,多模态融合,也就是摄像头、雷达、激光雷达再加上 V2X,需要实时处理海量数据,“车载数据中心” 这个概念就兴起了,这对热设计、稳定性还有降本增效都提出了极高要求。 那 AI6 阶段呢,是端到端智能和持续自学习。算力需求还得进一步提升,推测能达到数千 TOPS 甚至更高,要支持端到端大规模模型实时推理,全流程无监督决策。硬件形态上,是自适应、可重构的 AI 芯片,比如集成了 Dojo 训练 / 推理一体化芯片,能兼容新型神经网络和大模型调度,还支持高效 OTA 升级,保障车载 AI 随时进化和扩展。全栈创新方面,为了支撑新一代大模型、超高清感知与认知,硬件得追求极致能效比、低延时、本地推理与云端协同计算能力,甚至采用定制化 AI 加速器体系。 未来趋势和影响也很值得关注。全流程软硬协同加上异构融合,能满足不同自动驾驶任务的高效处理。边缘计算会普及,核心决策都在本地实时完成,减少对云端的依赖。而且随着传感器、模型越来越复杂,算力需求会呈指数级上涨,所以硬件模块的开放性、可升级性就特别重要。 总的来说,从 AI4 到 AI6,自动驾驶对硬件的算力和能效要求越来越高、越来越精细化,这也推动着 “车载 AI 计算平台” 加速进化,让全场景、全天候的高阶自动驾驶慢慢变成现实。
00:00 / 03:19
连播
清屏
智能
倍速
点赞18