00:00 / 00:13
连播
清屏
智能
倍速
点赞1
YOLO26损失函数改进—MoELoss负载平衡损失! YOLO26最新创新改进系列:YOLO26+Master(2025.13.31提出)采用MoELoss全称为MoE 负载平衡损失,实现增强型实时检测! YOLO-Master 中的MoELoss全称为MoE 负载平衡损失(Load Balancing Loss),记为LLB ,是为解决混合专家(MoE)架构在实时目标检测(密集预测任务) 训练中特有的专家坍缩(Expert Collapse) 问题而专门设计的损失函数,也是 YOLO-Master 能稳定训练 ES-MoE(高效稀疏混合专家)模块、实现动态自适应计算的核心组件之一。该损失并非独立的检测损失,而是作为辅助损失与 YOLO 基础检测损失结合,最终经消融实验验证可替代 DFL(分布焦点损失) 成为主导损失,实现训练稳定性与检测性能的双重提升。 创新写作点: 1. MoE 架构的固有问题:专家坍缩 MoE 的核心是通过路由网络为不同输入激活专属专家子网络,但训练中路由网络会天然偏向少数 **“优势专家”(初始化更好 / 特征提取能力更强的专家),导致多数专家被闲置,模型无法充分利用多尺度专家的特征提取能力,最终出现泛化性下降、模型容量浪费的问题,即专家坍缩 **。 2. 目标检测任务的特殊适配需求 与图像分类(仅处理全局特征,无空间维度)不同,目标检测是密集预测任务,需要处理多尺度空间特征图(H×W ),传统 MoE 负载平衡损失仅针对 “全局令牌分配” 设计,无法适配检测任务的空间特征维度,因此 YOLO-Master 团队设计了专门针对轻量级 CNN-based 实时检测器的 MoELoss。 3. 与传统检测损失的梯度冲突问题 YOLO 基础检测损失包含DFL(分布焦点损失),其核心是强制边界框的分布均匀细化,而 MoELoss 的核心是引导实例自适应的专家特化,二者在梯度更新上存在天然冲突;实验证明,移除 DFL 并强化 MoELoss 能彻底解决该问题,让训练收敛更平滑。
00:00 / 06:30
连播
清屏
智能
倍速
点赞49
00:00 / 01:00
连播
清屏
智能
倍速
点赞2115
00:00 / 01:34
连播
清屏
智能
倍速
点赞8
00:00 / 14:58
连播
清屏
智能
倍速
点赞172
00:00 / 00:31
连播
清屏
智能
倍速
点赞NaN
00:00 / 09:10
连播
清屏
智能
倍速
点赞3
00:00 / 00:20
连播
清屏
智能
倍速
点赞NaN