00:00 / 14:59
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:43
连播
清屏
智能
倍速
点赞1096
残差网络:当深度学习撞上天花板,他在网络里画了一道捷径 2015 年北京,微软亚研院的何恺明把神经网络堆到了 56 层——结果准确率反而比 20 层还低。那一刻整个深度学习社区都被卡死了:深度本应是力量,为什么变成了诅咒? 这一集,我们把何恺明那张草稿纸完整还原。 你会看到他如何在纸上画下那条改写历史的捷径线 F(x) + x——一条让信号绕过整层、直接跳到输出端的"残差连接"。这个看似偷懒的设计,让 152 层的网络第一次真正训得动;不仅训得动,还把 ImageNet 准确率从 94.9% 推到 96.4%——人类首次在图像识别上被机器超越。 更狠的是 Bottleneck 设计:用 1×1 卷积把 256 维特征压到 64 维做卷积、再还原回 256 维,参数量从 59 万直接砍到 7 万,省了 8 倍算力却几乎不掉精度。再加上 Batch Normalization 锁住训练分布的漂移,残差连接 + Bottleneck + BN 这三件套凑齐的那一刻,深度学习真正"能深"了——后来 GPT、DALL·E、Stable Diffusion 全都站在这块基石上。 视频后半段我们带你走完图像识别的整条历史时间线:1957 感知机、1986 反向传播、1989 卷积、2012 AlexNet、2015 ResNet——直到 Redmon 用 YOLO 把"只看一次"装进自动驾驶的挡风玻璃。 但当机器征服了所有静止的照片,下一个问题是什么? 语言。语言,正在前方等着他。 #残差 #深度学习 #ReLU #左歪歪的技能树 #ai新星计划
00:00 / 15:46
连播
清屏
智能
倍速
点赞NaN
00:00 / 10:10
连播
清屏
智能
倍速
点赞NaN