00:00 / 03:58
连播
清屏
智能
倍速
点赞94
反向传播:一个让错误"倒着流"的灵感,如何让机器认出数字 想象你是1986年的一名计算机科学家。你叫杰弗里·辛顿,面对多层神经网络训练的核心难题——隐藏层。你试过随机扰动,太蠢;试过逐个微调,太慢。几年间深陷绝望。 某天深夜,你盯着那张网络图,突然换了一个角度:如果误差不是从左往右,而是从右往左倒着流回去呢?就像一个聪明的CEO追责——不随机开人,不逐个审问,而是顺着决策链,把锅一层一层往回传。 你拿起笔,开始推导。输出层的误差,乘以连接权重,分给隐藏层;隐藏层再用同样的逻辑,继续往回传。一次前向传播算出结果,一次反向传播算出所有权重的调整方向。两次计算,搞定一切。 你从椅子上站起来,手在抖。你意识到,你推导出的东西,本质上就是微积分里最基础的工具之一——链式法则。 但你并不是第一个摸到这扇门的人。早在1974年,哈佛博士生保罗·韦伯斯就写过几乎一模一样的推导。12年前答案就在那里,没有人在意。你攥紧那篇论文:数学是对的,但光有数学不够。 你找到大卫·鲁梅尔哈特和罗纳德·威廉姆斯,三个人不只是写数学,而是做实验。你们搭建多层网络,用反向传播训练它学异或问题——那个被明斯基用来判死刑的函数。它学会了。更复杂的模式识别?它也学会了。 1986年,论文发表在Nature上。标题平淡得几乎无聊:Learning representations by back-propagating errors。但它的冲击力像一颗深水炸弹——冰封了17年的领域开始解冻,死刑判决被推翻。 可学术界依然嘲笑:这不过是个数学玩具。你需要一个真正的战场来证明它。而这个战场,将由你的一个学生来开辟——一个来自法国的年轻人,杨立昆。他盯上了美国邮政局每天处理的几百万封手写信件。 但一个刚被复活的神经网络,真的能让机器睁开眼睛看懂这个世界吗? #人工智能 #神经网络 #反向传播 #青年创作者成长计划 #左歪歪的技能树
00:00 / 09:16
连播
清屏
智能
倍速
点赞5120
00:00 / 01:19
连播
清屏
智能
倍速
点赞5295
00:00 / 37:17
连播
清屏
智能
倍速
点赞1
00:00 / 05:40
连播
清屏
智能
倍速
点赞2
00:00 / 02:11
连播
清屏
智能
倍速
点赞71