00:00 / 00:32
连播
清屏
智能
倍速
点赞521
00:00 / 00:25
连播
清屏
智能
倍速
点赞251
00:00 / 05:38
连播
清屏
智能
倍速
点赞541
00:00 / 07:10
连播
清屏
智能
倍速
点赞1
00:00 / 00:38
连播
清屏
智能
倍速
点赞14
00:00 / 07:10
连播
清屏
智能
倍速
点赞0
00:00 / 01:30
连播
清屏
智能
倍速
点赞3
00:00 / 00:12
连播
清屏
智能
倍速
点赞5239
卷积神经网络:从猫的大脑里偷来的视觉系统,如何让AI学会看 一个3岁小孩就能认出的猫,机器却花了20年才学会。 1989年,年轻的法国研究员杨立昆在贝尔实验室发现全连接网络的致命缺陷——位置敏感、参数爆炸。受猫脑视觉实验启发,他发明了卷积运算:一个小模板在图片上逐格滑动,用同一组权重提取特征,参数从几万降到几十。再加上池化压缩和反向传播,三块积木搭成了LeNet-5——第一个真正能"看"的神经网络。 6万个参数,错误率低于1%。美国邮政局用它读邮编,银行用它识别支票,巅峰时期每十张支票就有一张经它之手。7万张手写数字图片被整理成MNIST数据集,成为整个机器学习领域的"Hello World"。 然而,当LeNet试图走出手写数字、走向真实世界时,三重瓶颈互相锁死:数据太少、算力太弱、网络太浅。更大的打击来自学术界——"你们搞神经网络的就是在炼金术"。资金转向,论文被拒,寒冬降临。 但杨立昆没有认输。他把LeNet架构图仔细折好,塞进了抽屉。在多伦多,辛顿在等;在蒙特利尔,本吉奥在等。三个人,三座城市,守着同一个信念——等算力够强,等数据够多,等网络够深。到那时,人们会给这条路起一个新名字:深度学习。 #卷积神经网络 #人工智能 #左歪歪的技能树 #ai新星计划 #青年创作者成长计划
00:00 / 12:36
连播
清屏
智能
倍速
点赞1330
00:00 / 00:42
连播
清屏
智能
倍速
点赞0