00:00 / 01:37
连播
清屏
智能
倍速
点赞58
00:00 / 04:57
连播
清屏
智能
倍速
点赞9
00:00 / 11:17
连播
清屏
智能
倍速
点赞2038
袁岚峰3天前
锚点|人脑会“随机应变”,AI却只会“按部就班”? 袁岚峰:您对于人脑的模拟,跟我们说的人工智能里面那个深度学习,它有什么样的联系和区别? 冯建峰:今天的神经网络基本上不是脉冲,是连续信号,是analog(模拟)信号,这是一大区别。我觉得可能还有一个,大家很少意识到的区别。在神经科学界,大部分人都认为,神经元是一个随机的输入输出系统。 袁岚峰:不是确定性的吗?为什么变成随机的了? 冯建峰:没有人认为是确定性的。你去做同一个recording(录入),就是同一个信号进去,这一次和下一次都是不同的。这个在神经科学界,有很多年的认识。所谓的Interspike interval(峰间期),就是两个脉冲之间…… 袁岚峰:时间间隙是吧?Interval(间隔)。 冯建峰:对,interspike interval(峰间期)。你去看所有的神经科学的书、文章,这是一个随机过程。它靠什么来计算?肯定不是一阶矩。因为Interspike interval(峰间期)不是确定性的,所以很多人没有意识到这一点。 袁岚峰:所谓一阶矩就是平均值,对吧? 冯建峰:Firing rate(发放率),sigmoid函数,这肯定不够。 袁岚峰:所以至少需要二阶矩。 冯建峰:至少需要二阶矩。那它在算什么,对吧?它算什么,我给你一个答案。比如袁老师, 下回来我还能认识你。我百分之百认识你,百分之五十认识你,还有置信区间。至少,二阶矩就可以给我置信区间。所以这跟生物里面的算,为什么跟冯·诺依曼计算机完全不一样,这里面比如说我可以给你置信度,我知道我的hallucination(幻觉)不会产生,跟今天的人工智能有很大的区别。所以说你就能看得见,这里面fundamentally(本质上)是有区别的,只不过可能数学物理的确还没达到这个地步。 袁岚峰:您刚才提起那个,让我大吃一惊。就是发现人工智能的神经网络和生物的神经网络其实完全不一样,生物神经网络是随机的,人工智能的神经网络是确定性的。 冯建峰:确定性的。 袁岚峰:所以这是一个如此基本的不同。 冯建峰:从今天为止,我并不知道你的脑子在用什么东西处理信息。 袁岚峰:如此基本的问题,我们其实还是不清楚的。 冯建峰:最本质的东西。所以神经科学最basic(基础)的问题就是,我们不知道我们在干什么。#知识前沿派对 #神经网络 #人工智能 #深度学习 #随机性
00:00 / 03:42
连播
清屏
智能
倍速
点赞7249
00:00 / 01:03
连播
清屏
智能
倍速
点赞11
00:00 / 00:48
连播
清屏
智能
倍速
点赞8
00:00 / 00:10
连播
清屏
智能
倍速
点赞2
00:00 / 01:18
连播
清屏
智能
倍速
点赞156
00:00 / 01:46
连播
清屏
智能
倍速
点赞NaN
00:00 / 08:19
连播
清屏
智能
倍速
点赞7