00:00 / 09:57
连播
清屏
智能
倍速
点赞71
00:00 / 09:57
连播
清屏
智能
倍速
点赞1
00:00 / 01:00
连播
清屏
智能
倍速
点赞41
00:00 / 14:41
连播
清屏
智能
倍速
点赞1514
00:00 / 04:42
连播
清屏
智能
倍速
点赞1752
创造动物还是召唤幽灵?人工智能的大分歧 当今火热的AI大模型(LLM)真的走对了吗?强化学习(RL)奠基人、图灵奖得主理查德·萨顿 (Richard Sutton) 教授提出了颠覆性的观点:LLM可能从根本上走错了路,甚至是一个死胡同。 在本视频中,我们将深入探讨这场关于AI终极路线的争论: 萨顿教授认为,LLM本质上只是在模仿人类留下的海量文本,它存在三大根本缺陷: 1. 没有真实世界的目标:预测下一个词元并非一个能改变世界的目标,而拥有目标是智能的本质。 2. 缺乏真正的世界模型:LLM无法真正预测行动的后果,也不会因意料之外的事件而“惊讶”并调整自己。 3. 过度依赖人类知识:萨顿曾提出著名的“苦涩的教训”(The Bitter Lesson),即利用大规模计算的通用方法终将胜过依赖人类知识的方法。他认为,LLM恰恰是人类知识的产物,未来很可能被能从真实经验中学习的系统所超越。 特斯拉前AI总监Andrej Karpathy对萨顿的观点进行了精彩解读,并提出了一个绝妙的比喻: • 今天的LLM就像一个**“幽灵”(ghosts)**:它是人类知识的统计蒸馏,被我们深度塑造。 • 而萨顿追求的,则更像一只**“动物”(animals)**:一个能通过与世界互动、依靠内在好奇心来自主学习的系统。 Karpathy还补充了一个关键观点:“预训练是我们蹩脚的进化过程”(Pretraining is our crappy evolution)。我们利用海量数据,是为了给AI一个不那么糟糕的起点,以便它后续能更好地从经验中学习。 AI的未来究竟是“幽灵”之路,还是“动物”之路?萨顿的警告,为我们揭示了另一条可能更接近真正智能的道路。欢迎观看视频,一起思考AI的未来。#知识前沿派对
00:00 / 07:04
连播
清屏
智能
倍速
点赞34