00:00 / 00:33
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:36
连播
清屏
智能
倍速
点赞4588
00:00 / 00:07
连播
清屏
智能
倍速
点赞NaN
Karpathy最新访谈(P1):LLM认知缺陷全解析 #Andrej Karpathy #LLM #AGI 本视频为 Andrej Karpathy (特斯拉前AI总监, OpenAI创始成员) 在 Dwarkesh Patel 播客上的最新访谈(2025年10月)的第一部分内容。 【本期主题:LLM的认知缺陷】 Karpathy 详细分析了为什么他认为AGI仍需十年,以及当前大语言模型(LLM)存在的根本性“认知缺陷”。 本期(P1)核心看点: 1. **“特工十年”而非“特工之年”**:Karpathy 认为业界对“AI Agent”的预测过于乐观,要实现真正有能力的Agent,我们还有十年(Decade)的工作要做 [00:01:02]。 2. **“幽灵”而非“动物”**:他提出一个深刻比喻,我们现在不是在创造“动物”(有完整认知能力的生物体),而是在召唤“幽灵”—— 一种模仿人类的、飘渺的数字实体 [00:00:16]。 3. **核心缺陷:工作记忆 vs 模糊回忆**:Karpathy 剖析了LLM的记忆机制。模型的权重(Weights)只是对训练数据的“模糊回忆” [00:18:51];而模型的上下文窗口(Context)才像是“工作记忆” [00:19:05]。 4. **缺失的“蒸馏”能力**:LLM 最大的缺陷之一,是它“缺失”了人类那样将“工作记忆”中的信息提炼、“蒸馏”并固化到“长期记忆”(即权重)中的能力 [00:24:20]。 5. **为何LLM不是好“实习生”**:正因为上述缺陷,Karpathy 直言你无法雇佣LLM当实习生,因为它充满了我们都能直观感受到的“认知缺陷” [00:21:54],它还“缺失了某些大脑部件” [00:21:59]。 本系列将持续更新 Karpathy 这场长达2.5小时的深度访谈,下一期(P2)我们将探讨“RL(强化学习)为何如此糟糕”。 如果觉得内容有价值,请一定“一键三连”,这是我们更新的最大动力! 视频来源:Dwarkesh Patel @ YouTube 原视频标题:Andrej Karpathy — “We’re summoning ghosts, not building animals” 原视频链接:https://www.youtube.com/watch?v=lXUZvyajciY 🙏 感谢您的观看 【智译工
00:00 / 30:33
连播
清屏
智能
倍速
点赞294
00:00 / 02:20
连播
清屏
智能
倍速
点赞18
00:00 / 00:56
连播
清屏
智能
倍速
点赞149
00:00 / 02:37
连播
清屏
智能
倍速
点赞7886