00:00 / 16:50
连播
清屏
智能
倍速
点赞2677
00:00 / 01:33
连播
清屏
智能
倍速
点赞NaN
00:00 / 15:36
连播
清屏
智能
倍速
点赞215
00:00 / 03:00
连播
清屏
智能
倍速
点赞2450
Karpathy给2025年的AI发展做了总结(1) Karpathy2025年LLM回顾来了!注意别看这篇文章很短,但其实这背后有一整条完整的AI进化的故事线,信息量是很大,所以如果你想通过最直观的方式理解AI到底发展到了什么程度,那今天这个视频保证一次性给你深入浅出的讲清楚!请耐心看完。 第一,训练方法变了。 以前是预训练、SFT、RLHF三板斧。今年多了RLVR——让模型在能自动判对错的任务上狂练。这个阶段吃掉了大量原本要投入预训练的算力,也带来了一个新的能力调节旋钮:让模型在回答问题时"想"得更久。 第二,我们对LLM智能的理解变了。 以前大家习惯用"进化"、"成长"这些词来描述AI,好像在养一只越来越聪明的动物。但实际上LLM的智能是"参差不齐"的——某些领域像天才,某些领域像傻子。因为它的优化压力跟动物完全不一样,所以出来的东西也完全不一样。顺带一提,benchmark越来越不可信了,因为它们天然容易被RLVR刷分。 第三,LLM应用层开始成型。 Cursor火了,说明在"底层大模型"和"最终用户"之间确实有一个有价值的中间层。这个层负责上下文工程、多模型编排、垂直领域UI、自主程度控制这些事。LLM公司培养"通用大学生",应用公司把他们变成"垂直领域专业人士"。 第四,AI开始"住在"你电脑上。 Claude Code的意义在于它跑在本地,用的是你自己的环境、数据、配置。这跟"去一个网站跟AI聊天"是完全不同的交互范式。Anthropic在这件事上比OpenAI更早想明白了。 第五,普通人可以写代码了。 Vibe coding让编程不再是专业人士的专利。同时它也让专业程序员能写更多"本来不会被写出来"的软件——代码变得免费、临时、用完即弃。 第六,LLM需要自己的GUI。 现在跟LLM聊天有点像80年代在电脑上敲命令行。人其实不喜欢读文字,喜欢视觉化的信息。LLM应该用图像、动画、交互式应用来跟人沟通,而不只是吐文本。Google的Nano Banana是这个方向的早期探索。 #ai #K和他的AI同事 #karpathy #ai年度总结 #AIGC
00:00 / 04:58
连播
清屏
智能
倍速
点赞14
00:00 / 11:38
连播
清屏
智能
倍速
点赞2502
00:00 / 16:24
连播
清屏
智能
倍速
点赞NaN
00:00 / 01:17
连播
清屏
智能
倍速
点赞705