00:00 / 04:03
连播
清屏
智能
倍速
点赞1
00:00 / 00:30
连播
清屏
智能
倍速
点赞120
00:00 / 05:31
连播
清屏
智能
倍速
点赞19
P一个人如何在几个月内做出 OpenClaw 一个人,真的能在几个月内做出一款全球爆红的 AI 产品吗? 放在一年前,这几乎不可想象。但现在,确实有人做到了。 OpenClaw 的创作者 Peter Steinberger,并不是横空出世的 “AI 天才”。他原本深耕传统软件领域,早年开发了 PSPDFKit,从发现需求、创业、把公司做大到最终出售,走过一条典型的开发者创业路径。后来,他停下来休息了一段时间,坦言自己有些精疲力竭。再次出发时,他没有回到熟悉的苹果生态,而是选择跳进发展迅猛中的 AI 领域。 在 OpenAI 的一次访谈中,他提到,真正改变他的,并不是读了多少技术文章,而是一次亲手实验。 他把一个半成品项目方案打包成一个庞大的 Markdown 文件,交给模型生成规格说明,再交由 Claude Code 自动构建。模型跑了几个小时,却在第一次尝试时崩溃了。后来他接入 Playwright,让系统自己测试、修复、重试,最终成功跑通。那一刻他意识到,AI 带来的变化不仅是 “写代码更快”,而是 “我几乎可以做任何东西”。 从那以后,他几乎停不下来。 OpenClaw 并非突然出现的爆款,而是过去九到十个月里持续试验的结果。他在 GitHub 上一年提交了九万多次代码,做了一百多个项目。大量功能、工具链和想法,在反复尝试中逐渐沉淀,最终汇聚成 OpenClaw。 它本质上是一个个人 AI 助理,可以接入 WhatsApp、访问本地电脑、调用各类 API,甚至修改自己的源代码。Peter 说了一个让他印象深刻的故事。有一次他给 Agent 发了一段语音消息,而这个功能他根本没有实现。模型自行识别出音频是 Opus 格式,用 FFmpeg 转码,再调用 OpenAI 接口完成转录。整个流程,是模型自行拼接完成的。 这件事让他突然顿悟,AI 不只是 “写代码更快”,而是 “它会自己想办法”。 后来,他把 Bot 直接丢进 Discord,让几百人自由测试,有人故意尝试提示注入攻击。Bot 一夜之间回复了八百多条消息。醒来时他一度有些崩溃,但仔细检查记录后发现,模型基本按预期运行,没有泄露敏感信息。 OpenClaw 的爆红,也揭示了一个更大的趋势,个人开发者的生产力边界正在被推高。
00:00 / 31:28
连播
清屏
智能
倍速
点赞9
AI能做100件事,但这件只能你自己做——判断力 AI能给出10000个答案,但判断力帮你选择正确的那一个。 不到一个月前,OpenClaw从黄牛代装费上千元,到付费卸载299元,30天荒诞反转的背后,是判断力的全面崩塌。 本期深度解析CHASE模型E维度——判断力。 E维度三层次: L1 优化判断,在给定目标下选择最优方案,AI完全可以做。比如已确定要买车,选哪款性价比最高。 L2 目标判断,判断什么才是重要的问题,AI就比较难做了。比如需要买车吗,还是打车租车更合适。 L3 价值判断,在不确定环境下定义方向加上伦理道德判断,AI目前无法做到。 如果你的判断力停留在L1,AI可以轻松替代你。但如果你能提升到L2、L3,你就在做AI做不了的事情,你就在建立AI时代的护城河。 三位大师的判断力智慧: 黄仁勋第一性原理,剥离噪音找到核心要素,然后基于本质做判断。 达利欧五步决策,明确目标发现问题诊断问题设计方案执行。 芒格逆向思维,永远反过来想先想怎么失败,再想怎么成功。 三个立即可用的工具: 工具一三分钟判断力清单,问自己三个问题。这件事解决了我哪个真正的问题,我有安全边际吗,我的判断基于什么。规则很简单,如果2个以上选后者,坚决不做。 工具二决策偏见检查清单,检查三个问题。确认偏见,沉没成本,从众效应。诊断标准,如果2个以上打钩,你需要重新审视这个决策。 工具三事前验尸模板,假设3个月后这个决策彻底失败了。失败的原因是什么,现在如何预防。 核心金句:判断力,是人类在AI时代的最后防线。 #CHASE模型 #判断力 #AI时代 #决策思维 #职场技能
00:00 / 15:08
连播
清屏
智能
倍速
点赞10