ThreeAI1周前
AI写代码,0%人类介入!Anthropic Claude Code 的负责人 Boris Cherny。作为重塑 AI 编程工具的缔造者,他自去年 11 月以来没有亲手修改过一行代码,却依然保持着傲视群雄的产出!🔥 通过他分享的19张核心PPT,我们正在见证一场软件工程从“辅助”向“托管”的狂飙突进。以下是后代码时代的4个残酷又兴奋的真相👇: 1️⃣ 编程已是“已解决”的问题 (Coding is Solved) 水面下80%的机械劳动(语法、调优、API文档)正在被剥离!Boris直言:“我不怀念写代码,没有烦人的细枝末节,我比以往更享受工作。” 核心意图(Intent)和架构设计才是未来的护城河。 2️⃣ Chatbot已死,Agent(智能体)接管终端 AI 正在从被动问答转向主动解决问题。给模型最小的脚手架和最大的工具权限,让 Agent 在你的终端里完成“思考->调用->观察->修正”的闭环。产品策略就应该建立在用户的“越狱”和“异常用法”上! 3️⃣ “软件工程师”消亡,“Builder”全面崛起 🛠️ 这是编程界的“古登堡时刻”!就像印刷术普及了知识,AI 正在让软件创造民主化。未来最有价值的,是那些能跨越学科边界、直接利用 AI 将想法转化为产品的“混合型构建者”。在 Claude 团队,连产品经理和设计师都在直接修改代码库! 4️⃣ 实操法则:把 Agent 当作你的实习生群 👨‍💻👩‍💻 不要为了省钱用小模型,智力就是效率!开启多智能体并行(Multi-Agent Parallelism),同时分派5-6个任务(Debug、重构、写文档),去喝杯咖啡,回来直接Review 5个PR。你的手不再属于键盘,你的大脑只负责“规划与审核”。 💡 《threeAI》思考时间: 当 AI 将“执行时间”压缩至零,人类价值的刻度将回归到“发酵时间”。就像酿造一罐需要三年的顶级红味噌,当 Agent 能帮你处理 100% 的代码执行,你准备好用剩下的时间去酿造什么样的“长期愿景”了吗? 欢迎在评论区聊聊你的看法!作为 Builder,你现在每天用 AI 帮你写多少比例的代码?👇 #人工智能 #AI编程 #Claude #Anthropic #Agent
00:00 / 10:39
连播
清屏
智能
倍速
点赞90
00:00 / 01:50
连播
清屏
智能
倍速
点赞1034
00:00 / 02:19
连播
清屏
智能
倍速
点赞29
深入提示词缓存:Claude Code 团队 7 条核心准则 Prompt Caching 原理 LLM 推理分预填充(处理全部输入,计算 KV 向量)和解码(逐 token 生成)两阶段。Prompt Caching 在服务端持久化预填充产生的 KV Cache,后续请求前缀一致时直接加载,跳过重复计算。 核心约束:严格前缀匹配——一个字符差异即完全失效。缓存存储的是 KV 矩阵而非文本,默认 5 分钟 TTL(命中刷新),最低门槛 1024 tokens。缓存读取成本仅为常规输入的 10%。 手动 vs 自动缓存 · 手动:显式标记 cache_control 断点(最多 4 个),静态内容置前,动态对话置后。痛点是多轮对话中任何消息编辑都会破坏前缀,实际命中率远低于预期。 · 自动:请求顶层加一行 cache_control,系统自动管理断点并随对话增长前移,兼容手动断点。 Claude Code 团队的 7 条实践准则 1. 前缀稳定第一:system prompt、tools、CLAUDE.md 等静态内容永远置于最前。 2. 动态信息用消息注入:如当前日期通过 <system-reminder> 标签注入消息流,不修改 system prompt。 3. 工具列表锁定:运行期间不增删工具,改用 defer_loading 占位 + 动态搜索替代。 4. 模型切换隔离:切换模型等于缓存失效,需用子 Agent 隔离调用。 5. 特性设计围绕缓存:如 Plan 模式通过额外工具实现,而非配置开关。 6. 压缩复用父前缀:上下文超限时自动摘要旧对话,但 system + tools 前缀完整复用,单次压缩成本从 $0.09 降至 $0.009。 7. 日志监控:每次调用必检 cache_read_input_tokens 和 cache_creation_input_tokens,读数为 0 即告警。 #ai #提示词 #智能体 #Prompt
00:00 / 00:29
连播
清屏
智能
倍速
点赞24
00:00 / 01:47
连播
清屏
智能
倍速
点赞61
00:00 / 01:24
连播
清屏
智能
倍速
点赞11