花费200到总结Claude Opus-4.7四个最佳实践 第一个点,叫任务要前置、信息要一次性给足。 官方建议你在第一轮就把目标、约束、验收标准、相关文件位置说清楚。 因为你越是来回补充、拆成很多轮去讲,模型每多一次用户交互,就会多一层 reasoning 开销,效率和质量都可能往下掉。 这背后反映的是一个非常关键的变化: Claude Code 更像“委派型协作”,不是“结对编程型协作”。 第二个点,是这次默认 effort 直接变成了 xhigh。 这其实很值得注意。 因为 Anthropic 等于在告诉你: 对大多数 agent coding 任务来说,真正合适的默认档位,不是省着用,也不是直接拉满, 而是一个介于 high 和 max 之间、兼顾智能和成本的中间档。 他们甚至明确说了,max 虽然更强,但很容易出现收益递减,甚至“想太多”。 所以默认不是更猛,而是更稳。 第三个点,是 adaptive thinking。 以前很多人理解“深度思考”,是固定给预算、固定让模型多想。 但 Opus 4.7 不是这个思路。 它现在更像按场景动态分配思考: 简单问题快速答,复杂步骤再多想。 而且官方特别强调,这一版比以前更不容易 overthinking。 这意味着什么? 意味着真正成熟的 Agent,不是永远拼命想,而是该快的时候快,该深的时候深。 最后还有一个容易被忽略,但很关键的变化: Opus 4.7 默认会少调工具、少开子代理、回答也没以前那么啰嗦。 也就是说,它更克制了。 如果你希望它多读文件、多搜索、多并行 subagent, 你不能再默认它自己会这么干, 你得把“什么时候该调工具,什么时候该并行”明确写进你的 harness 或 prompt 里。 这已经不是单纯的 prompt engineering, 而是agent behavior design。 #AI #claudecode #ai新星计划 #青年创作者扶持计划 #opus4.7
00:00 / 03:02
连播
清屏
智能
倍速
点赞55
00:00 / 01:25
连播
清屏
智能
倍速
点赞48
00:00 / 00:48
连播
清屏
智能
倍速
点赞484
00:00 / 00:50
连播
清屏
智能
倍速
点赞51
Claude提示词缓存 Prompt Caching算法详解 之前的视频我们介绍了Claude Code如何利用Prompt Caching节省token的。这次我们深入讲解一下Claude Code客户端在请求里明文写的cache_control标记是如何工作的。 cache_control有两种用法。Automatic自动模式,请求顶层放一个字段,服务器自动给最后一个block打1个breakpoint,简单粗暴。Explicit明确指定,自己往block上挂,最多4个,位置自己挑。Claude Code用的是Explicit,3个breakpoint的位置全是它自己选的。3个分别标在system数组第2项末尾、第3项末尾、最新user消息末尾。前两个是稳定锚点,第3个是游标,每轮跟着最新输入往后跑。 3条核心原理: 原理1:缓存只在breakpoint位置写,写的是从头到这里的累积prefix。所以29个tools没标cache_control也被缓存——蹭system[1]的车一起打包写进去。 原理2:读的时候在breakpoint位置查不到,往前一个block查,最多查20个。它找的是"之前写过的条目",不是"现在稳定的内容"。 原理3:20格上限。超过就放弃。 官方博客Thariq的"Prompt Caching is Everything"分享了Claude Code围绕缓存的几个设计:分层(静态在前动态在后)、Plan Mode做成两个工具而不是swap工具集、Tool Search用defer_loading发轻量存根、compact共享原session的system+tools+history做前缀。两条提醒:不要中途切模型(缓存按模型分隔),不要中途改MCP/hook(整段前缀重来)。 #claude #个人开发者 #命令行 #AI工具 #张司机
00:00 / 06:46
连播
清屏
智能
倍速
点赞229
00:00 / 01:42
连播
清屏
智能
倍速
点赞41