00:00 / 03:51
连播
清屏
智能
倍速
点赞63
Thinking模式是如何让Claude Code变聪明的 Claude Code的`/config`里有个thinking mode开关,Claude App的回答前也常挂一段灰色「思考过程」。这一期用claude-tap抓真实请求拆开看——这段思考到底是装饰,还是真的在影响最终答案。 先说本质。普通模式是 上下文 → 行动;thinking模式是 上下文 → 中间推理 → 行动。中间多出来那段是模型给自己行动之前写的草稿。关键在Transformer,生成下一个token时前面所有token都是上下文,所以这段先写的thinking会被自己读回去当输入。 请求体两个字段:thinking: "adaptive"让模型自己决定想不想、想多深;effort: "high"控制深度,五档low/medium/high/xhigh/max,档位越高越细越慢。 响应体content数组两块。我贴了cache.js(带TTL的内存缓存)和app.js(set一秒TTL两秒后get,期望null实际拿到值),问根因和修复。thinking block里干一件事——定位bug在get函数:取出entry但没检查过期。text block给修复:在get里对比`Date.now()`和`entry.expiry`,过期就删除返回null。thinking做诊断,text基于诊断出修复——thinking是text的地基。 这段思考怎么来的?大模型训练四步:预训练 → 指令微调 → RLHF → Reasoning Tuning。普通模型走前三步就上线,reasoning模型多走第四步。样本格式从"问题+答案"变成"问题+`<reasoning>`+`<answer>`"。比如解2(x-3)=14,普通样本直接给x=10,推理样本先在reasoning里写Step 1、2、3再给answer。模型反复看,就把"先写推理再答"内化成了输出习惯。运行时再靠`thinking: adaptive`字段显式开启——没这字段,模型想推理也没地方写。 所以开关控制的是模型张嘴前要不要先把思路在心里过一遍。代价是慢一点、token多烧一点;好处是同一个bug它会枚举可能性、排除错误选项,再给答案。 下次你的Claude Code请求看着没动静,可能就是它在写草稿。 #claude #个人开发者 #程序员 #AI工具 #张司机
00:00 / 06:58
连播
清屏
智能
倍速
点赞150
00:00 / 03:09
连播
清屏
智能
倍速
点赞70
00:00 / 05:12
连播
清屏
智能
倍速
点赞7
00:00 / 06:44
连播
清屏
智能
倍速
点赞4449
00:00 / 00:43
连播
清屏
智能
倍速
点赞6
00:00 / 01:52
连播
清屏
智能
倍速
点赞88
00:00 / 04:14
连播
清屏
智能
倍速
点赞35
00:00 / 02:12
连播
清屏
智能
倍速
点赞11