OpenClaw原理篇:会话剪枝(下) OpenClaw主要通过在每次调用大模型(LLM)之前修剪旧的工具运行结果来优化上下文。这种方式可以有效减少因工具输出(如执行结果、文件读取、搜索结果)累积而导致的上下文膨胀。 具体优化机制和特点如下: 仅针对工具结果,不改变对话: 会话修剪专门针对旧的工具输出,绝对不会触及或修改用户和助手的对话消息。 纯内存操作,保障历史完整: 所有的修剪仅在内存中进行(In-memory only),不会修改保存在磁盘上的会话记录,您的完整历史记录始终得到安全保留。 降低成本并延缓压缩: 长期的会话会积累大量工具输出并使上下文窗口膨胀,这不仅增加成本,还会迫使系统过早进行对话压缩(Compaction),而修剪操作可以在两次压缩周期之间让工具输出保持精简。 优化Anthropic提示词缓存: 修剪对于Anthropic大模型的提示词缓存(Prompt Caching)极具价值。当缓存的生存时间(TTL)过期后,系统会重新缓存完整的提示词,通过修剪可以大幅减少写入缓存的数据量,从而直接降低API成本。 具体的工作流程(How it works)为: 等待缓存的TTL过期(默认值为5分钟)。 查找旧的工具运行结果。 进行软修剪(Soft-trim):对于超长的工具结果,仅保留头部和尾部内容,并在中间插入 ...。 进行硬清除(Hard-clear):将其余的工具结果直接替换为占位符。 重置TTL,以便后续的请求能够复用经过瘦身的最新缓存 #OpenClaw #ai #ai工具 #ai智能体
00:00 / 04:12
连播
清屏
智能
倍速
点赞19
00:00 / 01:50
连播
清屏
智能
倍速
点赞237
00:00 / 01:03
连播
清屏
智能
倍速
点赞1062
5个技巧,教你驾驭 Claude Code 的一百万上下文 第一个技巧,不要把 session 当聊天记录。 很多人习惯一个窗口一直聊下去。 但从系统角度看,session 不是聊天框,它是运行时工作区。 任务一旦变了,哪怕上下文还没满,也应该考虑开新 session。 因为真正的问题不是“还能不能塞”,而是“这些旧信息还值不值得继续干扰模型”。 第二个技巧,出错以后,优先 rewind,不要只是补一句纠正。 这是很多人最容易忽略的。 模型走错了,你跟它说“刚才不对,换个方法”,看起来像在修正。 但实际上,错误路径、错误尝试、错误推理,全都还留在上下文里。 更好的做法是 rewind,直接回到关键节点,把失败分支剪掉,再重新走。 说白了,这不是纠错,这是剪枝。 这个差别非常大。 第三个技巧,长任务里要主动 compact,不要等它又长又乱了再压缩。 因为上下文越长,模型的注意力越容易被摊薄。 文章里提到一个概念,叫 context rot。 你可以简单理解成:不是它失忆了,而是它看的东西太多以后,重点开始被噪音稀释。 所以 compact 不是收尾动作,很多时候它应该是一个主动管理动作。 趁你还知道接下来要做什么的时候,提前压缩,效果通常比拖到最后更好。 第四个技巧,分清 compact 和 clear。 很多人把这两个动作混着用。 但其实完全不是一回事。 compact 是让模型帮你总结历史,然后继续。 clear 是你自己重写一份 brief,干净重开。 一个省事,一个可控。 如果任务方向已经很明确,compact 可以提高效率。 但如果方向变了,或者你怀疑上下文已经脏了,那 clear 往往更稳。 因为你不是在让模型猜什么重要,而是你自己重新定义什么重要。 第五个技巧,把 subagent 当“上下文隔离器”,不是“并行工具”。 很多人觉得 subagent 的价值就是多开几个模型同时干活。 这理解太浅了。 它真正值钱的地方,是把那些中间过程特别长、输出特别多、但最后只需要一个结论的任务,隔离到独立上下文里。 主上下文只拿结果,不吃过程。 这一步非常关键。 因为 Agent 真正贵的,不只是算力,还是主上下文的注意力预算。 #AI #人工智能 #claudecode #agent工程师 #自我提升
00:00 / 03:57
连播
清屏
智能
倍速
点赞491
00:00 / 00:45
连播
清屏
智能
倍速
点赞245
00:00 / 02:58
连播
清屏
智能
倍速
点赞371
00:00 / 01:34
连播
清屏
智能
倍速
点赞23
00:00 / 04:32
连播
清屏
智能
倍速
点赞5
一蛙AI5月前
如何通过上下文工程来管理和优化上下文,以应对长任务、多轮交互和大量工具调用导致的成本上升、延迟变大与context rot 三个核心原则:卸载、减少、隔离上下文。 1. 卸载上下文 卸载指把信息从模型的上下文窗口转移到外部存储,以便在需要时再取回。 •持久化信息:代理可把计划等信息写入文件,执行多步操作后再读回文件,从而保持一致性并避免遗忘。 •跨会话记忆:文件系统(如cloud.md、agent.md)可以保存跨代理调用会话的持久状态,用作长期记忆。 •卸载动作:与其在系统提示中加载大量工具,不如给代理少数原子化工具(如Bash、文件操作工具)。代理可通过这些工具调用文件系统里的脚本,从而扩展能力范围,同时不污染系统提示。 •渐进式披露:以Anthropic的技能skills为例,系统只加载技能的头部描述。代理决定调用某技能时,才会读取技能目录中的详细skill.md并使用基本工具执行对应脚本,以减少初始上下文负担。 2. 减少上下文 减少上下文指在每次交互中降低传入上下文的体积。 •压缩:如Manus代理会把已执行、较旧的工具结果完整内容转存为文件,并在消息历史中只保留文件引用。这是可逆的,需要时可重新读取原文。 •总结:当上下文窗口接近满载(如95%)时,系统会把整个消息历史总结成更精炼内容,以节省空间。这类压缩是不可逆的,会有信息损失。 •过滤:一些系统(如Deep Agents包)使用中间件过滤特别大的工具输出,防止其直接塞进模型上下文中。 3. 隔离上下文 隔离指使用独立的上下文窗口或子代理来处理可独立完成的任务,以避免上下文爆炸。 •子代理模式:父代理生成子代理,让后者在全新、干净的上下文中执行工作,再把最终结果返回给父代理。这样父代理不必承受整个任务细节带来的负担。 •共享上下文资源:某些设计下,子代理虽使用独立上下文,但仍可共享父代理的资源,如文件系统,以在隔离的同时保留必要的信息访问能力。 视频中用到的文档:notion.so/Context-Engineering-for-Agents-2a1808527b17803ba221c2ced7eef508 视频英文原稿在油管LangChain频道 #大模型 #人工智能 #aiagent #langchain #claudecode
00:00 / 16:26
连播
清屏
智能
倍速
点赞1568
00:00 / 01:32
连播
清屏
智能
倍速
点赞261
🚀上下文工程彻底改写Claude Code编程方式 🚀彻底改写Claude Code编程方式!从提示词工程到上下文工程!AI编程能力提升百倍!从需求分析到代码生成全自动化!保姆级实战教程!支持Windows!零基础用Claude Code开发AI智能体 🚀🚀🚀视频简介: 保姆级教程!Claude Code新版本配合上下文工程,零编程基础10分钟开发完整AI智能体项目,传统提示词工程已经过时了!一次性生成完美代码,再也不用担心AI写出垃圾代码了! ✅ 本期视频详细演示了如何使用Claude Code最新版本,配合革命性的上下文工程(Context Engineering)技术,零编程基础开发完整的AI智能体项目! ✨ 核心亮点: 1️⃣Claude Code原生支持Windows系统,无需WSL 2️⃣Context Engineering开源项目(5000⭐)完整实战 3️⃣自动生成INITIAL.md和CLAUDE.md配置文件 4️⃣一键执行PRP命令完成复杂项目开发 5️⃣AutoGen框架三个Agent完美协作 6️⃣美观简洁的Chainlit UI界面 🔥 演示内容包括完整的开发流程:从项目配置、文档生成、到最终的代码编写智能体运行测试。相比传统提示词工程,上下文工程能提供完整的体系化上下文,让AI完全理解开发需求,大幅提升开发效率和代码质量。 💡 即使完全不懂编程,掌握这套方法也能开发出专业级的AI应用! 🔥🔥🔥时间戳: 00:00 开场介绍 - Claude Code 1.0.51版本发布,原生支持Windows系统 00:59 传统提示词工程的局限性 - 信息有限、措辞技巧要求高、代码质量差 01:28 上下文工程概念解析 - Context Engineering范式转变和核心优势 02:03 Context Engineering开源项目介绍 02:32 项目文件结构详解 03:42 AutoGen智能体框架介绍 04:54 实战演示:生成配置文件 07:21 PRP文件生成过程 08:41 完整项目开发演示 #claudecode #上下文工程 #ContextEngineering #cursor #ai编程
00:00 / 12:39
连播
清屏
智能
倍速
点赞1143