00:00 / 01:17
连播
清屏
智能
倍速
点赞125
00:00 / 03:20
连播
清屏
智能
倍速
点赞108
00:00 / 14:06
连播
清屏
智能
倍速
点赞161
OpenClaw原理篇:会话剪枝机制(上) OpenClaw主要通过在每次调用大模型(LLM)之前修剪旧的工具运行结果来优化上下文。这种方式可以有效减少因工具输出(如执行结果、文件读取、搜索结果)累积而导致的上下文膨胀。 具体优化机制和特点如下: 仅针对工具结果,不改变对话: 会话修剪专门针对旧的工具输出,绝对不会触及或修改用户和助手的对话消息。 纯内存操作,保障历史完整: 所有的修剪仅在内存中进行(In-memory only),不会修改保存在磁盘上的会话记录,您的完整历史记录始终得到安全保留。 降低成本并延缓压缩: 长期的会话会积累大量工具输出并使上下文窗口膨胀,这不仅增加成本,还会迫使系统过早进行对话压缩(Compaction),而修剪操作可以在两次压缩周期之间让工具输出保持精简。 优化Anthropic提示词缓存: 修剪对于Anthropic大模型的提示词缓存(Prompt Caching)极具价值。当缓存的生存时间(TTL)过期后,系统会重新缓存完整的提示词,通过修剪可以大幅减少写入缓存的数据量,从而直接降低API成本。 具体的工作流程(How it works)为: 等待缓存的TTL过期(默认值为5分钟)。 查找旧的工具运行结果。 进行软修剪(Soft-trim):对于超长的工具结果,仅保留头部和尾部内容,并在中间插入 ...。 进行硬清除(Hard-clear):将其余的工具结果直接替换为占位符。 重置TTL,以便后续的请求能够复用经过瘦身的最新缓存 #OpenClaw #OpenClaw智能体 #ai #ai工具
00:00 / 03:28
连播
清屏
智能
倍速
点赞31
00:00 / 01:22
连播
清屏
智能
倍速
点赞9
00:00 / 01:20
连播
清屏
智能
倍速
点赞23
00:00 / 01:09
连播
清屏
智能
倍速
点赞25
00:00 / 02:02
连播
清屏
智能
倍速
点赞81
00:00 / 02:06
连播
清屏
智能
倍速
点赞35
00:00 / 04:33
连播
清屏
智能
倍速
点赞7
00:00 / 01:15
连播
清屏
智能
倍速
点赞67
00:00 / 06:10
连播
清屏
智能
倍速
点赞1442