00:00 / 01:17
连播
清屏
智能
倍速
点赞142
00:00 / 04:33
连播
清屏
智能
倍速
点赞11
00:00 / 00:38
连播
清屏
智能
倍速
点赞109
00:00 / 02:01
连播
清屏
智能
倍速
点赞1
00:00 / 00:53
连播
清屏
智能
倍速
点赞22
WayToAI1月前
OpenClaw重大更新!三大行业场景落地案例解析 很多人觉得 AI 聊久了会“失忆”,原因只是上下文不够长。这个理解只对一半。上下文长度解决的是“能装多少”,但真正决定 AI 是否稳定记住重点的,是系统如何管理信息:哪些该保留,哪些该压缩,哪些该交给别的 agent,哪些该沉淀成长期结论。 OpenClaw 这次更新的关键,是把 Context Engine 做成插件化能力。也就是说,记忆管理不再写死在主程序里,而是变成一层可替换、可编排、可按行业定制的系统能力。以后同一个模型,换一套 Context Engine,工作方式就可能完全不同。 它开放的 7 个钩子,覆盖了信息生命周期的关键环节:对话开始时加载哪些背景、用户新消息怎么分类、回答前调用哪些历史信息、上下文过长时如何压缩、一轮结束后沉淀什么结论、子 agent 启动前怎么交接、子 agent 结束后怎么合并结果。开放的不是一个“小摘要功能”,而是 AI 处理记忆的整条链路。 这件事为什么重要?因为即使模型上下文很长,也不代表问题解决了。大窗口只是把“整理信息”的时机往后推,不能替代“整理信息”本身。装得下,不等于每次都能抓住重点;看得到,不等于能稳定调出关键内容。真实产品还要考虑成本、速度,以及多 agent 协作时的信息交接。 真正让行业用户在意的,不是“AI 能记更多”,而是“它到底知不知道什么最不能丢”。 比如电商里,客服最怕丢的是承诺、订单状态、纠纷时间线;选品最看重的是 SKU 异常、退货原因、供应链变化;投放更关心人群、素材和转化质量之间的关系。内容团队里,核心不是“记住写过什么”,而是长期保留风格规则、平台差异、改稿决策和复盘结论。教育场景里,真正重要的也不是学生做过哪道题,而是掌握度、错误类型、难度节奏和情绪状态。 所以,Context Engine 的价值,不是把更多聊天记录塞给模型,而是先定义“在这个岗位里,什么信息最值钱”,再决定这些信息怎么留、怎么丢、怎么传。 #openclaw #AI #电商 #知识分享 #运营
00:00 / 22:50
连播
清屏
智能
倍速
点赞257
00:00 / 02:16
连播
清屏
智能
倍速
点赞17
OpenClaw原理篇:会话剪枝机制(上) OpenClaw主要通过在每次调用大模型(LLM)之前修剪旧的工具运行结果来优化上下文。这种方式可以有效减少因工具输出(如执行结果、文件读取、搜索结果)累积而导致的上下文膨胀。 具体优化机制和特点如下: 仅针对工具结果,不改变对话: 会话修剪专门针对旧的工具输出,绝对不会触及或修改用户和助手的对话消息。 纯内存操作,保障历史完整: 所有的修剪仅在内存中进行(In-memory only),不会修改保存在磁盘上的会话记录,您的完整历史记录始终得到安全保留。 降低成本并延缓压缩: 长期的会话会积累大量工具输出并使上下文窗口膨胀,这不仅增加成本,还会迫使系统过早进行对话压缩(Compaction),而修剪操作可以在两次压缩周期之间让工具输出保持精简。 优化Anthropic提示词缓存: 修剪对于Anthropic大模型的提示词缓存(Prompt Caching)极具价值。当缓存的生存时间(TTL)过期后,系统会重新缓存完整的提示词,通过修剪可以大幅减少写入缓存的数据量,从而直接降低API成本。 具体的工作流程(How it works)为: 等待缓存的TTL过期(默认值为5分钟)。 查找旧的工具运行结果。 进行软修剪(Soft-trim):对于超长的工具结果,仅保留头部和尾部内容,并在中间插入 ...。 进行硬清除(Hard-clear):将其余的工具结果直接替换为占位符。 重置TTL,以便后续的请求能够复用经过瘦身的最新缓存 #OpenClaw #OpenClaw智能体 #ai #ai工具
00:00 / 03:28
连播
清屏
智能
倍速
点赞31
00:00 / 00:38
连播
清屏
智能
倍速
点赞4