528
9
724
135
举报
发布时间:2026-04-05 08:40
查看AI文稿
GOclaw龙虾
GOclaw龙虾

粉丝1200获赞7810

相关视频

  • OpenClaw模型王炸更新!Ollama支持 Gemma4 #Ollama #OPENCLAW
    01:18
    查看AI文稿
  • 看傅盛用EasyClaw,三步彻底搞定,AI上下文记忆限制#跟傅盛学AI #OpenClaw #agent #大有学问
    02:13
    查看AI文稿
  • 为什么你的 AI Agent 跑一会就挂?长任务 Agent #openclaw #agents #claude #openai #网络安全
    05:05
    查看AI文稿
  • OpenClaw为何这么费Token?核心原理揭秘 OpenClaw 之所以"费 Token",是因为它每次交互都要携带大量上下文!
今天深入剖析 OpenClaw 核心原理——它会一次性把 AGENTS.md、SOUL.md、IDENTITY.md、MEMORY.md 等记忆文件全部提交给大模型,还有对话记录和工具列表。每次提交高达 156K 字符,相当于普通对话的上百倍!
这就是为什么 OpenClaw 能记住你的一切,但同时也比较耗 Token。想知道如何优化吗?
#OpenClaw 
#AI 
#Agent 
#干货科普
    02:16
    查看AI文稿
  • 养🦞省钱技巧,官方民间都有,足足十几条 #AI #养虾人 #openclaw #人工智能 #AI龙虾
    02:41
    查看AI文稿
  • OpenClaw原理篇:会话剪枝机制(上) OpenClaw主要通过在每次调用大模型(LLM)之前修剪旧的工具运行结果来优化上下文。这种方式可以有效减少因工具输出(如执行结果、文件读取、搜索结果)累积而导致的上下文膨胀。
具体优化机制和特点如下: 
仅针对工具结果,不改变对话: 会话修剪专门针对旧的工具输出,绝对不会触及或修改用户和助手的对话消息。
纯内存操作,保障历史完整: 所有的修剪仅在内存中进行(In-memory only),不会修改保存在磁盘上的会话记录,您的完整历史记录始终得到安全保留。
降低成本并延缓压缩: 长期的会话会积累大量工具输出并使上下文窗口膨胀,这不仅增加成本,还会迫使系统过早进行对话压缩(Compaction),而修剪操作可以在两次压缩周期之间让工具输出保持精简。
优化Anthropic提示词缓存: 修剪对于Anthropic大模型的提示词缓存(Prompt Caching)极具价值。当缓存的生存时间(TTL)过期后,系统会重新缓存完整的提示词,通过修剪可以大幅减少写入缓存的数据量,从而直接降低API成本。
具体的工作流程(How it works)为: 
等待缓存的TTL过期(默认值为5分钟)。
查找旧的工具运行结果。
进行软修剪(Soft-trim):对于超长的工具结果,仅保留头部和尾部内容,并在中间插入 ...。
进行硬清除(Hard-clear):将其余的工具结果直接替换为占位符。
重置TTL,以便后续的请求能够复用经过瘦身的最新缓存 
#OpenClaw #OpenClaw智能体 #ai #ai工具
    03:28
    OpenClaw原理篇:会话剪枝机制(上) OpenClaw主要通过在每次调用大模型(LLM)之前修剪旧的工具运行结果来优化上下文。这种方式可以有效减少因工具输出(如执行结果、文件读取、搜索结果)累积而导致的上下文膨胀。
    具体优化机制和特点如下:
    仅针对工具结果,不改变对话: 会话修剪专门针对旧的工具输出,绝对不会触及或修改用户和助手的对话消息。
    纯内存操作,保障历史完整: 所有的修剪仅在内存中进行(In-memory only),不会修改保存在磁盘上的会话记录,您的完整历史记录始终得到安全保留。
    降低成本并延缓压缩: 长期的会话会积累大量工具输出并使上下文窗口膨胀,这不仅增加成本,还会迫使系统过早进行对话压缩(Compaction),而修剪操作可以在两次压缩周期之间让工具输出保持精简。
    优化Anthropic提示词缓存: 修剪对于Anthropic大模型的提示词缓存(Prompt Caching)极具价值。当缓存的生存时间(TTL)过期后,系统会重新缓存完整的提示词,通过修剪可以大幅减少写入缓存的数据量,从而直接降低API成本。
    具体的工作流程(How it works)为:
    等待缓存的TTL过期(默认值为5分钟)。
    查找旧的工具运行结果。
    进行软修剪(Soft-trim):对于超长的工具结果,仅保留头部和尾部内容,并在中间插入 ...。
    进行硬清除(Hard-clear):将其余的工具结果直接替换为占位符。
    重置TTL,以便后续的请求能够复用经过瘦身的最新缓存
    #OpenClaw #OpenClaw智能体 #ai #ai工具
    查看AI文稿
  • AI重复犯错?试试这个能让它自我进化的Skill! 一天一个Skill,让你的AI龙虾越用越懂你!#AI龙虾 #Openclaw #skills #moliliclaw #cocoloop
    01:14
    查看AI文稿
  • OpenClaw v2026.3.22 史诗级更新发布!
不仅默认模型直接升到 OpenAI GPT-5.4,更带来了神级功能 /btw:主线对话不被打断,侧边提问秒回,简直是“多线程脑回路”程序员的福音!
更有 ClawHub 插件中心正式上线,AI 助理的能力边界再次被打破。
如果你想让代码自己“长”出来,这个版本你必须跟上!#openclaw #龙虾 #AI #minimax
    02:18
    查看AI文稿
  • 小龙虾每日一技-Memory-夸会话记忆,ai不再“失忆” #小龙虾 #openClaw #ai  #skills
    01:43
    查看AI文稿
  • OpenClaw原理篇:会话剪枝(下) OpenClaw主要通过在每次调用大模型(LLM)之前修剪旧的工具运行结果来优化上下文。这种方式可以有效减少因工具输出(如执行结果、文件读取、搜索结果)累积而导致的上下文膨胀。
具体优化机制和特点如下: 
仅针对工具结果,不改变对话: 会话修剪专门针对旧的工具输出,绝对不会触及或修改用户和助手的对话消息。
纯内存操作,保障历史完整: 所有的修剪仅在内存中进行(In-memory only),不会修改保存在磁盘上的会话记录,您的完整历史记录始终得到安全保留。
降低成本并延缓压缩: 长期的会话会积累大量工具输出并使上下文窗口膨胀,这不仅增加成本,还会迫使系统过早进行对话压缩(Compaction),而修剪操作可以在两次压缩周期之间让工具输出保持精简。
优化Anthropic提示词缓存: 修剪对于Anthropic大模型的提示词缓存(Prompt Caching)极具价值。当缓存的生存时间(TTL)过期后,系统会重新缓存完整的提示词,通过修剪可以大幅减少写入缓存的数据量,从而直接降低API成本。
具体的工作流程(How it works)为: 
等待缓存的TTL过期(默认值为5分钟)。
查找旧的工具运行结果。
进行软修剪(Soft-trim):对于超长的工具结果,仅保留头部和尾部内容,并在中间插入 ...。
进行硬清除(Hard-clear):将其余的工具结果直接替换为占位符。
重置TTL,以便后续的请求能够复用经过瘦身的最新缓存 
#OpenClaw #ai #ai工具 #ai智能体
    04:13
    OpenClaw原理篇:会话剪枝(下) OpenClaw主要通过在每次调用大模型(LLM)之前修剪旧的工具运行结果来优化上下文。这种方式可以有效减少因工具输出(如执行结果、文件读取、搜索结果)累积而导致的上下文膨胀。
    具体优化机制和特点如下:
    仅针对工具结果,不改变对话: 会话修剪专门针对旧的工具输出,绝对不会触及或修改用户和助手的对话消息。
    纯内存操作,保障历史完整: 所有的修剪仅在内存中进行(In-memory only),不会修改保存在磁盘上的会话记录,您的完整历史记录始终得到安全保留。
    降低成本并延缓压缩: 长期的会话会积累大量工具输出并使上下文窗口膨胀,这不仅增加成本,还会迫使系统过早进行对话压缩(Compaction),而修剪操作可以在两次压缩周期之间让工具输出保持精简。
    优化Anthropic提示词缓存: 修剪对于Anthropic大模型的提示词缓存(Prompt Caching)极具价值。当缓存的生存时间(TTL)过期后,系统会重新缓存完整的提示词,通过修剪可以大幅减少写入缓存的数据量,从而直接降低API成本。
    具体的工作流程(How it works)为:
    等待缓存的TTL过期(默认值为5分钟)。
    查找旧的工具运行结果。
    进行软修剪(Soft-trim):对于超长的工具结果,仅保留头部和尾部内容,并在中间插入 ...。
    进行硬清除(Hard-clear):将其余的工具结果直接替换为占位符。
    重置TTL,以便后续的请求能够复用经过瘦身的最新缓存
    #OpenClaw #ai #ai工具 #ai智能体
    查看AI文稿
  • 管理 OpenClaw 短期记忆最重要的习惯是什么 管理 OpenClaw 短期记忆最重要的习惯是什么,我的答案非常简单:聊完一个话题,就输入 /new  #openClaw
    00:43
    查看AI文稿
  • OpenClaw 日常命令速查:9条必知控制指令 用了一个月小龙虾才发现有命令可用😂 /stop停任务、/restart重启、/compact压缩上下文,几条命令真省事   
#openclaw  #小龙虾  #AI命令  #效率技巧  #AI工具
    01:39
    查看AI文稿
  • openclaw记忆升级教程 升级改造你的小龙虾记忆系统#openclaw #智能体 #记忆 #ai教程
    04:40
    查看AI文稿
  • #龙虾  #openclaw
龙虾踩坑,一个简单配置不合理导致一晚上花了百万级token,并且任务最后一直卡着不动,最终也没有成功按照指令完成。解决方法比较简单,修改上下文长度和输出长度限制即可解决。#龙虾实验室 #知识科普 #教程
    03:15
    查看AI文稿
  • OpenClaw中的Agent Loop #AI #Agent 真正厉害的地方,不是单次调用大模型,而是完整闭环:从用户输入到工具执行、再到状态持久化,全程自主迭代。#OpenClaw 的 Agent Loop 正是这个“灵魂引擎”。
    04:17
    查看AI文稿
  • 飞书机器人总“失忆”?30秒搞定! 飞书机器人聊着聊着就失忆?
报错Context limit exceeded?
别慌,不是飞书的问题!
OpenClaw两个参数直接搞定 👇
✅ agents.defaults.compaction.reserveTokensFloor 调高
✅ memoryFlush 开启
**无需改代码,配置即生效**
对话无限续,记忆永留存
抄作业直接上配置,3步解决!
配置代码评论区自取~
 #飞书开发 #OpenClaw  #飞书机器人聊 #程序员干货  #技术配置小技巧
    07:35
    查看AI文稿