我在我的两台服务器和一个 windows 本地电脑上一共养了十六只小龙虾。今天废话不多说,直接跟大家做个深度复盘,分享我养这十六个 ai 员工砸出来的实战经验。第一个问题,小龙虾到底是个啥?它其实是一个有自己记忆的命令行操作工具。 它并不是直接去点鼠标,而是在你电脑的黑色操作框里输入一堆命令来帮你执行任务。当然,如果你有需求,它也可以通过一些开源工具现场写代码来控制鼠标进行精准点击。第二个问题,它适合什么系统?它原生支持苹果、 mac 和 linux。 近阶段对 windows 的 配置是最差的,因为 windows 和 linux 的 操作命令不一样,很多工具用到 linux 命令在 windows 上强跑,就会经常报错。但因为绝大多数用户都在用 windows, ai 社区进化极快,大家不必急,大概一两周之后,相关配置就会完全适配上。为什么一开始这么难养,经常卡住干不了活?因为它极度依赖基础环境。 如果你的电脑本来就配了 n p m 或者用过 cloud code, 它跑的极其顺畅,如果是个裸机,就会疯狂报错。更致命的是环境网络,它需要连 github 和谷歌来搞定自己的工具, 一旦没环境就会卡死。你的首要任务就是得给他换成国内的清华园或某宝园,把他引上国内的高速路。搞定基础后,你要让他操控浏览器,还得给他上各种 skill 插件。每个人的电脑浏览器版本都有差异,你需要不断调试。这整个填坑的过程就是养龙虾。第三个经验,关于小龙虾的记忆阶段,他的记忆还是记在文本里,用的时候去搜高级点的,会加上向量数据库。但别对 ai 的 记忆抱有神奇幻想, 现阶段他的记忆并不像人类那么完善,无论是向量搜索还是知识图谱,都还是会出现错漏和幻觉的。所以我们需要不断去调整他的记忆模式,是在主记忆里全局索隐,还是弄成严谨的知识图谱,这依然是大家都在探索的阶段。第四个经验,现阶段他最合适的用法就是接管你已经跑通的工作流。比如我现阶段的视频全是用代码跑通的,我 现在把这个工作流全权交给了小龙虾,他全自动帮我搜题、写文案、做视音频,结合我还把他接入了工程群,他每天自动接管群里的信息,一旦有重要日常,他直接帮我同步到飞书日历里。我日常扫描的图纸资料全部丢给他整理,把他打造成一个工程量的知识库,需要什么直接让他解锁。他就是一个得力的超级助理。我甚至在探索一种公司化的模式,弄一个面板来控制着十六只龙虾, 让他们像团队一样朝着一个大目标携手。关于大家最关心的成本问题,哪怕设置三十分钟一次,一天也要醒来 四十八次。去问大模型拿主意,如果是多 a 的 串联一只龙虾,调用七八只龙虾开会,消息互通,产生的 token 消耗肯定让你破产。我的终极省钱策略是建立大模型分级池,干重活时去买大厂的包月或按次计费套餐,你一次对话不管传多少万次代码,也只消耗一次 prompt 一个月几块钱能买一万八千次,极其划算。而像日常待机简单的活,直接给他接摩搭英伟达或 github 开源的免费 token 方案,这才是理想的省钱架构。最后我分享一下,我在交流圈里看到别人在用龙虾干嘛,有人用它在后台控制 cad 进行画图, 虽然还不理想,但这套逻辑已经跑通了。还有人用它跑短剧,生成,自动写提示词,登录 ai 视频网站,自动点击生成,最后合成一部微电影,完全可行。还有大量接管工作流网站的,自动去内容平台收帖子,抓文案,全自动写文章发视频。前期把环境配好,把工具跑顺,慢慢打磨流程,将我们从这些繁重无聊的工作中彻底解放出来。
粉丝1.4万获赞11.6万

大家好,接下来呢给大家录制一个龙虾的使用教程啊,首先当你安装完龙虾之后啊,你这时候就可以通过网页或者是你 对接的一些通讯工具,比如说飞书啊,进行指令的下达了啊,这时候你就可以和龙虾聊天啊,让龙虾帮你去做事了。但是你刚安装完的这个龙虾,它的功能是非常有限的啊,很多人觉得说,哎,我把龙虾安装之后啊, 我就可以像其他的博主那样啊,帮我去炒股啊啊,帮我去剪视频啊啊,帮我进行自动发布啊等等等等,这些是不可以的啊,就是你安装的这个龙虾只是具备了一个基础的功能, 那么像其他博主那样,他可以做很多事情,是因为他给这个龙虾装了很多的技能啊,所以大家一定要清楚啊,你安装的这个龙虾刚安装完之后,你是只有基础功能的,像很多复杂的功能他都是执行不了的。 那好,那怎么样让我的龙虾能够干更多的活,这个技能又该怎么样去找,怎么样安装呢?接下来呢和大家聊聊这个事情啊,首先我们龙虾安装的技能 都在右侧的有个 skills 啊,这个就是技能的意思,点击它, ok, 在 这底下,这里面呢是你安装的所有的技能,龙虾之所以能干活,就是因为你给他装了技能包,这个技能包就是啥呀,操作手册啊,比如说我让龙虾去生成视频的时候,他这时候会首先去检查我有没有生成视频的技能, 如果有的话,他才知道啊,因为在技能包里面给龙虾告诉龙虾了,你生成视频的时候应该怎么样去做?第一步干嘛?第二步干嘛?第三步干嘛?你有了这个技能包之后,那么龙虾才能做的, 那如果你没有这个技能包,那么这时候你的龙虾是生成不了视频,所以大家一定要记着啊,你的龙虾之所以能干活,就是因为它 装了对应的这个技能的啊,好,我们所有的技能呢,是在这里显示的啊,然后如果是绿色的,他表示的就是可以用的,那么如果是黄色的啊,那么代表就是不能使用的。那好,问题来了,这个技能在哪找啊?那么龙虾配套的有一个网站啊,这个网站里面呢,目前有一万多个技能,那么 这时候呢,比如说啊,我要去操作,假设啊,我现在要让龙虾去操作 ppt, 但是默认他操作不了 ppt, 那 这时候你可以干嘛?你可以在龙虾的技能站里面,然后搜索一下 ppt, 然后搜索完成之后呢, ok, 拿到这个技能,点击进去,把它下载到本地啊,这时候你就可以用了,那么这是一种比较原始的,还需要你自己去找原始,那有没有适合大部分人的一种操作方式啊?是有的, 这时候呢, ok, 你 需要给你的龙虾去安装一个技能,它的技能叫做啊, fend skills 的 这个技能 啊,当然咱们通常情况下再去安装龙虾的时候呢,都会给它安装这个 fend skills 的 技能。呃,有很多同学他会找我付费去安装啊,那么我安装的龙虾一定是会装这个技能的,所以经过我手的龙虾, ok, 你 就不用去看这个技能了,一定是有的,如果没有的同学呢,你可以先装这个技能啊,那么这个技能装完之后呢,那么龙虾它就 遇到一个问题的时候,他就会自己去网站去找技能了啊,所以这时候你只需要去告诉龙虾,在聊天儿里面去告诉龙虾,比如说我现在我要去操作 ppt 了,那我是知道的,在我的这个技能 技能里面并没有关于 ppt 的 技能,那没有 ppt 的 技能他是操作不了的。好,那这时候你在聊天里面告诉他,我需要你帮助我生成和获取 ppt, 这是你的目标。先告诉龙虾你的目标是啥,然后完了之后呢,再告诉他执行的路径是啥,对吧?好,然后接下来呢,告诉他 使用查找技能的技能,先去查询关于 ppt 生成和制作的技能,并且把它安装到当前的系统里面。好, ok, 这是第一步, 比如说我在操作一个功能的时候,我首先先得让龙虾先获得这个技能才行,然后这个技能的获得呢,我可以手动的去找,找完之后呢, ok, 我 可以手动的把这个链接直接丢给龙虾啊你,你直接找到之后,你把龙虾,你把这个链接给到龙虾,告诉他,让龙虾把这个技能安装到当前的系统里面, 他这样的话也能做啊,你如果觉得这样比较麻烦,那这时候你只需要大白话,告诉他,我需要生成和提取 ppt, 然后你使用查找技能的技能啊,或者说,呃,你这时候给他写死叫做这个 final skills 啊,然后去查询 ppt 生成和制作的技能,然后把它装在当前的系统里面,那么因为官方提供了一万多个技能啊,当然还有其他的网站可能会有七万多个技能啊,这些技能都是通用的, 我也可以直接呃去找这个技能,然后拿到这个地址之后啊,把这个地址给到龙虾,让龙虾去学习和下载到自己的本地也是没有问题的,对吧?啊?他的官网虽然说只有一万多个,但是其他的地方可能有很多个,而这些技能都是通用的啊,他遵循的都是相应的一个规范。好,那这时候我说完之后呢,我就可以去发送了 啊,发送完了之后呢,这个时候龙虾就依靠大模型的能力来尝试去查找关于 ppt 生成和读取的技能了,然后这时候呢,它会自动地帮咱们进行安装啊,当然安装完了之后呢,可能啊,就可能它是需要你配合它来去做一些事情的,比如说生成 ppt 的 时候,它 有可能会需要你登录啊,去某个网站登录之后获取 api k 啊,那这时候呢,他会告诉你, ok, 我 已经帮你装好了,但是呢,装好之后呢,我需要 api k, 那 你去哪个网站?第一步啊,先去注册,注册完之后第二步先去拿,拿到这个 api k, 然后拿到之后呢,你把这个 api k 给到龙虾,龙虾就能自动帮你去配置了,然后配置完成之后呢, ok, 你 就可以去用了啊,那么这就是龙虾再去使用的时候它的一个基本的流程,当然那么有一些技能我们是可以在技能战里面去找到的, 那么还有一些比较复杂的技能在技能站里面找不到,这时候怎么办?这时候就需要去找专业的 ai 团队来帮你去定做了啊,这个时候可能要去写一些代码,然后在技能里面是可以去写代码的,但是这个呢? ok, 市面上没有现成的。那你啊,就找到专业的 ai 团队去定做你的技能就 ok 了啊,当然咱们再去查找安装这个过程时间是比较长的,你这时候只需要去等就行了。还有另外一个呢,是龙虾在执行任务的时候呢,它是一个任务,一个任务去执行的,所以当上一个任务没有执行完的时候,那么第二个任务你输入给它的时候,它是 会放到队列里面排队执行的啊。所以有些人就会说,哎,李哥,我为什么过了一段时间之后,我给他发消息,他没有任何反馈啊?这时候有可能就是要么是你的大模型调用欠费了啊,你先确定一下,如果没有的话,那么 ok, 可能是他在执行其他的任务,那就你去等一会就行,对吧?好, 那么除了这个网页我们可以这样去使用和操作龙虾之外,那,那比如说我现在我没有在电脑上,我没有办法去打开这个网页去访问,这时候怎么办? ok, 你 可以去对接,比如说像飞书啊这样的一个平台。 ok, 那 么你把,呃龙虾对接好了之后呢? ok, 你 这时候在手机上去下载一个某书,然后找到你的龙虾,这时候去下达任务就可以了,这时候就实现了在任何地方都和龙虾能够进行交流和沟通的一个功能了。 好, ok, 那 么这是基本的一个使用的一个逻辑啊,当然我的模型呢,现在还正在执行当中啊,那咱们就就不等了啊,就大概使用的一个流程,就这样的一个流程。好,那么最后呢给大家去说一下注意事项啊,当你的龙虾安装好了之后呢,这个黑色的命令窗口是不能关的 啊,这个代表的是龙虾的服务,你如果把这个服务关掉了,那么龙虾他就不能用了,他就不能运行了,所以呢,你的电脑 啊,你当前的这个电脑是要保持一直开机的方式的,包括你都不能让它休眠,也是不行的,所以这时候你你装龙虾的这个服务,你想让它二十四小时运行,那么就要去设置一下,让它永远不要待机的 啊,永远不要休眠的啊,然后这个窗口的不要关。那如果你不小心把这个窗口关了之后怎么办啊?或者说我第二天我我我怎么样去找到我这个龙虾啊?给大家来说一下怎么找呢? windows 系统的话, ok, 你 就 呃按这个 win 键啊, windows 键,然后会出来一个搜索的窗口,然后在里面呢去输入一个 cmd 啊,这时候呢,它会有一个命令提示符,对吧?点击它,然后点击它,完了之后呢,好,然后输入启动龙虾的命令。 启动龙虾的命令呢,目前市面上有两个啊,如果你安装的是原版的龙虾,那么启动的命令呢?就是 open claw, 然后 get v 啊,然后敲回车,它就启动了,但是有一些它安装的是中文版的,那么中文版就你使用这样的一个命令,它就会显示没有此命令了啊,如果是中文版的同学呢,怎么办啊?这个 就启动了之后呢就不要管它了啊,如果是中文版的同学呢,你输入的就是 open claw, 然后杠 c n, 然后 get v, 然后敲回车就行了, 这样的话, ok, 就 启动了你的龙虾了,敲完会车,然后你就可以去使用了啊,使用的地方呢,你要么就是你的通讯工具,你要么呢就是你本地的这个页面啊, 那么当然,我这呢显示的是服务离线,那就说明我的服务是没有启动的,当你的服务启动之后呢,它是一个绿色的,对吧?好,那么这就是关于龙虾的一个基本的使用了,所以大家一定要记着龙虾,刚装的龙虾他不是无所不能的啊,龙虾要干活,一定要去安装技能的,而技能怎么样去安装啊,你就可以通过和龙虾的对话,让他自己去找或让他自己去 做技能,通过不断地和他聊天,修正,让他安装好对应的技能包之后,技能之后你才能去使用的,而不是直接下载了龙虾之后就能用啊。好,那本期内容到这里就结束。

把 oppo colo 签上飞书 qq, 然后呢用手机远程指挥荣耀平板干活?大家好,上期咱们教了把 oppo colo 装进平板里,后台就有很多人在问我说装好了,然后呢怎么远程操作它呢?今天这一期咱们就是你们要的远程指挥的保姆级教程。 因为接入 qq 操作起来比较方便,所以本期我们先讲 qq。 首先打开浏览器,输入 qq 自创网址,进入 qq 开放平台, 这里直接弹窗龙虾专用入口,我们直接点击去使用。此时需要我们用手机扫码 qq 登录,完成扫码之后,我们选择新建一个机器人。好,我们给他取个名字。接下来我们看到产生了三条命令,我们打开一个命令,行,我们复制第一条命令,粘贴 回车,这条命令是安装 opencloud qq 机器人插件,这里需要等待几分钟。好,现在已经安装完毕了,如果提示没有安装成功,我们可以重新执行一下这个安装过程。接下来我们复制第二条命令,这条命令就是将我们的 qq 机器人的信息绑定到我们的 opencloud 上。 好,我们看到已经绑定成功了。第三条命令是重启本地的 opencloud 服务,这里我们没有启动 opencloud 的, 所以我们直接关闭, 请用桌面的 open cloud。 好 的,等待几秒钟之后,我们就可以拿起手机对我们的小虾米发出指令。这条消息小虾米收到已经有反馈了, 说明已经和我们的 open cloud 的 平板端进行了关联。为了保证待机之后依然能够在后台运行 open cloud, 我 们还需要在设置里面找到应用。应用启动管理,在这里搜索 linux, 点开将三个选项全部勾选上,点击确定。这样的话,我们即使平板息屏待机, linux 实验室退到后台, opencloud 服务依然可以在后台进行正常运行。本期接入 qq 的 教程就到这里,想要接入飞书教程的评论区扣六六六,我尽快安排。

今天大家只需要跟着我的开源教程,复制粘贴我做好的直击源代码的提示词,就能掌控龙虾从安装到卸载中一切事物,直接跳过使用龙虾的自然熟悉阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会一本书,甚至可以让安全加固也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的 web ui 界面,然后我们再打开准备好的安装文档,复制这个提示词,发送之后,模型会帮我们自动安装飞书插件 连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具,相当于龙虾的虾钳,但现在刚装好,是残血版。 接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态,测试一下,让他用隐私模式打开我们自己的 chrome 浏览器,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。 成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。 能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂一本书,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他读的那本书的本地文件路径。发送后稍等一下,龙虾就可以直接吸收这本书的精华内容。 接下来我们测试一个这本书的相关问题,看看他有没有用这本书的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于书里的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 gpt 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了,我们虽然无法彻底解决安全风险,但可以做个看门狗等方式给安全做个加固。 用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 ready、 热铁摘药,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找和安装它。自动安装好了之后,我们可以发个消息测试一下, 稍等一下,他会使用这个 skills。 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 api key 才能激活的 skills, 建议大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的。最后,在使用中,大家如果觉得 token 消耗太多,可以用这个提示词发送之后模型会根据你的过往使用情况和 tokens 的 消耗强度进行优化,并不是简单的直接调低各种参数,模型优化完成后就告诉我们,预估可以节省百分之三十到百分之五十, 如果不想用了或者想重新安装,就用这个提示词。一句话,把龙虾卸载的干干净净,所有痕迹全部清除。卸载完成后,我们打开 y b u i 刷新测试一下,看不到界面就是成功了。这期教程,我们把龙虾从安装到满血,从净化到安全加固,全程只用自然语言,没用一行代码的完成了, 文档和提示词都开源免费分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留言交流。

ok, 接下来我们来从零到一的实操下 openclaw 的 安装、部署和使用。那装之前一定要问自己一句,你想让他帮你做什么?不要盲目跟风。 目前的 openclaw 不 太适合用于生产环境,所以只能算是一个有意思的玩具。如果你有闲置的 mac mini 或者任意一台闲置的 macos 系统电脑,那他们一定是最好的选择。 如果你是 windows 电脑,那也可以,只不过 openclaw 的 生态对 macos 系统支持比较好。那如果你都没有,不建议大家为了使用 openclaw 去买一台电脑, 也一定不要在你日常使用的电脑安装,包括国内各个公司基于 openclaw 推出的一键安装的客户端,都不要在自己日常使用的电脑安装。 如果你实在想体验一把,我们可以花二三十刀,也就是一百来块钱购买一台两合两 g 的 vps 就 可以了。如果你觉得你会长期使用,从而装很多东西,那就买一台四合四 g 的 vps, 大概是四十刀到六十刀左右。哦,对,我说的是一年的价格,非常便宜。那我目前这台 v p s 应该是一个三合四 g 加一百 g 的 硬盘配置,使用的是无斑图二四系统,不是它必须得这个配置,而是我目前只有这样一台闲置的 v p s。 来做演示了。那我之前一直在使用的 oppo cloud 服务,其实是部署在一台两合两 g 的 v p s 上, 没有问题,基本够用的,也装了很多额外的扩展,那目前这台机器的内存占用是百分之四十,此盘大约用了有十五个 g。 ok, 我 们来到官方文档,复制一下安装命令,然后回到终端直接执行, 这里由于要安装一些东西,所以比较慢,大家要等一下安装完成之后,我们就进入了一个引导配置,那这个提示简单来讲就是问此安装是不是你一个人在用?如果是个人用,选 yes, 那 如果你这台机器还会给别人登录,或者是放在公司服务器上,以及要对外公开访问,那就选 no, 我 们选择 yes, 然后选择快速入门。接下来是选择模型厂商这块,根据自己的需求来,他特别需要注意的是,如果使用国产的 mini, max, kimi, 智谱这些厂商,他们分国内版和国外版,那我们这里先选一个自定义的 provider, 也就是自定义厂商,输入我们的 base ul, 大家根据自己使用的平台写就好,但一定要注意,因为我们平常使用可乐扣的扣的 x 去配置自定义厂商,背四幺 l 的 时候一般不用写后面的 v 一, 但 open colle 这里要写。然后回车,我们选择直接粘贴 api k, 把我们的 api k 粘进来,回车短点兼容性,这个看我们自定义厂商的平台支持啥,一般都会支持 opa 这种格式,所以我们直接选 opa 就 可以。接着是模型 id, 如果你是选择自定义厂商呢?模型 id 需要你自己填,那我们这里用 gpt 五点四 回车, ok, 刚我们回车之后,它自己做了验证,那如果你的填写有误,这块会验证失败,那接下来是填的自定义厂商名字, 接下来是模型别名,我们直接回车即可,不用填。然后就开始配置聊天频道了,就是你要在哪个应用上跟你的瞎子聊天就选哪个。那我的建议是能用 telegram, discard 就 用它们,用不了的话,国内最合适的就是飞书,那飞书国内版目前也已经内置在 opencloud 包里边了。既然配置麻烦了点, 目前最简单的消息频道配置是 qq, 但他最多只支持五个机器人,还容易被屏蔽一些消息。那微信的话想要接入就只能走起微了,那更麻烦。 最近腾讯出的比较让人期待的 qq 了,最终走的也是客服消息,而不是给了个人微信机器人号,所以也不推荐。那后面我会使用飞书做演示,其他几个消息频道的接入教程就不在视频里讲了,看视频的附属文档就可以。这里我们先选择跳过 一会再来配置聊天频道。接下来是选择联网搜索的供应商,那如果你有这几家的 api k, 那 就填,如果没有的话就跳过。 然后是配置技能,也就是 skills, 我 们选择否后面再按需安装就可以。其实 skill 为啥出来比 mcp 晚,但是却能盖过 mcp? 我 们在玩瞎子的过程中会有深刻体会, 这一步是在问你要不要起用一些附加小功能。自动钩子,通俗点讲就是当瞎子触发了某个事件时,自动帮你做一些事情,不开也能用。开了只是多一些自动化或者是增强功能。看到的这几项大概可以这样理解, bot md 就是 在 get 位启动的时候自动运行 bot, 点 md 文件,也就是 open cloud, 一 启动就先把你写在 bot 点 md 里面的启动说明,输入法规划 及预设内容读进去可以理解为开机自启动的说明书,那接下来这个是在 agent bootstrap 阶段额外注入一些工作区文件,那官方说明是,当你的工作区里面有多个上下文跟目录,比如 monroe ripple 多模块项目,想要把额外的 agent 点 md tools 点 md 这类文件一起带入上下文,但是又不想改工作器跟目录,那就用它。然后是 command log, 它是记录你执行过的命令,方便排查问题,把所有的命令事件记录到一个统一的日期文件里。 section memory 保存绘画记忆, 就是让他记住这次运行中的一些上下文。当你发出斜杠 new 指令的时候,他会把当前绘画的上下文保存进 memory。 通俗点说,当你打开一个新的绘画时,会把旧的绘画存档,那这些都是一些基础的户客,大家可以根据自己的需求去选,不选也可以,我们这里可以选都勾选上回车, ok, 这就已经就绪了。这一步是在你想用什么方式把下子启动起来。第一个 t u i 就是 在 v p s 部署,所以它是推荐方式,也就是直接在命令行里和它交互,不用开浏览器。 第二个是 web ui, 这是个网页界面,就是启动后用浏览器来操作,看起来更直观。第三个就是不启动之后再说,我们直接选择 web ui, ok, 它让我们运行 dashboard 的 命令来查看这个 web ui 的 服务,我们直接跑一下这个命令, 那由于我们是在服务器上跑 opencloud, 没有 g u i 页面,所以你会看到它让我们在本地使用 s s h 连接服务器内部的一个服务端口,通过这样的方式就可以在我们自己的电脑上访问这个 web ui 控制界面了。我们直接把这一行复制一下, micro s 就 打开 bash item, windows 就 打开 powershell, 然后把这个命令粘贴回车一下,是否继续连接输入 yes, 然后我们输入服务器的密码,回车 密码输入时啥也看不见是正常的,大家只管输入完回车即可,输错了就重新来一遍,只要回车没有报错,那就是成功了。也就在本地电脑和服务器的 opencloud web 服务之间建立了一个隧道连接,然后我们回到服务器终端,我们复制一下这个链接, 打开浏览器,那这样我们在本地电脑浏览器就可以看这个外部 ui 界面了。那需要说明一下,之所以使用隧道的连接方式,是因为这是默认且 opencloud 推荐的方式。当然我们也可以直接将服务器的 opencloud 外部服务暴露在公网上,通过服务器的 ip 或者是绑定域名来访问, 但这样很不安全,如果你需要暴露到公网,那么 opencloud 的 配置力度需要在细上一些,以应对一些安全风险。进入外部 ui 之后,默认就是聊天面板,我们直接发送一个消息, 那如果你的模型配置没有问题,就会收到回复。 ok, 到这里快捷的引导设置就完成了,夹子也算基础部署成功了,后面就是定制化了,接下来我们来配置一下飞书机器人的接入。那首先我们要打开一下飞书开放平台, 这个不需要使用企业飞书,个人飞书也可以点击创建企业自建应用,我们给个名字和描述,然后选一个图标吧。 ok, 创建完了之后,我们就可以看左侧的侧边栏,选中凭证信息,这里的 app id 和 app secret 我 们要复制下来保存好。 ok, 我 们回到服务器的终端面板,输入添加频道的命令,问我们是否配置。是,然后我们选择飞书, 那上面这个是让你重新下载飞出这个插件,但是现在它内部集成了,所以我们直接使用插件路径就可以。 ok, 它让我们填 app secret, 我 们回到飞出平台,复制一下这个 app secret, 回来粘贴回车,然后设 app id, 再复制一下 粘贴回车。连接方式,我们选择默认的 web socket 就 可以,然后非输的域名,那国内的就是 c n 的 后缀。群组的安全配置, 第一个是白名单,只有在白名单内的群组机器人才会回复。第二个是全部打开,机器人被拉进任何一个群组它都可以回复。第三个是直接在群组中借用机器人,那我们选择白名单就可以,由于我们还没有创建群组,我们直接回车就可以,后面有了再添加。 ok, 这样就基本上配置完了,然后我们选择 finish 完成,让我们配置飞书的 dm 策略,选择 yes, 这个策略我们直接全部打开就行,这样最简单。给账户添加显示的名字,然后我们选择 no 就 行,然后给这个账户绑定 agent。 yes, 那 选择 agent 的 时候,它只有一个默认的 man, 我 们回车。 ok, 这样就配置好了,然后再回到飞出控制台,点击权限管理,然后点击批量导入权限,然后粘贴所有权限的 jason, 那 这个大家直接粘贴我提供的这份就好,因为官方文档上面的那份, jason 缺少一个权限,点击下一步确认申请开通,确认 确认, ok, 权限开通好了,我们点击机器人,然后配置一下它的名字, 然后在左侧点击事件与回调,点击这里的订阅方式,然后选择长链接保存。注意这里保存时, opencloud 的 应用程序必须已经配置好了,并且正在运行中才能保存成功。然后我们点击添加事件,直接搜索接收消息,勾选它添加, 然后我们直接点击上方的创建版本,给一个版本号更新说明,也填一下,滑到最底部,点击保存确认, ok, 这个时候我们打开飞书, 那在飞书里面就可以看到一个应用创建成功的推送,我们直接点击打开应用,然后给他发个消息, 当我们收到了回复之后,飞书的渠道配置就已经完成了。 ok, 接下来先不着急,我们先来了解一下 openclaw 的 目录结构。首先你一定要知道一个目录,点 openclaw, 我们使用 cd 命令来进入到 opencloud 的 根目录,然后输入 ls, 看一下根目录下都有什么文件。 opencloud 点 jason, 这是 opencloud 的 主要配置文件,相当于总控面板,大多数的核心设置都在这里,以后也少不了和他打交道。我们刚刚在引导配置中的绝大多数内容最终都落到了这个文件里,那这个文件还有一些,后面带 back, 然后 back 一, 这是配置文件的备份,当我们执行一些修改操作时, opencloud 就 会帮我们把之前的内容存一个备份,避免我们改坏了回不去。 workspace, 它是默认 agent 的 工作区目录,放的是你希望这个 agent 的 长期记住遵守的东西,比如项目文件、说明书、长期规则、人设等等。那 agent 目录, 这是每个 agent 自己的后台数据目录,用来存放这个 agent 的 运行状态、认证配置、绘画记录等内容。官方会把一个 agent 分 成三部分, workspace 用来存放 agent 的 人格以及规则,还有记忆文件。 agent d i r 存放每个 agent 的 状态配置。 session 存的是 agent 的 绘画记录,其中 agent d i r 和 session 最终都会落在这个 agent 下面。那这个目录下面现在只有一个 man, 它是我们在程序安装时的默认 agent, 那 这个名字叫 man 的 agent 对 应的工作区目录就是这个 workspace log 文件夹存的是各类的运行日制,那出问题的时候第一时间看的其实就是这里,尤其是 getaway, skills, hux 相关的错误。 converse, 它是用来规划和编排的临时目录,很多 a 正的框架会把计划任务分解,临时中间产物放在类似的区域,用来支撑一个提示来触发多个模型调用的链路。 on, 它是定时任务与自动化触发的文件夹。 devices, 它是设备与执行环境的抽象层。飞书目录,它存放的就是飞书机器人适配与凭证的相关信息。有这个文件夹是因为我们装了飞书机器人 identity, 它是存放身份与认证的相关目录。 update check, 这是 opencloud 的 更新状态与相关原书记检查的文件。 我们再来看一下 workspace 里面都有啥 agent 点。 md, 这个里面存储的是有哪些代理各自负责什么?相当于岗位的说明书,一个工作规范,也是最重要的一个文件。四五 md, 这里面存放的是瞎子的灵魂设定 u 字。 md, 它存的是你是谁,你的偏好和禁忌,相当于用户画像 tosh。 md, 存放的是它能用哪些工具,怎么用?边界是什么?相当于工具清单。 heartbeat, 这里面存放的是一个自检和状态汇报规则,俗称心跳机制文件,比如启动后该检查什么,多久报一次状态。 bloodstream, 它是冷启动时先读的初步化说明,那我们现在还是一个空的 agent, 还没有产生记忆,如果产生了绘画记忆,这个下面还会有一个 memory 文件夹,文件夹下存放的是年月日点。 md 文件,作为我们每天聊天的记忆存放,那还会有一个 memory 点 md, 存放的是稳定的长期记忆, ok。 在 了解了 opencloud 的 目录结构之后,我们想一个问题,你需要几个 agent 帮你处理事情?一个够吗?可以这么说,如果你觉得够,那 opencloud 对 你来说可能未必是最合适的选择。 用 opencloud 的 可玩性建立在多个 agent 的 分工和协助上。如果只有一个 agent, 你 又希望他同时处理很多不同类型的事情,问题很快就会出现,他的上下文会不断被污染,人设会越来越混乱,记忆也会越积越多,滔滔消耗更是会不断飙升。 更麻烦的是,旧任务留下来的对话和上下文,还会持续干扰他对新任务的判断。所以接下来我们要处理的是多个机器人,多个 agent, 一个 agent 只专注一类事,那既然我们要做多 agent, 每个机器人都是不同的打工人, 所以接下来我们要新创建一个 agent, 我 们输入命令来添加一个新的 agent, 后面的 bot 一 agent 就是 我们给这个新的 agent 的 命名,我这个命名比较随意,如果大家有明确的想法,比如这个 agent 是 做什么的,最好语义化命名,不要用中文回车。 然后它让我们输入这个 agent 的 工作区目录,这里它会给一个默认的,当然我们也可以直接把它设置成 workspace, 这样的话和之前那个工作区就在一个目录下,那两个 agent 就 会共用一个工作区。但是我不太建议这样做, 直接回车就好,你会发现它默认在点 opencloud 目录下给了 workspace bot 一 agent 这样一个目录当工作区。结合我们之前介绍过跟目录下还有一个 workspace 工作区。 现在你回过头来理解, workspace 目录其实就是名字为 man 的 这个默认的 agent 工作区目录。那我们现在新创建了一个 agent, 这个目录就是我们新创建这个 agent 工作区目录,然后我们配置模型选择 yes, 那这个大家应该就比较熟悉了,之前引导配置中第一个机器人瞎子我们已经配置了自定义的 provider, 那 这次就换一个官方的吧,具体看你买了哪家。 我其实哪家都有,但是这里选中 mini max 的 速度比较快,所以这里选中 mini max。 mini max 前两天更新了一部,如果使用它官方渠道作为提供商时, opencloud 以内置工具会自动连接到 mini max 的 vl m api 端点,不需要额外配置。 当我们向机器人发送图片的时候,他就会使用这个工具来理解图片内容,也就是自动连接 v r m api 端点来做图片多模态处理,这点还挺方便的。我们选中 office 授权登录,然后选择 c n, 复制一下这个链接,在浏览器打开,然后授 权好了,然后他问我们还没有创建第二个机器人,所以这里先选择 no, 一会创建完第二个机器人,再把它和这个 agent 绑定, ok, 这样就创建好了一个新的 agent。 我 们再来看一下 agent 目录下面都有啥,可以看到多了一个 bot 一 agent, 然后我们也可以跑一下命令,看一下 agent 列表, 看到有两个 agent, 工作区路径也没问题,这就 ok 了。接下来我们来创建第二个飞书机器人,之前我们已经添加了一个机器人,它挂载的是默认账户,默认 agent, 也就是问这个 agent。 我 们回到飞书开放平台,创建第二个机器人,还是同样的操作, 点击创建企业自建应用名字,我们叫瞎子一号, 然后点到应用凭证,再次回到服务器面板,我们需要来配置第二个飞书机器人账号,那这个配置有点特殊,目前需要单独来改配置文件,没有办法通过命令集成,不过这个官方 e c u 已经提到了,估计很快就会得到优化。我们来看一下配置文件中目前的飞书配置是啥样。输入 cat, 这个就是目前的飞书机器人配置,它只配置了一个账号,我们可以直接在服务器上改这个配置文件。当然也可以简单一点,我们回到它这个 web ui 里面, 直接发送给 opencloud 一 段提示词,我让它根据官方的飞书配置文档帮我配置第二个飞书机器人,然后把 app id, app secret 填进去回车。 ok, 他 说配置好了,让我们重启一下,我们复制命令重启一下,再来看一下这个配置文件。 ok, 这就配置好了。那这里需要注意的是,我敢让他动配置文件,是因为我知道官方文档有这么个配置参考, 也知道他要改的是什么东西,我才会放手让他改。如果你不知道怎么改,直接让瞎子给你改配置,那就把你的 open class 系统生杀大权交给了大模型,你的大模型优质的话,能解锁到相关的信息去修改还好,如果大模型不太行,一旦出现了幻觉,那记记你会更难受,所以还是要尽量避免这种行为。接下来我们回到飞出开放平台,继续之前的操作, 点击权限管理,批量导入,粘贴一下,这个跟之前还是一样的,确认申请开通确认确认,然后点击机器人配置名称, 点击事件已回调订阅方式保存。哎,怎么不对?我们来看一下这个配置哦,这怎么写了两份?这个也是写了两份,我们回过头来看一下给他发的消息, 哦,这里发错了,再来复制一下,这里 app id 和 app security 写错了,给你修改一下。 ok, 这回改对了,刚刚那个给他发的提示词里面的 app id 和 apprecate 写错了,我们再回来点下保存。嗯,这次就可以了,刚好演示了一下,如果配错了,这里保存保存不成功,然后点击添加事件接收消息,勾选添加 创建版本,给一个版本号保存发布。 ok, 看一下有没有推送,打开应用,让我们给他发个消息。 ok, 收到回复之后我们就配置完成了,但是这个时候其实我们还没有给这个机器人绑定之前新建的 agent, 我 们可以通过命令来看一下当前 agent 的 绑定关系。 哎,你看我们新创建的瞎子一账号,其实默认绑定在了 man 这个 agent 下面,那目前这两个机器人其实用的是一个 agent, 我 们可以直接修改这个 agent id 的 名字,那这次我们在 yui 里面修改, 我们在这个 dashboard 里面找到 config, 然后点击 ro, 那 现在这份文件其实就是我们的配置文件,我们拖到最底下,找到这个飞书的配置,这是我们刚刚看的飞书的配置,我们找一下 b 的, 对,就这里我们把虾子一这个 agent id 改成我们刚刚创建的新的 agent 名字。 bot 一 agent 修改好了之后,我们直接点击保存更新, ok, 当它断掉,那就是证明已经重启了, 那等它恢复了之后就重启好了。我们直接回到飞书这里,给虾子一号发送一下,问他一下是哪个 agent, ok, 它已经切换到新的 agent 上了,那到这里我们的多 agent 多机器人账户就配置好了。接下来我们来创建一个飞书群组, 填上名字,飞书群组一个人也可以创建群聊,我们直接点击创建,必须得群组创建好了之后,我们才能邀请机器人进来,点击右上角选择设置,点击群,机器人添加, 选中瞎字添加, ok, 这样群组就创建好了。那由于我们之前设置了白名单,只有在白名单内的群组机器人才会回复,我们现在在群组里面给他发消息,他是不会回的,所以我们要先获取飞书群的 id, 那 获取的方法也很简单,我们回到服务器这里 输入 openclogs 转杠 follow 回车。这个命令是实时查看服务器网址,我们打开网址之后,在飞书群里面圈一下机器人,发一个消息。 ok, 这就可以看到这有一个 group, 后面这个 o c 开头的就是它的群组 id, 我 们复制一下, ctrl c 关掉它,还是直接在外部 ui 里面直接给它发消息,让它去改回车。当然我们也可以直接在飞书给机器人发消息也行。 ok, 已经改好了,我们直接让它重启,当看到它断了,那就是开始重启了。 ok, 恢复了,那就重启好了,我们再回到飞出这里再圈一下它,因为我们设置的是只有圈它,它才会回复 这个图标,代表它已经在输入了。 ok, 这就好了,那这样的话群组就搞好了。这里要特别提醒一下,不要轻易被网上那种一个群里面塞满不同角色机器人组成一个所谓的 team, 大家自己讨论自己工作的演示带偏了,那都是博眼球。绝大多数情况下并不是一个合理的生产实践, 因为在多 a 阵的多角色的设定下,每个机器人本质上都对应一个明确的角色和职责边界。如果你把多个角色的机器人同时拉进一个群里面,让他们同时面对同一批消息,那系统很快就会变得混乱。相对还算勉强可控的一种方式是通过艾特提及的方式来明确指定某个机器人角色回应, 也就是说,只有你明确艾特到哪个机器人,哪个机器人再出来处理。如果不是通过艾特提及,而是群里随便发一条消息,多个机器人都可能响应,那就必须额外做非常严格的路由控制。比如你至少要配置成只有某个特定用户 id 发出的消息,才有某个对应的机器人处理。 但即便如此,我仍然不建议让多个 a 证的机器人同时处理同一条消息并分别回应。因为你一旦这样做,整个系统基本上就会进入一种自由混战的状态,看起来好像很智能、很热闹,实际上很多时候只是无意义的多轮响应和无休止的 talk 消耗。更关键的是,这种模式并不真正符合大多数真实的工作组织方式。 现实里的工作流往往不是让一群角色同时对一个输入各说各话,而是有明确分工、明确入口以及明确的责任边界。哪怕你已经做了限制,比如让机器人只回复某个特定 id 的 消息,这种方案本身也不算理想, 因为很多人类的工作流并不是完全串行的,消息和任务经常会交错出现。一旦多个角色长期混在同一个上下文里,非常容易出现上下文混淆、职责边界模糊、记忆污染等问题。所以更合适也更常见的做法其实是下面这几种,一个机器人对应一个 agent, 一个群组对应一个专用的 agent 机器人, 或者一个主机器人作为一个统一入口,背后有多个专职的 a 政在后台分工协助。这几种方案虽然没有多机器人同群互聊那么有观赏性,但从稳定性、可维护性、上下文控制以及 top 成本来看都会更合理。 当然再往后走,如果你真的想做成多 a 政的协同,那就已经不是简单把几个机器人拉进同一个群里面这么粗暴了,而是需要更高级的路由编排和协助策略。这个话题可以单独展开讲,后面有时间的话可以再开一下 a 政的协同的内容,这里我们就先不展开了。 那到这里,我们其实已经有了两个彼此独立的 agent, 也分别绑好了对应的机器人频道,但目前为止我们还没有给他们做任何的功能增强,也没有给每个 agent 配置各自的身份信息、角色设定 和风格。所以现在这两个 agent 还是两个空壳子,虽然他们已经能独立运行,但是还没有真正形成差异化。那接下来我们就要先给这两个 agent 分 别配置不同的信息和性格, 他们真正区分开来。其实我们前面已经讲过,工作区里的那些文件分别对应着什么作用,我们完全可以直接手动去修改这些文件,给 agent 写入不同的设定,但是这种一方面比较繁琐,另一方面不太直观,所以这里我们换一种方便的方式来做。我们直接打开外部 ui, 那 这个是闷塞审,也就是瞎子那个机器人, 我们直接给他发送一个提示词,你是瞎子,一个赛博打工人,巴拉巴拉一堆,然后我们让他自行优化,并且拆分提示词,将这些提示信息分别写入下面的文件里面。回车, ok, 可以 看到它已经帮我们修改好了,这里它问我们要不要把 bootstrap 删掉,这个文件我们之前有介绍过,它只有在输入话的时候会读,删不删都无所谓。那我们直接在面板里面来看一下这几个文件,点击 agent, 然后点击 men, 然后点到 feel 看一下。哎,你看这里面它的灵魂设定已经帮我们写进去了。再来看一下 user, 可以 看到我的名字也写进去了, agents 点 md 这个文件大家有空的时候可以好好看一下,因为整个 agent 的 运行机制其实大概就写在这里, tools 身份 memory ok, 我 们回到飞书给瞎子发一下你是谁, ok, 这就已经配置好了。那现在我们就给瞎子配置了一些基础信息,我是谁,他是谁,他的性格等等等等, 都是些基础信息,也比较简单,大家可以顺着这个思路自由配置。那另外一个 agent 配置起来就简单很多了,也是一样的流程,这里就不赘述了,大家可以给不同的信息自己玩一下。那接下来我们给 agent 做一些基础能力扩展。首先是浏览器操作,那如果我们有 g y 面板 这块就会简单很多,但是由于我们使用的是无 g y 面板的无斑图系统,所以要稍微麻烦一点,我们需要先手动安装一下浏览器,虽然也可以让 opencloud agent 帮我们安装,但不建议这样做,因为需要给它开额外的高级权限才行。那首先我们需要安装一个 chromeem, chromeem 是 谷歌自己家的正式浏览器, 而 chromeem 是 chromeem 浏览器的上游开源版本。那这里需要注意的是, nipp 版本的自身的沙箱机制会产生冲突,导致 c d p 无法正常启动, 所以官方推荐使用 chrome 的 d e b 包,这是专门给得遍或者是无斑图这类 linux 系统用的安装包。首先我们来执行安装 c d p 连接,就是程序通过 chrome 的 devtools protocol 去远程控制浏览器的连接。 playrite 是 python 的 一个浏览器自动化框架,当我们安装浏览器后, open color 会负责浏览器的接入配置和路由, playrite 负责执行很多具体的自动化动作,而底层的浏览器通信协议走的是 c d p, 这样就形成了 linux 系统上的浏览器自动化。 ok, 下载好之后,我们还需要执行安装 那由于我们使用的是 d e b 的 方式安装的浏览器,这种方式还会缺少一些依赖,所以我们还需要让 app 自动把上一步安装 chrome 时缺失的依赖补齐,并且把包的状态修复到正常状态。我们输入命令回车, ok, 一 切就绪之后,我们输入命令来验证一下浏览器的安装路径,然后检查一下它的版本, 这里输出了目录,并且成功输出了版本号,就安装成功了。然后我们输入命令来验证一下无沙箱无头模式下的 c d p 连接。 ok, 只要出现这个幺二七的监听链接就可以了。下面无关紧要的一些报错,比如 g u i 内部的一些注册服务错误可以忽略, ctrl c 退出, ok, 我 们开始配置 openclaw 使用浏览器。这里我们选择的是命令行配置,那最终也会落在配置文件里,我们直接改配置文件也行。首先我们需要启用浏览器能力, 然后配置一下浏览器的路径,那由于我们用的 vps 没有图形界面,所以我们还需要开启无头模式,还需要关闭沙箱来规避 linux 类服务器或者是容器环境下的权限与隔离限制问题。 最后我们还需要指定一下浏览器的 profile。 ok, 这些都执行完,重启一下 get 位, 重启完成之后,我们打开 web ui, 我 们来看一下这个配置落到配置文件里面是什么样子,就是这段配置。 ok, 我 们来测试一下浏览器输入命令,启动一个浏览器实力, 启动成功之后,我们让它打开一个网页,打开之后我们来抓一下这个页面的快照, ok, 拿到结果就没问题了,我们也可以尝试抓一下这个页面的截图, ok, 如果能拿到快照或者是成功截图,说明整个浏览器的渲染页面打开控制链路基本上都是正常的。那现在就可以在飞书里面给机器人发消息,让他截个图试试了。让虾子一号处理吧,虾子一号用的 mini max, 速度比较快, ok, 给了我们截图,那就是成功了。接下来我们来处理联网搜索。 openclaw 有 两个内置的搜索和爬取的 tools, 分 别是 websearch 和 webflash, webflash 负责实时搜索网络内容, webflash 负责爬取某个网站的信息, 这两个 tools 组合起来就构建了一个实时网络剪索的能力。但是由于 openclaw 内置的 websearch rely brave, 这是一个三方的搜索引擎,如果我们要使用的话,需要额外配置 brave 的 api, 这个是收费的,所以目前联网搜索是用不了的,那我们的代替方案就是使用其他的 search 服务来代替内置的 web search。 这里推荐两个 skills 来配合完成这件事。首先是 tabule 这个 skill, tabule 同样是一个三方的商业搜索引擎,但好在它每个月有免费搜索一千次的额度,所以我们可以放心使用。我们可以直接打开 tabule 的 官网, 然后注册就可以拿到一个 api k 复制下来就可以了。还有一个是 multi search, 这是一个集成了多个搜索引擎的免费搜索服务, 如果它 webster search 的 服务不够用,或者搜索结果少的情况下,我们可以使用 multi search n 这个搜索服务来都抵。这两个 skill 组合起来代替内置的 webster, 安装方式也比较简单,我们可以直接发送提示词给瞎子, 我们让它根据文档自己去安装,安装完成之后在 toast 文件里面明确声明 webster 能力的 skill 使用,最后把内置的 webster 能力给禁用掉。 ok, 我 们来看一下 toast 文件, 哎,可以看到它帮我们把这个搜索策略写到了这个 tos 文件里。装好之后我们测试一下,可以看到这里它已经调用了它为设置这个 skill。 那 如果你不想装两个 skill, 并且想要在企业里部署无限使用 web 搜索能力的话,还有一种方案是在一个服务器上自己部署一个 z r x n g 服务,这是一个开源的原搜索引擎服务,聚合了多个搜索引擎的搜索结果。 安装好之后就可以在 opencloud 安装一个 c r x n g skill 来进行搜索服务的本地调用,可以返回结构化的搜索结果,那 像一些三方的收费搜索引擎,会随着你的搜索偏好提供一个个性化的搜索结果。但 c r x n g 这种则是不关心你搜什么,只通过你的搜索内容拿到各个搜索引擎的结果,打分排序,完全隐私,是一个不错的免费搜索方案。如果你想做任何 agent 缺乏 web search 的 能力,都可以使用它。 ok skills 技能,这是 openclaw 能力的核心。通过上一爬联网搜索,我们可以看出,我们需要通过一个个 skill 来扩展 openclaw 的 能力。 那社区上有上万个开源的 skill 让我们集成。我们可以通过 openclaw 官方的 cloudhub 平台去查找对应的 skills, 也可以通过 github 的 awesome openclaw skill 仓库去查找想要使用的技能。 比如你在做一个企业级的 open class 系统,并且企业委托于飞书办公,那么你就可以搜索飞书相关的 skills, 读写飞书文档,操作多余表格,以及处理一系列飞书的自动化功能。你要是想赛博炒股,就搜索金融相关的 skill 去装。要是想让虾子去写代码,那就搜 coding 相关的 skill, 根据自己的需求去装就可以。我给大家推荐一个比较核心也比较通用的技能, self improving agent。 这个 skill 翻译过来叫自我提升,它的核心不是让模型自己训练自己,而是让 agent 在 运行过程中把错误纠正、知识缺口、功能需求结构化写入 markdown, 再把那些反复验证有效的经验进一步提炼成长期可付用的工作规则。它主要解决的是一个非常现实的问题,很多 agent 在 使用过程中都会不断犯错,有的是命令执行失败,有的是工具调用翻车,有的是知识过时了, 还有的是被用户指出你这种做法不对。如果这些问题每次都是当场改正一下就结束了,那这个 agent 本质上没有真正成长,下一次遇到类似的情况,他大概率还会踩一遍同样的坑。而这个 skill 做的事情就是把这些当场修正变成长期记忆。他的 skill 点 m d 里面写的非常明确,典型的触发场景包括命令或操作失败。用户纠正 agent, 用户提出当前做不到的新能力。外部 a p i 或工具调用失败。 agent 呢?发现自己的知识已经过时,或者在重复性工作里发现了更好的做法,所以它本质上不是在增强模型参数,而是在给 agent 增加一层失败记录,加上经验累积,加上晋升规则的机制。 会先在工作区里面建立一个 learnings 目录,把经验分别记录到三个文件里。 learnings md 记录更正知识缺口和最佳实践。 arrows 记录命令失败和异常。 future request 记录用户请求的功能。他会先把这些经验沉淀成可追踪、可复查、可累积的外部记忆, 然后再进一步把那些已经反复验证确实有效的经验提升到更长期的工作区规划文件里。比如行为模式可以提升到 so 点 md 里,工作流经验可以提升到 agents 点 md 里, 工具使用规则则可以提升到 twos 点 m d 里。写进 linux 目录只是临时记录下来,而提升到这些长期文件之后,才意味着这些经验会在后续的绘画中真正参与上下文变成 agent 的 稳定行为规则。那为什么我会觉得它很核心?因为它其实已经碰到了一件更庞大的事情,那就是怎么管理 agent 的 记忆 memory。 不管你是做个人助手、做工作流 a 证的,还是做多 a 证的协助,如何把错误纠正经验沉淀下来几乎是绕不过去的一件事情。而这个 skill 恰好提供了一套非常朴素但却非常实用的解决思路,它可以为我们后续的记忆治理埋下影子。那安装方式和之前一样,是复制一下这个链接,让 openclaw 自己安装即可,我们就不做演示了。 我们前面提到过, open klo 官方的 memory 记忆整体是偏轻量化的,真正的记忆载体始终是工作区里面的 markdown 文件。也就是说,不管你后续接不接数据库,开不开向量剪索, memory 最终落地的地方依旧是这些文件本身。 默认情况下, open klo 会把这些记忆写到工作区的 memory 目录下面,以年月日这样的方式去存储长期记忆则是沉淀在 memory 点 m d 里。 那官方其实也支持接入 sqlite、 list db 以及像 qmd 这样的增强型解锁后端,但这里一定要注意,它们都不是用来代替 markdown 的, 更多的是承担锁影、解锁、召回这一层的工作。所以你可以简单地把它们理解成三类角色, sqlite 更偏默认的清量级锁影以及状态存储。 list db 更偏向量解锁和羽翼召回。 q m d 则是在解锁层更进一步增强的一种混合解锁方案,它会把 b m 二五向量搜索和 ranking 组合起来,尽可能地把记忆找得更准。所以 markdown 是 记忆本质, circle、 拉斯 d b q m d 这些本质上都是解锁层能力。 也正是因为如此, opencloud 官方的方案优点非常明显,简单、透明、可控。但它的短板也同样清晰,那就是它更像一个基础可用的记忆底座,而不是一套完善成熟的记忆治理系统。在默认方案下,记忆的长期维护更多依赖于 markdown 的 持续写入。 而向量解锁、自动召回、 embedding 配置,这些能力需要额外配置之后才能真正发挥作用。并且就目前来说, opencloud 内置的向量解锁能力本身也有一定的限制,比如它依赖外部大模型 api 提供的 embedding 能力,目前只能配置 openai 和 jimmy。 很多国内用户其实并没有把这条链路真正接起来,而一旦没有接起来, memory 虽然还能工作,但就会退回到最基础的文件读写模式,那这个时候,系统依然会把内容写进 memory 文件夹下的年月日文件作为日常记忆, memory 点 m d 作为长期记忆, 这些文件照样存在,照样可写。只是因为没有 byte 模型,系统无法进行基于向量的语义剪辑和相似召回,更多只能依赖内置的 memory get 这类定向读取具体文件或指定范围内容的方式来获取记忆。换句话说,系统这时仍然能记,但不太会找。 而一旦没有比较强的剪辑能力,问题就会慢慢出现。记忆文件会越积越长,历史内容会越来越多,上下文 tock 消耗也会越来越快,用得越久,你越觉得 agent 变笨了。 因为大模型本身的上下文窗口是固定的,而 memory 如果只是不断累积,没有智力,最终就会从资产变成负的。而关键的是,在这种基础方向里,我们通常没有真正意义上的清洗、压缩、分层、失效和冲突消解机制。记忆会不断累积,但缺乏有效智力。时间一长,优化 memory 几乎成为一个必然需求。 但这件事情也不能一概而论, memory 策略没有绝对最优,只有是否适合当前场景。本地部署更关注隐私可控和低成本, 那云部署更看重接入速度和跨端统一。个人助手则更强调个性化与长期偏好。记忆团队 agent 或者是多 agent 协助,他会更看重权限隔离。项目级上下文既污染控制以及整体的可维护性。也正因为侧重点不同,不同场景下适合的 memory 方案往往也并不相同, 所以到目前为止,这个方向其实并没有一个统一稳定、所有人都认可的标准答案。大多数时候,大家还是需要根据自己的需求、资源条件和技术能力去做适合自己的取舍。 homecloud 的 记忆增强大体可以分成两层,第一层是剪缩增强,也就是让 agent 更容易找到相关的记忆。这部分典型代表就是官方默认的 sqlite 剪缩、可选的 sqlite 向量剪缩以及进一步增强的 qmd 混合剪缩。 那这其中 sqlite 更适合轻量级默认可用的本地锁影场景。 sql 更适合做 in binding、 向量存储和域域召回。 qmd 则是更强的混合剪缩方案,它通常以本地 start 进程执行,再把结果交给大模型做 ranking, 也就是二次重排。这里的大模型 random 可以 把它理解成前面,尽量多召回一些可能相关的内容,后面再让大模型重新判断哪几条和当前问题最相关,把它们排到更前面。 所以 qmd 的 价值主要体现在,当记忆很多,认知很多、表述又不统一的时候,它能明显提升召回精度和解锁质量。但也要明确一点, qmd 解决的是怎么找的更准的问题,不是怎么把记忆管理的更好的问题, 也就说它的强化是剪缩层,而不是记忆治理层。如果底层还是无组织的 markdown 文件,那么事实变了,依然可能直接覆盖知识写进去了,也未必经过结构化整理。那长期下来,知识是否真正能沉淀成稳定可赋用的 memory 资产, 是取决于你上层怎么治理。第二层才是记忆治理增强,也就是在能找到的基础上,进一步解决怎么记记什么、怎么压缩、怎么氧化、怎么避免污染这些问题。这部分常见的思路大体可以分成几类,第一类,单文件增强。最直观的方式就是通过各种策略,把重要的信息都不断追加到 memory 点 m d 里。 这种方案的优点非常明显,简单直接,几乎没有额外的系统复杂度。你不需要引入新的数据库、解锁服务或者是后台进程,只需要让模型持续地往 memory 点 m d 里面写就行。但问题也同样明显,随着时间的推移, memory 点 m d 会越来越长,文件不断膨胀,信息密度也越来越低,查找的效率也会越来越差。 第二类,自动记忆管理。那第二种思路是做一套自动记忆管理机制,比如通过定时任务,每隔一次 session transcript 自动提取大模型认为重要的记忆内容, 然后按天进行定时压缩归档,持续维护到 memory 点 m d, 减少人工的干预。那这种方案比起单纯追加文件更进一步,因为它开始尝试怎么解决记忆越来越多怎么办的问题,而不是让系统能记住,还开始试图让系统自动整理记忆。但 这套方案的问题在于,我们其实很难知道它到底记住了什么,以及为什么记住这些内容。因为重要这件事本身是由大模型来判断的,而大模型判断的重要性未必和人真正关心的重要性一致, 哪些该保留,哪些该忽略,很多时候并不好对齐。那另外,这类方案常见的时间线压缩方式,比如按天、按周去归等,虽然可以控制体积,但也会带来另外一个问题,事实变化的历史容易被抹平。 举个例子,一个项目原本是进行中,后来变成已完成,在压缩归档之后,旧的状态可能直接被覆盖掉。最后你看到的是一个更新后的结论,但中间是怎么变化过来的?这段过程信息可能已经丢了。第三类是日制流加上剪索增强。那第三种思路是依赖每日的日制,再加上 memory search, 然后再配合更强的剪索后端来工作。 这种做法的核心很简单,每天持续的写日制,把记忆沉淀在日制流里,真正需要的时候,再通过 memory search 去做剪索,把相关内容找出来。 如果只是默认解锁,这更像一种可搜索的流水账。但如果配上 l s d b 或 q m d, 体验会好很多,因为搜索会更准,召回也会更稳定。它的优点是实现简单,维护成本低,几乎不需要额外的治理策略。 你只需要保证日制的持续写入解锁链路就能跑起来,整个系统就能工作。但它的问题在于,这依然不是一个真正结构化的埋木尔系统。随着日制的不断累积,搜索结果里的噪音会越来越多,相关性也会越来越不稳定。 同一个事实可能分散在几十个不同日期的日制文件中,模型每次都要从这些零散的片段里面重新拼装上下文,这样既浪费 talkin, 也难以形成稳定的知识沉淀。所以这种方案虽然能用,但更适合清亮场景,不太适合长期高密度、需要持续服用的知识系统。 那第四类是外接完整的记忆系统,那再往上走,就是把 open cloud memory 增强做成一个独立的系统,或者直接接入第三方平台。最省事的一类做法就是直接集成第三方平台提供的商业 memory 方案,比如 my machine、 open cloud super memory 这类项目, 本质上就是把 memory 的 存储、召回、管理这些能力外包出去。他们的优点是接入快,上手简单,但代价通常是依赖外部平台,灵活性和口控性相对有限。而如果不走商业平台路线,社区里也有一些重型的增强方案, 比如结构化抽取、分层记忆、长期生命周期管理,甚至是主动式记忆系统。这类方案的能力更强,但接入和维护成本也更高,更适合那些已经明确要把 openclaw 做成长期运行的 a 政策系统的人。比如 memory labs db pro 这个项目就很不错,大家有兴趣的话可以去尝试一下。那如果有更好的方案,也可以评论去分享一下。 ok? 在 了解了概念之后,我们应该怎么处理自己的 openclaw 的 时候,其实并不清楚自己真正需要的是什么, 你是想做一个本地的个人助手,还是想做一个长期运行的 agent? 你 更在意隐私成本还是召回效果进行上线?这些问题如果一开始都没有想清楚,那你过早的去折腾 memory, 最后大概率只是在增加记忆系统的复杂度。 所以在这个阶段,你只需要先意识到 memory 确实是个问题,但不用着急,现在就把它彻底解决。对大多数人来说,先用 opencloud 默认的 markdown 策略做基础处理其实就已经够了,先跑起来,先用起来, 先观察自己的实际使用过程中到底会遇到什么样的问题,这是比一上来就追求高级记忆架构更重要的事情。等到什么时候,你真正开始觉得你的瞎子变傻了,记不住了,照回不准了,上下文越来越贵了,那时候再回来处理这个问题反而是更合理的。 因为这个阶段你已经不是在想象问题,而是在面对真实问题。你会更清楚自己到底缺的是更强的解锁能力,更好的记忆治理,更低的 top 肯消耗,还是多 agent 多场景下的隔离能力。 到了那个时候,你再根据自己的需求,参考前面提到的几类思路,去找到对应的开源项目,逐步尝试优化和治理自己的 memory 系统,会更具针对性。这其实是一个很正常的学习路径,先用默认方案建立认知,再在真实问题里逐步升级,而不是一开始就试图设计出一个完美的记忆系统。 而且说实话,现在这个阶段想一开始就把 open cloud memory 做的非常完善,本身也不太现实。因为目前不管是官方方案还是社区里的各种增强路线,都谈不上稳定统一,没有明显的缺陷。 到目前为止,我还没有看到一个真正能够让所有场景都满意的通用优质方案。很多方案都能解决一部分问题,但同时也会带来新的成本和新的复杂度。所以与其一开始就幻想把这件事一次做对,不如接受一个更现实的结论,慢慢也是一个随着使用过程逐步治理的问题,而不是安装 open class 就 能彻底定型的问题。 当然,从更底层的角度来讲,哪怕你把 mac 策略设计的再漂亮,也依然避不开一个根本限制。大模型的上下文长度始终是硬约束。也就是说,很多所谓的记忆增强,本质上都是在有限的上下文窗口里,尽量让系统记得更准一点,找的更快一点,浪费的更少一点。它能改善体验,但是很难彻底消灭限制本身。 ok? 朋友们,如果你看到这里还没有放弃,那么看起来你是想认真玩一下 opencloud, 那 这种情况下,每个工作区的备份将必不可少。这是为了防止你悉心呵护的瞎子突然发疯干掉了自己,或者是某些改动不想要了,你想回滚? ok, 备份的方案也很简单,走 github 备份。首先为了安全,无论你有没有 github 账号,我都建议大家注册一个新的 github 账号。我们直接打开 github, 点 com, 然后点击注册一个新的账号,这个流程比较简单,我就不说了。那账号注册好之后,我们就可以回到这台服务器的终端操作面板,运行一行命令来生成这台机器的 s s h k, 注意这里的邮箱要换成自己 get up 的 邮箱,一路回车就行。 ok, 运行命令,我们查看一下公告内容,我们先把输出的这行公告全部复制下来, 然后回到 gethelp, 点击右上角的头像,点击 settings, 然后在左侧选中 ssh, 点击新增一个 sshk, 粘贴进去,给一个名字创建。 配置好了之后,我们点击 github 导航栏右侧的加号,选择创建一个新的存储库,那这个仓库其实就对应了一个工作区,所以这个名字我们以工作区名命名。那前面的 r n 三是我这台服务器的缩写,因为我在多台服务器部署了 opencloud, 加上服务器代号更清晰一点。后面的 man work space 代表默认的 agent 工作区, 当然你想叫啥都行,但是我建议有意义一点,不然后面工作区搞多了不好找。还需要注意的一点是,我们这里要选择私有, 这样你的这个项目就只有你私人可见了。点击创建,这是一个空的项目,创建完成之后就会自动跳转到项目页面,我们切换到 s s h, 然后把这个仓库地址复制一下,当然下面这个绑定以及推送的命令我们也复制一下,后面会有用。然后我们回到这台服务器的终端控制面板,来配置一下全区的 get 用户名和邮箱。 配置用户名配置邮箱,注意这里的用户名就写 github 注册的账户名,邮箱就写 github 的 账户邮箱即可。配置完成之后,我们输入命令检查一下, 那这样就配置好了,我们直接回到 web ui, 给瞎子发一条消息,让它绑定并且推送。注意一定要选择 men 这个 agent, 因为我们目前配置的是 men 这个 agent 的 工作区备份,直接输入提示词,那这里的命令就是我们刚刚在 gitup 复制的命令。直接回车, ok, 这样就已经推送好了。我们回到 github 刷新一下页面, ok, 可以 看到工作区已经同步过来了,我们还需要给工作区配置一下,让它每轮修改后都提交代码并推送远程。像这样的固定流程,可以直接加到 agent 点 m d 文件中,那如果你不会写,也不知道要加到哪个文件里,你就可以这样问,直接给瞎子发送一段提示词回车, ok, 等它执行完提示词,就帮我们追加到了 agent 点 m d 文件里,那由于改了文件,这次变更它依然会帮我们提交到 git 仓库,到这里我们的工作区备份就做好了。后续如果你的工作区被删除干净了,或者需要迁移, 直接把仓库地址给到 opencloud, 让它恢复就好。 opencloud 的 每个 agent 执行过程中的持久化产物都会放在工作区,所以你可以随时在 github 仓库在线查看你的工作区文件内容, 甚至也可以直接在 github 在 线修改你的工作区文件,然后提交,那提交后给 opencloud 对 应的 agent 发消息,让他拉取一下最新代码,就可以直接应用了。修改工作区文件是不需要重启网关的,那我们有几个工作区就创建几个仓库即可,这里我就不重复了。工作区的这份 agents 的 md 文件建议大家有时间的话,就一定要看看 大家在安装的过程中有什么问题,或者是有什么花里胡哨的报错,可以直接发送给 ai 去问。我们实操的过程中,你会发现,有些是去服务器中的面板自己操作指令,有些时候也会在 opencloud 的 机器人聊天窗口上的操作。那为什么不全都让 opencloud 自己运行安装或者修改配置呢?原因有几点, 第一,有些命令他自己也跑不了,权限太高也不安全。第二,他的系统提示词太长,执行起来有点慢,还不如问外部的 ai, 然后自己去执行,更速度一点。 三、我们在做的是一个高度自制的 a 证的系统,如果我们完全不熟悉,是玩不起来这个 a 证的系统的。所以这个边界在哪儿?我的看法是涉及到一些 skill 安装或者是工作区目录下的内容,编辑可以给到 opencloud 去做,但涉及到系统层面的,哪怕可以让 opencloud 去改, 你也得知道它具体是改了啥,不然挂了你都不知道怎么解决。还有一个操作是直接在服务器上安装一个 cloudcode, 让 cloudcode 作为外部 ai 工具介入去修改配置文件,降低我们的操作复杂度,甚至可以创建一个专门用于编程的 opencloud 机器人, 但让这个机器人操作 cloud code 去完成编程任务,而不是他自己去完成编程任务。因为 cloud code 是 一个干净稳定的 ai 编程 agent, 是 一个非常优秀的 ai 编程产品。 ok, 本期视频到这里就结束了,真的是啰嗦了太多东西,原本我是不想录这期视频的,虽然我也是一直在有用 open cloud, 但由于上不了生产,对我来说它更像是一个学习样本,一个玩具, 互联网真的把它吹的天花乱坠。那最近估计你又会看到大量的第一批跟风体验 open club 的 人的反馈,一定有很多人态度转变,开始吐槽他,真的是很无语。所以大家要理性看待这件事情。 ok, 感谢大家的观看,相关的文档可以在评论区或者是私信找我要。那觉得不错可以参联。谢谢大家,下期再见。

上期视频教给大家本地部署 oppo pro, 本期视频让大家的小龙虾接入大门型并连接手机,让你随时随地二十四小时拥有赛博助手。首先大家要明白,一键安装此操作大部分都是云部署,没有权限调动自己电脑内的文件进行办公,大家要区分清楚本地部署和云端部署的区别,我们要的是本地部署,这样才能自 理由操作自己的电脑文件。配置 ai 模型,打开新的命令页面,输入 opencloud comfind, 选 loca 回车,找到 model 回车,这里就有小龙虾支持的 ai 接口了,我自己用的是大模型,以我自己为例,右上角找到控制台点 a p i k, 添加新的密钥,复制备用。回到命令行,把密钥粘贴进去, 选自己 ai g l m 杠四点五杠 a 二模型空格为选择回车确认选择配置部分,直接选择下面选项即可。此时你的小龙虾已经 接入大模型了,接下来重点来了,我选择的是接入福书,打开福书开放平台,找到开发者后台点企业自建应用,给机器人起个名字,这里大家自行发挥,然后去权限管理,批量导入权限,权限详情图记得截图保存。接下来我们回到终端,输入 opencloud chatmail, 我 们选择 yes, 然后找到福书确认安装,这时候需要配置福书的 app 密钥,在凭证页面找到 id 和密钥填进去, 此时就要连接配置了,选 webescape, 连接国内图书端口,继续选择 open, 下一步选择频道最下方选项,回车完成选项即可。最后三个选项都选 no, 不 用复杂配置。回到图书配置世界已回调 创建版本确认发布手机收到消息,点开应用终端,执行授权命令。命令在绘画栏你创建的应用内,你可以点击直接复制即可。现在你的手机就能随时随地召唤小龙虾了,发消息就能操控电脑不关机,还能二十四小时在线。后续我将更新小龙虾实用 skill, 让小龙虾拥有更多技能来帮助你!大家记得跟紧续载玩转 open club!

兄弟们,如果你曾经也想养龙虾,但是被龙虾那些各种命里行被劝退的,今天这个视频你一定要看完。现在这个 qq 是 腾讯刚刚公测的一个养龙虾的东西,他为的就是解决龙虾,他安装起来忒麻烦啊,忒难受的效果,而且 最主要是什么,他可以在微信里面直接去对话,你要知道现在龙虾很多的变种,那些东西基本上都是在飞书钉钉里面去弄的,但是能对接微信的就只有我们的腾讯出的 qq 洛了。 他的安装方法也特别的简单,直接下载微信,扫描一下,直接就登录安装就 ok 了。那我现在已经安装成功了,直接下载在这里 qq 洛安装出来,安装成功之后可以看到是这样一个界面,当然了你可以去进行 微信的登录,最主要是这里你就直接去微信这里扫这个码去给他连接起来就 ok 了,连接起来你就可以在微信里面去跟他对话, 龙虾该有的东西,它都能去在上面去操作七成二十四小时的,但注意需要你的电脑都一直开的机,你不能关机去弄。在这里推荐大家用一个 skill, 一个官方的弄的一个 skill 的 一个东西 叫这个 skill hub, 它是从 low hub 那 边弄出来的,中国版的。那你不用去用魔法登录了,也不用去装些奇奇怪怪的东西,在这里让龙虾直接去读这上面的东西,去 各种的去看这里面是有什么东西,还可以下载去玩就行了,龙虾的乐趣莫过于此是吧?在这个龙虾里面他还有个工作室,这个可玩性非常高,你看 他在这里坐着喝咖啡是吧?你没给他派任务他就休息,那现在我就给他派个任务,你去在 help 上面去帮我看看 精选前五十里面有多少是编程相关的 skill, 整理发给我,这样子你给他这个任务之后,他就去进行操作了。这里还可以看我们之间的对话,看他整个思考的过程。唱的不错, 这个玩起来还是非常好玩的。好了兄弟们,这个 qq 就是 国内版的养龙虾,你就去玩这个,养龙虾可以帮你干干活啥的都行。那大家对于养龙虾还有一些其他什么玩法,欢迎在评论区发出来,我们大家一起看看。

玩龙虾终于不用再花钱了,你看,我配了两个模型,一个是 gpt 的 五点三,一个是 gpt 三。我的主模型用的是 gpt 五点三啊,因为这个的配额呢,是走的这个方式啊, 免费的时长配额,然后从这选 gpt。 然后第二个模型的话呢,是 gpt 三啊,这个模型 主打的是响应快,低延时,然后调用的方式是 a p i d k, 这样的话呢,就比较方便。一个主要免费用来日常沟通啊。然后另外一个的话,因为 gmail 的 话,他写文案各方面的话我比较喜欢,所以特殊情况之下我用 gmail。 总之订阅了 gpt 的 话呢,就直接不用再花钱了。太好了,想要了解的朋友呢跟我说,我教你。

今天给大家介绍 openclaw 调试技巧,全部讲透!用 ai 的 时候,最怕的就是不知道它在干什么,开启调试模式,执行过程一目了然。 第一个是 for both on, 展示工具调用的完整过程,方便追踪执行逻辑。第二个是 reasoning on, 展示 ai 的 思考过程,排查问题更轻松。 接下来是流逝回复,强烈推荐开启 ai 回复,像打字一样逐字显示,不是全部生成完才一次性输出。执行这条命令,开启非输渠道的流逝回复。 第一个优势是实时反馈,逐字显示,不用干等。第二个是随时打断,发现 ai 方向说错了,立即停止,节省时间。 第三个是省 token, 避免无效生成,钱花在刀刃上。接下来是两个透明度增强功能,耗时显示和状态展示。 执行这条命令开启耗时显示,每次回复末尾会显示耗时,比如已完成耗时一分五十四秒。 在执行这条命令,开启状态展示,会显示已读、正在思考、正在执行等状态交互更透明。 耗时显示让你清楚知道 a a i 执行了多久,方便计算 t a i 是 在思考钱花在哪,一目了然。状态展示让你明确区分 a a i 是 在思考,不会对着空白干等。 最后是核心执行机制,这个非常重要,理解了能少踩百分之九十的坑。 openco 多条消息进入队列,严格按顺序执行,必须等上一条任务完全结束才会处理下一条。 就算重启 gateway, 也会先把队列里的消息按顺序处理完,再接收新任务。所以阶段任务一次性尽量说清楚,不要连续发送多条消息,执行更稳、更快、更省 token。 好 了, openclout 调试与使用教程就到这里,有问题随时交流,关注我,了解更多信息!

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。

来兄弟们啊,补录一下小龙虾使用教程,还不会安装的,看我之前视频。首先补好后呢,来到这个界面,先不要点这个登录,找到模型选择,我这里边选的是 mini max 二点五 这个模型呢,比较实惠,然后在这里添加 api, 点击这个测试链接,成功后呢,选择添加并起用,这样呢,我们打你。好,你是什么? 可以了。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

看着别人用 oppo 可乐自动整理文件,全网搜索,自己却在安装的第一步,别急,本期视频手把手教你,无需代码基础,跟着步骤一步一步来,小白也能轻松完成步骤,拥有属于自己的小龙虾。正式安装前,我们需要完成两个准备工作,这是成功的基础。 首先安装 node js, 请前往官网下载并安装,安装过程中一路默认点击 next 的 即可。安装完之后继续安装 git, 同样前往 git 官网下载安装包。安装过程需要注意这个选项,其它的默认即可。按住 win 加二键输入 cmd, 打开命令窗口,输入 needv 检查版本 显示的数字是二十二或者更高和 n p m 版本。然后输入 get, 命令窗口中出现 get 相关信息,就代表可以进行下一步了。现在正式开始安装 openclaw, 在 命令窗口中输入这条命令, n p m install, 即 openclaw at latest, 然后按下回车,此时系统会开始自动下载和安装,这个过程可能需要几分钟,请耐心等待,直到出现者就说明下载 ok 了。安装完成后,我们还需要运行一 的初识滑向呢。在命令窗口继续输入 openclaw on board instore dm, 然后按回车,这个过程会引导你 完成一些基础配置。新手可以先跳过 a p i 与三方对话口的接入,我后续会详细讲解。先照步骤顺序先行跳过。我们把小龙虾先部署至电脑中,在这一步我们能看到这里有 twiki, 一定要复制啊,这个很重要。然后输入 openclaw giving port, 一八七八九 vbox 启动服务。当屏幕出现这个页面时啊,就代表了你的 opencore 已经成功部署在本地了。此时打开油烟机并访问,你能看到 opencore 的 控制面板,在设置中输入出水托屏,就可以开始和你的 ai 助理对话了。是不是很简单,赶紧动手试试吧!如果在安装过程中遇到任何问题, 欢迎在评论区留言,我会尽力帮你解答。下期视频我将教你如何接入大模型 a p i, 让你的小龙虾真正充起来!

微信揭露龙虾成功了,他真的能干活呀!如果你的微信也想揭露龙虾 open curl 呢?可以看我接下来的操作。这期的干货有点长,建议先赞后看。 这是微信的设置啊,我们在设置里往下滑,找到这个插件,然后这里有个微信扩展的插件,如果你没有这个插件呢,也不用着急,你要把手机重启一下,然后就有了。如果你是苹果手机呢,可以用 siri 语音命令来帮你重启 iphone siri 重启手机。 然后我们点这个详情啊,这里有那个具体的安装方法,我现在安装一下。我这个 mac studio 已经早就安装好小龙虾了,然后我们准备在终端里复制刚才那个指令,安装一下微信和小龙虾的插件。好回车, 哎,出问题了。好,它是显示我这个 note 格式的版本有问题。 ok, 我 们现在安装一下。 好,我们已经安装这个 notares 的 插件了,我们再复制一下刚才这条指令, 哎,这里显示正在安装插件, 然后它最后出现了,就会出现这个二维码。微信扫一下这个二维码,扫了刚才那个二维码之后呢,就会出现这个连接页面,我们点连接。 ok, 微信的小龙虾已经连接成功了,我们试一下。 把我桌面一个叫龙虾的 ppt 发给我,我看一下,他们 反应稍微有点慢,它显示对方正在输入, 哎,这个就是我在桌面的那个龙虾的 ppt, 我 们看一下,我们先预览一下。 对,这是我电脑桌面的 ppt, 然后他会自己去找,在桌面上找了发给我。 这等于是什么呢?这等于就是你的电脑旁一直坐着一个初中生,你发一条消息,他就能在电脑上执行你的指令,帮你干活。不用怀疑我电脑桌面上的 ppt 和微信龙虾发给我的是同一个文件。我是千里一个懂点 ai 的 数码博主。关注我,下次咱再看点不一样的。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

呃,大家好,今天给大家带来的是在 windows 上可以直接部署的一个无线拓客版的 open curl, 大家也可以看到这是我当前的一个拓客消耗的一个使用情况,基本是没有花钱的。然后这边其实也是前天就已经部署好了,最近部署好在用了,但可能 工作上比较忙,所以没有时间去更新旧使用工具以及去做那个教程的更新。 这边的话我先会先讲一下环境的一个要求,就或者硬件要求的一个情况啊,以及会讲一下那个啊将架构是怎么去实现的。 最后的话可能会讲一下啊,参数里面就这边是使用多款去部署的参数的一些啊,配置是如何去配置的?首先说一下那个环境的要求和那个硬件的要求,在使用那个本地部署的话,其实 如何做到那个无限拓展,其实就是用本地的那个显卡去做那个大模型的一个部署。嗯,本地模型呢,我这边是用的啊,千万的那个三点五九币的一个模型,然后使用的话是使用罗马的一个框架去做一个这个模型的部署。 嗯,这个模型的话是需要那个四点五到六 g 的 一个显存,所以这边建议是需要八 g 以上的一个显存的一个显卡才能去做到一个使用 啊,这边本地部署了是用那个啊 windows 去做部署的 v 十一去部署啊。其次给大家讲一下这个方案的架构是怎么实现的,因为 open core 它其实本身与 我们的 china 就是 频道去做那个通信的话,其实是依赖于公网的一个端口 webshop 的 这个协议端口来去实现的,所以本身是需要有那个公网的一个能力,这边在本地的公网的话,是通过去购买了一个阿里云的服务端, 呃,清江应用服务器部署了一个 mps 的 一个服务端来实现公网的一个端口转发,然后,呃将我们 windows 机器的一个端口进行 open code 这个幺八七八九的端口进行转发。 呃,首先的话就这边也大概说一下,就是本地都可部署了三个服务,对应的话就是这个是用做端口连接服务端并做端口转发以及转访问到对应的那个 open curl 的 一个 getaway 容器, 以及这边部署了一个参数的一个搜索引擎,用做 open curl 的 去做搜索,默认搜索不用那个,呃,默认的那个搜索引擎,因为那个还需要那个 api k 以及它也有每月的一个调用次数的一个上限。 呃,这边的话,呃对应的话是欧朗玛的话是部署到那个宿主机,也就是 windows 当前环境下去实现的。呃,可以大家可以在这边叫 这种方式直接去部署实现的,然后,嗯,这边端口是要改一下的,然后一会也会给大家看一下,就这边其实也对应你需要将那个环境变量去做一下修改,因为需要去实现跨域的一个访问配置, 这个的话是通过环境变量这边的话有一个叫欧拉玛的一个参数, 允许跨域的一个配置以及那个 host 的 绑定, host 需要修改一下,然后它才能对应去啊,让那个 open curl get away 去直接能访问到 啊。最后呢就给大家说一下整个方案中关于那个参数的一些配置以及需要注意的点吧,像简单的那个啊应用的安装我这边就不做介绍,像多壳的这些安装,大家选到 对应的进入官网,进入对应选对应的版本,直接下载,然后点点点的方式去安装就可以了。这饿了吗的话是也是通过那个 pro shop 直接用命令安装也行,通过那个下载那个离线包 安装包的方式来进行。点点点你是一路往下点就行了,用默认配置不需要去做外的一个配置。然后像那个注意一下,就是刚刚说的需要改一下那个 roma 的 那个监听端,监听地址加和端口,监端口可能不用变,就主要是监听地址要改成零点,零点零去 监听所有的那个地址以及的话啊,大家需要一个轻量应用服务器,这个的话就不局限于说阿里云,就各个厂商的都可以,大家自己看下哪个便宜点就可以,自己去购买就行了。主要用做部署那个 n p s 的 一个服务,这个服务的话,嗯 啊,这边也有对应的一个啊,文档说明就使用文档,这个是开源的,就大家可以用其他的软件去实现,也可以,就反正链路流程是通的啊。这边最后的话就给大家说一下整个配置啊,我这边打开一下, 就首先啊多个 compose 的 一个配置,是当前是这样子的一个配置,然后目录的话,我这边是分了三个一个目录啊,对应的话是这样子,首先第一个就 opencode 的 这个服务, 这个的话我们这边做端口映设,这个端口需要跟自己的那个启动命令对得上,启动命令的话是在这里面就这个多个 file, 这里面啊这个端口跟这个端口对应上就行了。 然后以及呃这边的话,大家新进一个 open color data 的 一个目录去保存,就做那个呃映设目录映设,然后以及方便本地去做直接修改。比如说这边当前的一些配置,可以直接那个在本地就直接去修改实现, 到时候直接重启一下容器,就能实现配置上的一些更新。然后这边的话以及第二个服务,就 npc 就客户端连接那个清凉饮用服务器用于转发端口的一个配置。这个的话,呃我我把这个包也直接放上来了,然后通过它让它直接实现多个 friend, 里面直接实现自己复制解压以及对应的安装执行去实现那个呃自动启动 以及打印日期。这个的话需要大家填一下,自己填一下这个啊,那个 k 跟搜物端口,这个的话大家参考这个在服务端去做配置就可以了。这边是 web 端管理里面 进入相应的 web 服务器里面可以去做那个查看到对应的那个 vk 以及搜我 ip 加端口,这个搜搜我的 ip 一 般就是你对应的尽量应用服务器的一个公网 ip, 这个大家自己根据自己的去做配置就可以了。 然后以及这边的话,呃这个这个是不需要去做任何修改的这个插入的一个配置, 然后这边的话,呃或者这个如果大家有需要的,可以那个关注我,那个我给大家新建一个,提供一个我们当前我当前在用的就尽量拥有服务器啊,在资源没达到上限啊,就我贷款没到上线之前应该大家都可以自己先用着,没什么关系, 先跑着用,然后这边的话整体的方案就这样子,其他基本没有什么特别需要注意的。

呃,大家好,我是 ai 吸水哥,今天给大家分享一下微信对接龙虾。呃,微信刚刚官宣的这个, 呃,他们有一个插件可以直接对接到龙虾。呃,当然,目前啊只支持单聊,不支持群聊,所以这个点大家要注意,然后具体跟大家聊一下怎么去安装。第一个,呃,我们先要把微信装到更新到八点零点七零这个版本,如果不是这个版本啊,你打开这个微信, 然后去这个版本更新,去更新一下就行了,就看到这个版本了。更新完了之后,如果你还看不到,正常更新完了之后, 点设置会看到叉点插件,会看到这个插件的。如果没有 clubbot, 那 说明你的。呃,微信刚装完了,并没有重启,所以你要把微信给关掉,彻底关掉,关掉完了之后再重新打开一次 就可以了,就可以看到这个呃插件了。然后点这个详情就可以看到这个安装部署了。它其实就是很简单,就是一行命令,把这行命令复制完了之后,去你的这个呃命令窗口输入进去, 如果你是 mac 的 话,就直接打开是 for shell, 如果你的是那个 linux 的 话,就直接在命令窗口输入这一行就行了。 然后输入完之后,他会大概有个几分钟,他会去安装这个插件,等他安装安装完了之后,他会弹出一个二维码,这个之后,这个时候我们只需要拿那个微信去扫一下就行了,扫这个二维码他就会呃这个对接成功, 对接成功完了之后,你在你的那个联系人里面就可以看到这个微信 crowbot, 对, 然后再点这个发送消息,你就可以正常跟他聊天了,所以这个就是关于微信,呃,对接龙虾,好,谢谢大家。

最近互联网养龙虾真的是杀疯了,刷十个视频,八个都在养,还有好多小伙伴私信我说刚入手一头雾水,不知道该怎么养,该怎么选,该怎么用,甚至踩了一堆坑。今天咱们就把所有问题一次性说透,从选择到变现,从避坑到省钱,新手看完之后可以直接上手,不花冤枉钱,也不用做无用功。 咱们先回应五个最火的问题,再补充你们比较关心的一些隐藏的疑问,全程干货,记得点赞收藏,避免刷着刷着找不着了。第一个问题,龙虾该怎么选? 这是避坑的第一点。现在市面上各大厂都出了在线安装,一键安装,我实测下来,真心劝大家一定要装原生版的龙虾,那些所谓的什么什么可乐 仿生版龙虾,基本上都是阉割版的,上手感觉跟高版本的扣子没什么太大的区别,功能其实砍了 一大半,大部分是只能处理蚊子型的工作,离真正的原生龙虾真正的感受下来,可以说是差了十万八千里。所以说,新手如果选择要装,最好是装原生版的龙虾,只在装直接装在自己的电脑上。第二个问题,龙虾究竟能干什么?真有那么神吗? 这么说吧,他是真的神,但又不是万能的,他最牛的地方就是能替代你所有重复性、逻辑性的工作,原则上电脑上能干的活,他基本上全都能扛下来。 写文案,剪视频,做表格,整理邮件,生成周报,甚至帮电商卖家二十四小时做客服,监控库存,帮设计师出出稿啊,晒素材,不用你熬夜加班,他二十四小时不停的在工作,那就包括现在他还在我后面这台电脑上一直在工作,就是妥妥的是一个全能的小助理。 而且他能接入微信,接入飞出这些常用的工具啊,不用额外装新的 app, 你 就可以在电脑端直接控制它。 第三个问题,为什么你装的龙虾不好使,跟别人的不一样?嗯,很多人装完之后就犯愁,说他啥也不会啊,其实不是龙虾不行,是你没装,找对方法。 龙虾不是装上之后他就是超人,他需要学习,需要被教育,就像养宠物一样,就像初代的贾维斯一样, 越养他越能干,你不能上来就跟他说,你帮我干活,你帮我去赚五百块。你这个要求太笼统,他听不懂啊,你要具体的告诉他啊,比如说帮我写一篇抖音的口播文案,主题是龙虾壁坑,语气要口语化一分钟左右 啊,指令越具体他越好用,慢慢教他就会越来越贴合你的要求,甚至能记住你的做事风格。 第四个问题,普通人用龙虾变现最快的途径是什么?作为一个做自媒体的来说,我的感受就是变现最快的途径就是做自媒体啊,写公众号图文, 写短视频脚本,做网站,出项目方案,这些活龙虾全都能帮你高效的去完成。原来一个人一天可能只能最多写十篇文案,但是现在有龙虾的帮助, 基本上五十天是打底,你的收入自然而然他就会涨啊。第五个问题,消耗 talk, 也就是算力贵不贵,普通人能不能承担的起?这个是完全可以,别被算力 talk 这些词吓住。普通人买一个 mini max 的 四十九元包月的套餐完全够用 啊。我测试是第一天就靠龙虾帮我写公众号,把四十九块钱的费用就完全已经覆盖掉了啊。更省的方法是,你日常做轻任务可以用免费的模型,用中度任务的话就用 mini max 的 模型啊,重度任务你再换高端的一些模型啊,普通人基本上用不到啊,你像那个 cloud 的 模型, 一次任务执行下来就大几百块甚至上千块。第六个问题,教育龙虾有什么技巧,怎么让他更听话啊?这是很多人关注的一个问题。技巧其实很简单,你就记住两点,一个是指定要具体,第二一个是要定期的清理记忆, 别跟他说笼统的一些话,一定要越具体越好啊。另外是要定期清理他的过期记忆啊,别堆太多没用的内容,这样他响应会更快更精准,还能节省你的 talking, 长期用下来,他就会越来越懂你, 干活也就会越来越高效啊。说一个小要点,就是跟他对话尽量要使用长句,这样会比较节省 tokin 啊,不然你的 tokin 就 会消耗的特别快。第七一个问题,那就是有些人问的,龙虾能帮我剪视频做海报吗? 啊,这个是必须能,你只需要告诉他你常用的风格是什么样的,做什么类型的海报,你的做海报的逻辑是什么,他就能替代你做这些重复性的工作 啊,包括帮你剪视频,修图,做 ppt, 写代码,帮你查看所有的最便宜的机票啊,帮你盯一些所外所谓的啊曲线图都完全可以。 最后再总结一句话就是养龙虾一定要选对版本啊,我建议大家用原生版啊,教对方法,用对套餐,它就是你最省力赚大钱的一个机器。