大家有没有焦虑过,随着 ai 的 发展,它将来有可能会替换我们进行搞机械设计,那么我们就失业了。当然我最近也下载了 open class, 养了龙虾,它确实现在可以画一些简单的零件图,我相信经过不断的训练,复杂的零件图它也会进行设计,那到时候我们真的可以光荣退休了。 所以说,当然我们现在的话应该保持一个学习的心态去学习,用 ai 来帮我们提高工作效率,减少我们的加班时间。大家怎么看呢?
粉丝1.8万获赞6.7万

我们可乐能帮我们画三六五和零件图吗?我今天试一下龙虾,龙虾,请帮我画一个面积为七毫米、高为六十毫米的等六边体立柱。哇,速度还挺快的,画的也比较准确的。

我发了这个龙虾帮我画 sorry work 零件图之后,有趣的网友在评论区当中问,养龙虾的成本是不是非常高?是不是操作非常难?其实我是用的 open climb ok, 它就是能够降低成本百分之九十,而且呢,即使新手小白也能够轻易的上手。

今天再试一下,在 openclaw 接入 com 域外实现生图自由,给了 openclaw 一 条命令,自动安装, 先用系统自带简单工作流,试了一下,成功生图, 再试一个。我配置是三千零六十十二 g 加十六 g 内存,就选了个轻量型的流逝工作流,使用了个轻量型 zimage 模型,显存六 g 以上都可以用。 把模型名字给豆包,让它帮你生成一个工作流文件,把工作流文件导入 comfy 外,会出现需要下载的文件, 已打包好,有需要望我拿。 测试 完美完成图片,把流程生成个技能,方便后期直接调用 完成十五秒出图,效果还是非常不错的。

你们装小龙虾了没?他刚刚接管了我的电脑,真的可以帮我干活,哎,我想让他把我这个文件夹里的 pdf 全变成图片,我想试一下看行不行啊? 然后输入自己的需求啊,直接告诉他把桌面上这个测试文件夹的 pdf 给我转换成图片,刚刚真的给我做出来了,这是我的需求。然后 他先检测我的文件夹里有什么,然后他找到了五个 pdf 文件,然后呢,他在搜索我的电脑有没有这种。呃, pdf 转换图片的工具是没有的,从来没有,没有安装,只安装了一个,这个我也不知道是什么。然后呢,他就 去装了一下,就这个玩意,我也不知道是什么。这个应该是一个 pdf 转图片的一个工具,他自己去找的下载了。然后呢,他给我转换好了,最后转换好了,然后我点开这个测试文件夹,多了一个转换图片的文件夹, 真的,他全给我转好了,以后,这还要什么对吧?要什么文员呀?这这这一秒的事,就人工智能全给你把电脑操作好了。哎,我准备再弄一个更复杂的让他试一下。太,太牛了,你看全给我转好了。

兄弟们,我终于养出了一只会做 ppt 的 龙虾,而且是大龙虾,你看,我只是在手机上摆个文档发过去,让他帮我做 ppt, 他 就一口气帮我做成了十几种不同风格的 ppt。 有 这样的这样的、 这样的,还有这样的、这样的,今天一分钟教会你。首先,你需要给你的龙虾配置个擅长做 ppt 的 api key, 比如 mini max 二点五,它的高阶文档处理能力非常屌,而且还是给你的龙虾配置个做 ppt 的 skill, 就是这个之前讲过的有几万个 skill 的 网站里面找到这个 anselpik 出品的 ppt skill, 然后把这个指令复制下来,发给你的龙虾,让它安装这个技能。 最后一步是调试,用我这个祖传的指令文档,加上你的原始材料,就能做出多种风格而且非常专业的 ppt。 如果有需要调整的地方,直接让它调整就行。更牛的是,它会自我训练,自我加强,越做越好。最后要说的是,用 mini max api 的 时候,记得去用它的 coding plan, 超级便宜, 一杯咖啡的花费都肯随便用,这个能力和价格也太适合养龙虾了。以后我就有一个全年候待命的 ppt 工程师为我服务了,帮我再做一份 ppt, 详细文档已经整理好了,点赞关注,轻松获得!

有一个二十四小时帮你办事的 ai 助手 openclock, 还有一个最强的开源模型调用工具 comui, 两者结合就能这样你通过手机发送需求, 然后 ai 在 你自己的电脑上自动加载模型,完成图片、视频、音频的生成,并最终将成品发送给你。 那就可以把 aigc 做到完全私有,本地部署,并且免费不限量。本期视频演示的就是真正意义上可落地的数字员工和数字生产力。 openclaw 和 comui 的 联动就是给极致的大脑装上了最强的开源模型,从会说变成会干活。它可以根据要求自动生成图片、克隆声音、合成数字人口、播跑首尾帧视频, 还能批量执行工作流,把原本需要坐在电脑前一步步点击的操作,变成你随时随地发消息就能完成的自动化流程,这就是最有价值的实战方向。那么本期内容我就会带你从实际演示出发, 看这套联动到底能做到什么程度,又能怎样接入你真正的生产流程。接下来的很长一段时间,我将会陆续开始在星球更新 openclock 教程以及最新的 comui 教程。 想要从零开始系统入门并逐步进阶提升的小伙伴,欢迎加入小黄瓜的知识星球。 open call 和 complain 联系起来之后,它的过程是非常稳定的, 就是它能稳定调用我们使用到的那些工作流,而且它可以稳定的去设置相应的一个参数,能够正常的按照我们的要求去完成图片或者视频的生成,然后以及音频、数字人,这些都是可以的啊, 可以看到我们这后台呢,已经在运行了,我们的硬件呢,现在可以看到已经开始有活动了哈,内存在逐渐的上升,就是在加载对应的模型, 然后图片生成,我给他配置的是用的 z image turbo 的 模型哈,所以说内存现在在上涨的阶段,说明模型正在往内存里面加载, 加载完毕之后呢,我们的 gpu 就 开始运行,也就是开始完成我们正常的图片生成。生成完毕之后呢,这个 openclaw 就 会通过飞书把消息给我们发送过来啊啊,可以看到这里已经生成了,也就是这个生成的过程是他自己做的, 然后生成完之后呢,他就会把这张图片发送给我们,然后包括人物的着装姿势,配饰背景,然后包括姿势形象,这些全都是他自己给我设计的啊, 可以看到这里已经生成了,那等待他把消息发送给我哈,可以看现在已经给我生成了,在飞书里发送给我了,这就是他给我生成的一个男生哈,然后我们把控制台打开哈,把 com 约的后台打开,能够看到他运行的过程哈, 然后显存呢,就是我们的性能占用还放在这边,我建议你能时刻的观看自己的硬件占用状态,了解模型现在运行到什么样的过程,然后这里给我们生成了,我们就可以让他再给我们生成一段音频啊,用小黄瓜的声音生成一段音频,小黄瓜。再说 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,然后说天气比较热,建议多往室内有空调的地方去。 好吧,就这样,那么这两句话大概也就是四五秒的时间吧,然后我们发送一下,现在呢,我们是让他用本地的 com 给我们生成音频,然后等待他把音频给我们生成完, 生成完之后呢,我们让这个男生用我的音频再生成一段视频,也就是数字人哈,可以看到这里,我们的音频已经生成了,我们来听一下啊, 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去, 可以吧,这个声音没问题吧,跟我的声音是一致的啊,我们再听一遍。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去。好的,这个音频也没有问题啊, 我们说用刚才生成的这个男生形象,根据小黄瓜的声音做一个数字人的视频,视频时常控制在十秒钟吧,每秒二十四 fps 吧,然后视频分辨率呢 为一二八零乘以七二零吧,好吧,就这样。然后呢,他现在就开始给我们做一个数字人的视频啊,这里面我给他配置了七个工作流, 这就是我给他配的,所以说大家如果要用的话,你想给他配什么就配什么,我这里配了一个首尾,真的配了一个数字人的,配了一个声音设计的,还有一个声音克隆的,就是让他可以用我的声音去生成音频,声音设计的话就是他可以自己设计声音去生成音频, 然后还有 ltx 二点三的图声视频的,然后以及一个图片编辑和一个纹身图的,就文本到图片生成的那纹身图的模型,你配置完之后,你就可以让他给你做一些,比如说封面设计,然后 其他的内容哈,可以在上面看一下。我有做封面设计啊,你就像这个,在最开始你跟他交流的时候,比如说我这里说给我设计一个视频封面,关于 openclaw 和 compui 的, 然后想把它做成我的封面,然后是十六比九,主要是国内人看,所以说我们的封面标题呢要用中文,然后这是他给我设计出来的第一版封面啊,很明显这是不醒的,对吧?然后呢就给他做了一些个额外的干扰,我说要有标题, 然后呢标题写的清晰一点,有设计感。然后这是他给我的第二版封面,这个也不行,然后我说文字都粘到一起了,要有排版,然后这是他给我的第三版,这版其实还行,但是受限于大模型,也就是我本地部署的这个图片生成模型的能力, 所以他后面的很多文字呢是毁掉的,然后呢就给他说封面文字有误,然后让他重新修改,然后这是他又修改完的一版,看起来还行哈,然后呢我就给了他一张图片参考,我说你把这张图片给我复现出来,当然了 这个生成图片的能力取决于你部署的那个模型,就像我给它配的是 z image turbo, 所以 说这个能力并不是因为 openclock 不好,或者说因为 comfui 不好,只是因为这个模型我们目前用的不好,但是呢模型它是会进步的, 对吧?你像最开始我们用 sd 一 点五叉 l 的 时候,那个时候生成的图片质量是很差的,但是呢,随着模型的进步, comfui 甚至可以什么都不做,就只是适配一下这个模型,它的功能呢就会提升, 因为 comui 的 能力不取决于 comui, 它取决于模型。然后这是他给我的第三版哈,也就是参考刚才的图片生成的,然后发现文字都毁到一起了,然后又让他给我改, 最后生成了这个,所以说限阶段,如果你想用可以,但是他并不会到非常智能的程度。我这里接的是拆的 gpt 的 五点三的模型,所以说能力还是很强的。这里视频生成了,我们看一下哈。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去, 后面因为音频没了,所以说就没声音了。在这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去,可以看到它调用的是我本地的,而且我们的显存呢,确实刚才有在运行啊,然后内存的占用现在还在这一百多 g, 这是演示的一个小功能啊,还有我们的首尾针什么的都可以。 之前的话,我们是需要在 cfui 里面跑工作流的,对吧?现在跟 openclaw 配属完之后呢,我们可以你拿着手机,任何时间,任何地点,你只要给它发送消息,它就可以给你制作。主要是这样的一个过程,而且呢,它可以有自己的设计,比如提示词当中可以让大模型自己写,也就是让 openclaw 接的这个大模型自己写,不用我们写,你 甚至可以让它批量的生成图片。以前如果说你在 cfui 要批量生成图片,是需要自己搭建一些工作流的,对吧?比如说设置种子值自增, 然后让他一个一个的生成。现在我们可以直接让他生成哈,比如我们这里给他说让他生成二十张真实男青年的照片,然后人物配饰、长相、背景,让他自己设计分辨率,在这里写一下。比如说我在一盘哈, 给他重新创建一个文件夹,叫做男生,然后粘贴到这里,然后二十张图片放到这个文件夹,然后名字从零一开始到二零结束。好吧,那这个时候呢?我们就等他给我们生成就行了。 你像以前我们还需要去处理工作流,对吧?然后自己或者说一张一张生成,但现在我们不需要了,批量给我生成了二十张,大家可以在这里看到哈,我们来看看这些图片哈, 怎么都是这种呢?他是他生成的是这种合集,好吧,他生成的是这种合集,我再给他说一下算了,我说把刚才的二十张图片删了, 我要一张图片只有一个人物的,就这样让他再给我做一下哈,可以看这里,我们二十张图片已经生成完了哈,大家可以大概看一下二十张这些还像同一个人啊,对吧? 他是给我们生成了五次啊,这是第一批,第一批当中像是同一个人,第三批像是同一个人,对吧?可以看一下,还挺帅的,对吧? 我们让他这样用第五张和第八张图片,把这路径复制一下, 给我们生成一个视频啊,生成一个五秒的吧,五秒的首尾帧视频,让他用一二八零乘以七二零的分辨率,每秒二十四帧吧,然后让他给我们生成一个首尾帧视频啊,看一下视频啊,这是我们做的首尾帧视频,六秒, 好吧,这个质量还是可以的,这个质量取决于 ltx 二点三,也就是我们给康复 ui 配的这个模型的能力。好吧,这点大家能理解,我们让他给我们做个海报吧,但是海报的话,我们可能需要让模型有一些提示词哈, 或者说写一些比较详细的提示词,我们去搜一个海报的案例的这张吧,这张好看,我们让他说给我设计一个罐装可乐的海报,可以参考这个提示词,文字内容你自己考虑加什么分辨率,我们要个一零二四乘以一五三六的,就这样 我们试一下哈,让他给我们设计一个海报哈,然后给他提供了一些参考提示词,如果直接用这个提示词生成,你生成的就是这样的内容。但是呢,我很明显不对啊,因为我们要做一个可乐的海报嘛, 所以说你自己要去想这上面的字我们改成什么,这两个字改成什么,哪些字要改,哪些字不能改的,现在我们交给大圆模型,让他去想,我们就不想了,不动脑袋了。这他给我们设计的海报哈, 并没有出现可乐哈,但是文字、排版这些都没有问题,画面的质量也没问题,这个质量呢,是因为 the image turbo 的 质量比较好哈,所以说这个呢,不行,我说再给他说一下, 就说图片里要出现可乐,这是一个产品海报这样的这一个产品海报对吧?看起来还不错,但是我们可以让他加一些英文文字,设计一个标题,大字标题, 白色文字啊,手写体最好,然后文字内容为 c o o l, 就 这样,然后放在图片的最上面,我猜测它可能会用到编辑模型的,因为这张图片的话是用 z 生成的嘛。 这里你看它已经在思考了,并没有直接生成,所以说它应该会切换工作流哈,切换到 flex clean 模型,当模型的能力再一次提升的时候,我们现在流程的能力就会再一次提升哈。 所以说现在大家其实可以去接触 open club 了,我觉得因为他们的能力不取决于他们本身哈,取决于他们用到的模型。模型的能力提升呢,不取决于个人, 取决于那些走在前面的那些大厂。好吧,所以说你现在学和以后学都是学一样的。稍微等待一下哈,不知道他现在思考到什么程度?我看一下哈,我们能在 open club 的 后台看到他 思考到什么样的程度啊?哦,他已经加好了吗?我们看一下。靠,他加了一个这样的文字哈,可以看这个,这俩基本上没问题啊,这两张图片除了文字之外的没区别啊。这个文字是他自己加的, 如果说我们有自己的提示词的话,让他去做海报就更简单了哈。比如说像这个,我们直接把这个提示词给他,用这个提示词给我制作一个海报,就这样直接把提示词给他就行了,然后他就会自动给我们生成哈, 等待一下,我推断他加的这个文字啊,是他自己通过脚本加的,并不是用了我们的模型哈,看一下,这是在后台啊,我们跟他交流的过程在后台都能看到。我们看看刚才说的让他加文字这件事情上,他做了什么,哈, 它用了一个工具调用哈,然后在这里可以看到,它是通过代码给我们加的文字哈,并不是用模型给我们加的,它这里用了一个 python p i l 库哈,这个是对于图片设计的,用了一个 image, image draw, 还有 image font 这几个类哈,然后去做了一个图片上面加文字的操作, 所以说呢,它并没有调用我们的 comui 哈,它选了另外一种方式,然后就生成了,所以说我们的 comui 呢,也没有运行。 然后这里他还下载了几个字体文件, ttf 是 字体文件哈,然后就加了几个文字哈,这是他的一个刚才加文字的那个过程,并没有用我们的编辑模型哈, 这里生成了哈,这个怎么说呢,文字排版不太行啊,这个海报如果把这么多中文直接交给模型生成,基本一定会出现错字、粘字、排版乱,所以我还是按更稳的方案来, 先生成了海报底图,然后再把文字排版进去。我说不要这样,直接用提示词生成就行,你看,这就是他自己的一个思考,但是他的思考是不对的,如果直接用提示词生成就会更好,反而他自己写的排版乱了, 对吧?所以说他自己想的,他先生成了一个底图,然后自己又加了一些文字,但是自己加的文字明显排版是乱的,还不如直接让模型生成,所以说这个呢,没办法,你在跟他交流的过程中就会遇到这些问题啊,所以说大家装完之后,最主要的是跟他的配置和交流的过程,可以看这次就直接生成了,这就没什么问题啊, 对吧?这次这个海报就没什么问题,所以大家以后用的时候,你想啊,当你看到了这个问题的时候,你能不能分析出来这个机器人他是在哪里出了问题, 然后让他给你改成合适的。如果说对康复 ui 了解不多的同学,可能看到这里就觉得康复 ui 的 能力也就那样了,对吧?其实是因为模型在中间做了一些事情, 然后导致了这个海报不太好。好吧,现在他的能力确实是有的哈,但是取决于我们给他配置了什么样的工具以及工作流,我来配置一个哈,这里有个图片放大,我觉得是需要的,我们让他直接给我装个插件哈,看这个工作流是不是这个 see the vr two 高清放大我搜一下哈, 我们一定尽量的把指定的插件路径给他哈,让他确定是装的这个插件,比如我们复制给他,然后说帮我安装这个 comui 插件,然后重启 comui, 然后把地址给他就行了,接下来他就会自己帮我们装了哈,可以看一下哦,还是在这里看哈, 一会的话,我这个网速的话就会开始提升啊,说明他已经准备下载了,下载完之后呢,他会处理环境,然后把环境装在 comui 对 应的环境里面,然后呢再给我们启动,可以看现在网速已经上去了,就是在给我们下载插件啊。好吧,他说重启了,我们试一下哈,我们看看这个插件有没有装上啊, 可以看,这里已经有了哈,这个节点没问题。所以说前面的这些呢,是 c 的 vr two 的 插件哈,看一下。所以说还得再装一些插件啊。已经给我们成功装上了一个插件,然后我看一下那个工作流哈,他好像把我的康复 ui 装到了 c 盘里面哈,看一下这个插件里面的视力工作流哈。 插件比较少, seedvr2, 然后找到对应的工作流,这里面缺失几个节点,然后我自己给他装一下吧。手动装一下吧。这是什么?有两个插件装失败了吗?我们重启一下看看啊,好像没问题啊,这几个都是装上的,现在在重启 comui 哈, 这些操作大家应该不陌生了,如果说啊 comui 已经学过一段时间的话。好的,有个插件没有装上,不对,应该不是没装上哈,是这些节点应该过时了哈。 get image size, 这是 c 的 vr two first pass, 不是 这个节点哈。看来这个插件还是没装上,选择最新的版本,看一下后台有没有在下载哈。哦,现在是在正常的下载,等一等吧,我把这个图片放大的工作流也给他,给他之后呢,他就可以批量的去完成图片的放大了哈, 我们刷新一下。好的,已经启动了,我们看看有什么报错哈。哦,载入成功的哈。插件在这里啊, see the vr two video upscaler 在 这里哈,这个节点。所以说把它替换掉啊,这里是 block swap。 然后这个呢,不管它了哈,直接把它从中间给它替换一下就行了。第一个阶段的放大, 这是第一个阶段的图片,第一个阶段有个 block swap 参数,现在不需要了,我们把这个删掉就行了。然后 d i t 就是 它的模型哈,我看看我本地的模型有哪个哈工作流要提前给它配通哈,配通之后再让它去运行 seed v r two 在 这里哈,本地有七 b lp 十六的模型,我是有的。那就直接选这个哈, 选完之后选我们的库达林 block swap, 直接在这里可以设置哈,给个二十吧,不给太多哈。然后这个也连过来 v a e 模型,这是 c 的 vr two 的 v e 模型,然后选上,这是分块放大,我们就按默认参数就可以了,把这个也连过来 v e 模型,那这个时候就相当于我们配置好了模型, 然后来测一下这个工作流的运行哈。等一下啊,我把这个工作流先保存一下,重新命名,然后把刚才这个工作流拖入进来。拖入进来之后呢,我们看看它是怎么做的,参数是怎么连的,做一个替换哈。 open floor 里面, 把 the vance 拖进来看一下哈,这个节点就连出来了一个最短边的参数哈, shortest side longest 最短边的参数应该是连到了这个 resolution 上面啊。好的,那这个工作流基本就没问题了,我们上传一张图片,让他给我们放大一下试试啊,我们就用刚才他给我们生成的这张男生的图片吧, 复制一下,粘贴到这里 set, 因为就给他连过来啊,把这个节点删了,然后第一阶段的话,放大到两千就可以了吧。第二个阶段呢,我们放大到四千吧, 这个指的是它的最长边哈,我们把它的最长边放大到四千,就相当于做了二点多倍的放大哈,二点五倍的放大了基本上,然后我看一下这个参数哈, seed 给它改一下 tailing upscale 放在这里, 然后看一下他的参数有问题啊,也就是插件更新导致了节点出现了问题,所以说我们是需要把节点删除重建一下的,原来他的过程呢,做一个替换就可以了,连到这里,所以说这个节点可以看他已经没有输出了,所以说这个节点对我们当前工作流没用,删掉就可以了, 现在应该没问题了。 new resolution, 把连上放在这里吧,运行一下试试啊。运行吧。好吧,现在这个呢,就是图片高清放大的工作流哈,这个节点有错啊,我们看一下错误是什么? block swap 是 无效的哦,我懂它意思了,它的意思是呢,你的模型放在了显卡,如果你做 offload 的 话,也就是显存卸载,做 block swap, 你 需要把它卸载到另外一个设备上,所以说这里呢,我们得选 cpu, 不 然的话它卸载不了哈,我试一下不做 block swap 它能不能跑哈,因为我想让它尽可能的把我显存占用多一点嘛, 如果我的显存不够的话,那我就去做 block swap。 现在的话可以看在做第一阶段的放大,然后我们的显存占用只有九个 g 是 没问题的,九个 g 占用很少哈,但是等到第二阶段放大就开始大了哈,图片放大对显存的占用很多,所以说这些工作流的配置你一定是要清楚的,不然的话,你没办法把它交给 openclock, 让它给你运行, 因为你需要选择其中的参数,让 openclock 去修改的。你比如说这里的模型的名字,你肯定不能让它修改,因为这个模型是你自己固定好的,放在本地的。还有这些呢, device 这些它没必要修改,所以说你就不要暴露给它,如果你暴露给它了,它就可能给你改,一改的话,工作流就跑不了了, 那个时候问题就大了。但是这个呢,就取决于你康复 ui 学的怎么样。如果说拿到一个工作流,你都不知道提示词在哪写,或者说都不知道你在哪里设置图片的尺寸,那你怎么去让模型配置呢?对吧?所以说这个呢,可能需要就是你学完了康复 ui 之后呢,你再学 openclip 加康复 ui 会更方便一点哈。 好的,放大完了,我们来看看,右边是原图,左边是放大之后的,大家可以看一下哈,看看他的衣服哈,还行吧,衣服质量还不错啊,看这个扣子, 这个扣子原来是扭曲的啊,现在已经到正常了。还行,这个放大质量不错的哈, 对吧,他多少会有点修改哈,百分之九十九相似。还行哈,这个质量没问题,工作流也没问题,那我们就直接把它 导出开始封装吧,导出一下,但是要把它导出成 api 格式哈,图片高清放大命名一下。 api 命名完之后呢,我们就把这个工作流导入进来哈,然后这里有个描述,说明我们要给它写上哈,就是图片高清放大可以,这应该就行了, 这俩节点我们不用管,所以说主要给的就这仨参数就可以了,一个是一百四十八号节点,一个呢是一百零四,一个是一百二十五。 我们先把一百四十八号节点给他暴露出来哈,一百四十八号在这里打开,然后描述一下,就是需要被放大的图片位置,然后生成必须给他勾选上,然后呢还有一百零四和一百二十五啊, 你找到一百零四,一百零四,一百二十五,这俩都给他打开啊,一百零四的话,这是啊 number, 也就是第一步放大的最长边长度 建议在两千以内,然后这是我们的第二步哈, number 二,给他起个 number 二吧,就是最终图片的最长边的长度建议大于第一步放大图片的最长边, 就这样,一个两千,一个是四千,这样的话就应该已经够了哈。第一步放大的最长边长度建议在两千以内,不要超过 number 二的大小。好吧,就这样保存一下, 我们来试一下哈,就像现在我们就已经配置完了,你可以问问这个 openclock 你 现在可以用的工作流都有哪些?可以看到他已经给我们说了他现在可以用的工作流这有八个,然后再加上我们刚才给他配置的这个图片高清放大的, 然后他说刚才装的插件已经装成功了,那我们给他,让他生成一个真实人物,女生在二十五岁左右吧,然后衣服风格,背景装饰,长相你自己设计, 然后分辨率呢在一五三六零二四左右,然后再把这张图片放大到,我们让它放大小一点嘛,不要太大了,最长边放大到三千,不改变原始比例。我们先让他把生成的人物发给我,然后呢再放大发送给我, 然后呢再把这张图片最长边放大到三千,不改变原始比例,放大后再把放大后的图也发给我。 好吧?就这样这个时候他就会去做了哈,然后现在可以看我们的图片已经生成了哈,这个是一五三六乘以一零二四的分辨率吗?然后这是他设计的给我们生成的一个真实的女生,然后包括他的长相啊,然后以及穿着啊, 然后装饰包括背景全都是自己设计的哈,他用提示词设计的。然后设计完之后呢,现在就开始做图片放大了哈,等他把图片发给我了哈, 这确实是放大后的图片啊,这是我们放大前的,这是放大后的 是吧?确实是啊,是放大后的图片。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

有人问小龙虾能不能调用 comforu i 实现图片生成?可以的可以的,我给大家实现。要想用 open curl 调用 comforu i, 首先你肯定是要有一套 comforu i 的 环境, 这是我们在本地搭建的 comforu i 的 环境,这是刚创建不久的一个流程图,它的作用就是根据你的正向提示词、反向提示词去生成一个平面图。其次,我们肯定是要有一个 open curl 的 环境,对吧? 我们建了一个 openclo, 这个 openclo 呢是使用的模型是 kimi。 二点五,要想用 openclo 去调用 ctrl u i, 我 们最好的方式是使用技能。这里是我整个创建这个的过程啊。嗯, 帮我开发一个 skill, 用于调本地的 comfyui 他, 然后后面就是要要求我提供给他这个 jason 的 路径,然后到这一步就是他已经成功创建了这个 skill, 就是 我通过在这个对话框里面跟他聊天的方式,他就已经能帮我生成图片了。 我这里是需要用 openglue 去调用的,怎么做?然后他就尝试再去做调整,调整完成之后就这里就算是好了,是吧? 然后我紧跟着我到小龙虾这边,这是它第一次生成,然后最后生成了它会路径在这,因为 openclo 它的这个界面是没有办法直接去访问本地文件的。这是目前 openclo 这个界面的一个问题,我们是不是可以 重新考虑修改一下我们的 skill? 既然你本地文件没有办法输出,那你是不是可以直接帮我输出 best new 四啊?在这儿你看它这边也是有 best new 四的方式进行输出。嗯,修改到这一步之后,它支持了 best new 四。 这个时候呢,我又重新跟他说,我修改了一下 skill, 你 帮我重新生成它。确实按照这种思路其实是对的,因为它能正常的输出这个这个东西,但是如果它这个输出完成之后,它就会正常显示,以百四六十四的方式显示。但是可惜百四六十四比较长,它输出 没完就结束了,所以导致这个图片是没有办法正常显示的。既然你这边生成的过程是用 python 去生成的,那为什么不能生成之后帮我直接打开呢? 使用电脑默认的打开方式帮我打开就好了吗?使用默认的图片的浏览器帮我打开,好,你,我已经同意生成,你帮我试一下, 对吧?他就成功了。我们给大家演示一下,编成一条鲨鱼,我们现在再看一下它的效果,但它的效率感觉并不是那么高,哎,你看生成成功了。

又发现了一个 github 上的宝藏开源项目,这个作者直接把三十多个可以直接使用的 opencloud 应用模板开源了,哪怕你是纯小白,也可以照着模板直接使用。比如这个多智能体协作,有给他想法,从开发、营销、销售、运营多个地 这种题就直接同时开始帮你工作。然后是自动化工厂,只需要给他一个目标,不仅能自动拆解任务,还能在你睡觉的时候去敲代码做产品。最恨的是这个商业情报分析,能帮你自动化模拟交易,每天一睁眼就直接给你最新的消息和趋势预测结果。最关键的是,这个项目完全开源。

这个是我今天用我的 open 可乐大龙虾来生成的图片,这是这一张,还有一张你看一下,我只是让他学会了一个技能,接下来我带大家看一下这个技能,也就是让他从开播大学这个 tv 这个技能让他去安装, 他告诉我安装好了,你学完之后,你需要给他一个钥匙,也就是你的这个 live tv 的 api, 你 登录那个 live tv 就 可以看到了, 在这里它有一个钥匙密钥,你点击创建新的钥匙,你就可以复制你的钥匙给你的龙虾,你的龙虾就可以帮你来进行图片的生成了。 接下来我是用了我的这个海绵宝宝,他是我的一个写作助手,我让他帮我生成了一段关于清明时节的一个提示词,丢给了我的这个派大星,因为他是我的视频剪辑助手,他也可以进行图片的生成, 因为我刚刚是让他来学的这个技能,所以说我就让他帮我来生成,我把提示词给到他之后,他来帮我来处理之后,我就得到了一张这个图片,就是一个清明时节的海报的一个图片。接下来我又给了他一段提示词, 就是这刚给你们看了拼图的一个图片,然后他又帮我生成了一个花卉拼贴的一个图片,非常自然,非常的好看,如果你有想学这个技能的可以评论一下哦。

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。

给 openclaw 下大任务之后,不知道 openclaw 在 干啥?这款开源项目帮你实时监控 openclaw 的 工作状态, 它在 github 上有近六千 star, 双端互通,不管是在 pc 端还是手机端,都能查看 openclaw 的 状态。它不仅能帮你实时监控 openclaw 是 在干什么,在工作还是在待命。 每个状态都有单独的模块, a 阵切换状态时,办公室里的像素角色会实时走到对应的区域里, open klo 的 状态一目了然,还能生成。昨日笔记告诉你昨天你的 open klo 干了什么,相当于一个可视化日记。 不仅如此,它还是一个实时协助仪表盘,支持多 agent 的 协助,通过 johnkey 邀请其他 agent 加入你的办公室,实时查看多人状态。安装十分简单,直接到 github 上复制命令发给 openclaw。 这里我是用 one panel 控制面板安装的 openclaw, 需要在容器中开放端口,点击容器找到 openclaw 的 容器,点击更多,进入编辑页面,找到端口,填入 star office ui 的 端口之后点击确认 star office ui 的 默认端口为幺九零零零,等待更新完成。然后点击智能体,找到 openclaw, 点击 web ui 端口,跳转到 openclaw 面板,把命令给 openclaw, 让 openclaw 完成部署, 再切到 github 复制这条指令,回到 one panel, 找到智能体。在智能体这里进入工作目录,然后找到 workspace, 点击文件夹,找到 so, 点 md 文件,点击文件进入编辑,将我们在 github 上复制的代码填在最后, 点击保存后输入访问地址,就可以进入你的面板开始体验了。在界面中可以看到我的 openclaw 正在待机,回到 openclaw 给他一个任务,开始执行任务, 回到 star office ui 的 界面,发现从待机转变成工作状态,像素风还蛮可爱的,感兴趣的话就试试吧。

ok, 接下来我们来从零到一的实操下 openclaw 的 安装、部署和使用。那装之前一定要问自己一句,你想让他帮你做什么?不要盲目跟风。 目前的 openclaw 不 太适合用于生产环境,所以只能算是一个有意思的玩具。如果你有闲置的 mac mini 或者任意一台闲置的 macos 系统电脑,那他们一定是最好的选择。 如果你是 windows 电脑,那也可以,只不过 openclaw 的 生态对 macos 系统支持比较好。那如果你都没有,不建议大家为了使用 openclaw 去买一台电脑, 也一定不要在你日常使用的电脑安装,包括国内各个公司基于 openclaw 推出的一键安装的客户端,都不要在自己日常使用的电脑安装。 如果你实在想体验一把,我们可以花二三十刀,也就是一百来块钱购买一台两合两 g 的 vps 就 可以了。如果你觉得你会长期使用,从而装很多东西,那就买一台四合四 g 的 vps, 大概是四十刀到六十刀左右。哦,对,我说的是一年的价格,非常便宜。那我目前这台 v p s 应该是一个三合四 g 加一百 g 的 硬盘配置,使用的是无斑图二四系统,不是它必须得这个配置,而是我目前只有这样一台闲置的 v p s。 来做演示了。那我之前一直在使用的 oppo cloud 服务,其实是部署在一台两合两 g 的 v p s 上, 没有问题,基本够用的,也装了很多额外的扩展,那目前这台机器的内存占用是百分之四十,此盘大约用了有十五个 g。 ok, 我 们来到官方文档,复制一下安装命令,然后回到终端直接执行, 这里由于要安装一些东西,所以比较慢,大家要等一下安装完成之后,我们就进入了一个引导配置,那这个提示简单来讲就是问此安装是不是你一个人在用?如果是个人用,选 yes, 那 如果你这台机器还会给别人登录,或者是放在公司服务器上,以及要对外公开访问,那就选 no, 我 们选择 yes, 然后选择快速入门。接下来是选择模型厂商这块,根据自己的需求来,他特别需要注意的是,如果使用国产的 mini, max, kimi, 智谱这些厂商,他们分国内版和国外版,那我们这里先选一个自定义的 provider, 也就是自定义厂商,输入我们的 base ul, 大家根据自己使用的平台写就好,但一定要注意,因为我们平常使用可乐扣的扣的 x 去配置自定义厂商,背四幺 l 的 时候一般不用写后面的 v 一, 但 open colle 这里要写。然后回车,我们选择直接粘贴 api k, 把我们的 api k 粘进来,回车短点兼容性,这个看我们自定义厂商的平台支持啥,一般都会支持 opa 这种格式,所以我们直接选 opa 就 可以。接着是模型 id, 如果你是选择自定义厂商呢?模型 id 需要你自己填,那我们这里用 gpt 五点四 回车, ok, 刚我们回车之后,它自己做了验证,那如果你的填写有误,这块会验证失败,那接下来是填的自定义厂商名字, 接下来是模型别名,我们直接回车即可,不用填。然后就开始配置聊天频道了,就是你要在哪个应用上跟你的瞎子聊天就选哪个。那我的建议是能用 telegram, discard 就 用它们,用不了的话,国内最合适的就是飞书,那飞书国内版目前也已经内置在 opencloud 包里边了。既然配置麻烦了点, 目前最简单的消息频道配置是 qq, 但他最多只支持五个机器人,还容易被屏蔽一些消息。那微信的话想要接入就只能走起微了,那更麻烦。 最近腾讯出的比较让人期待的 qq 了,最终走的也是客服消息,而不是给了个人微信机器人号,所以也不推荐。那后面我会使用飞书做演示,其他几个消息频道的接入教程就不在视频里讲了,看视频的附属文档就可以。这里我们先选择跳过 一会再来配置聊天频道。接下来是选择联网搜索的供应商,那如果你有这几家的 api k, 那 就填,如果没有的话就跳过。 然后是配置技能,也就是 skills, 我 们选择否后面再按需安装就可以。其实 skill 为啥出来比 mcp 晚,但是却能盖过 mcp? 我 们在玩瞎子的过程中会有深刻体会, 这一步是在问你要不要起用一些附加小功能。自动钩子,通俗点讲就是当瞎子触发了某个事件时,自动帮你做一些事情,不开也能用。开了只是多一些自动化或者是增强功能。看到的这几项大概可以这样理解, bot md 就是 在 get 位启动的时候自动运行 bot, 点 md 文件,也就是 open cloud, 一 启动就先把你写在 bot 点 md 里面的启动说明,输入法规划 及预设内容读进去可以理解为开机自启动的说明书,那接下来这个是在 agent bootstrap 阶段额外注入一些工作区文件,那官方说明是,当你的工作区里面有多个上下文跟目录,比如 monroe ripple 多模块项目,想要把额外的 agent 点 md tools 点 md 这类文件一起带入上下文,但是又不想改工作器跟目录,那就用它。然后是 command log, 它是记录你执行过的命令,方便排查问题,把所有的命令事件记录到一个统一的日期文件里。 section memory 保存绘画记忆, 就是让他记住这次运行中的一些上下文。当你发出斜杠 new 指令的时候,他会把当前绘画的上下文保存进 memory。 通俗点说,当你打开一个新的绘画时,会把旧的绘画存档,那这些都是一些基础的户客,大家可以根据自己的需求去选,不选也可以,我们这里可以选都勾选上回车, ok, 这就已经就绪了。这一步是在你想用什么方式把下子启动起来。第一个 t u i 就是 在 v p s 部署,所以它是推荐方式,也就是直接在命令行里和它交互,不用开浏览器。 第二个是 web ui, 这是个网页界面,就是启动后用浏览器来操作,看起来更直观。第三个就是不启动之后再说,我们直接选择 web ui, ok, 它让我们运行 dashboard 的 命令来查看这个 web ui 的 服务,我们直接跑一下这个命令, 那由于我们是在服务器上跑 opencloud, 没有 g u i 页面,所以你会看到它让我们在本地使用 s s h 连接服务器内部的一个服务端口,通过这样的方式就可以在我们自己的电脑上访问这个 web ui 控制界面了。我们直接把这一行复制一下, micro s 就 打开 bash item, windows 就 打开 powershell, 然后把这个命令粘贴回车一下,是否继续连接输入 yes, 然后我们输入服务器的密码,回车 密码输入时啥也看不见是正常的,大家只管输入完回车即可,输错了就重新来一遍,只要回车没有报错,那就是成功了。也就在本地电脑和服务器的 opencloud web 服务之间建立了一个隧道连接,然后我们回到服务器终端,我们复制一下这个链接, 打开浏览器,那这样我们在本地电脑浏览器就可以看这个外部 ui 界面了。那需要说明一下,之所以使用隧道的连接方式,是因为这是默认且 opencloud 推荐的方式。当然我们也可以直接将服务器的 opencloud 外部服务暴露在公网上,通过服务器的 ip 或者是绑定域名来访问, 但这样很不安全,如果你需要暴露到公网,那么 opencloud 的 配置力度需要在细上一些,以应对一些安全风险。进入外部 ui 之后,默认就是聊天面板,我们直接发送一个消息, 那如果你的模型配置没有问题,就会收到回复。 ok, 到这里快捷的引导设置就完成了,夹子也算基础部署成功了,后面就是定制化了,接下来我们来配置一下飞书机器人的接入。那首先我们要打开一下飞书开放平台, 这个不需要使用企业飞书,个人飞书也可以点击创建企业自建应用,我们给个名字和描述,然后选一个图标吧。 ok, 创建完了之后,我们就可以看左侧的侧边栏,选中凭证信息,这里的 app id 和 app secret 我 们要复制下来保存好。 ok, 我 们回到服务器的终端面板,输入添加频道的命令,问我们是否配置。是,然后我们选择飞书, 那上面这个是让你重新下载飞出这个插件,但是现在它内部集成了,所以我们直接使用插件路径就可以。 ok, 它让我们填 app secret, 我 们回到飞出平台,复制一下这个 app secret, 回来粘贴回车,然后设 app id, 再复制一下 粘贴回车。连接方式,我们选择默认的 web socket 就 可以,然后非输的域名,那国内的就是 c n 的 后缀。群组的安全配置, 第一个是白名单,只有在白名单内的群组机器人才会回复。第二个是全部打开,机器人被拉进任何一个群组它都可以回复。第三个是直接在群组中借用机器人,那我们选择白名单就可以,由于我们还没有创建群组,我们直接回车就可以,后面有了再添加。 ok, 这样就基本上配置完了,然后我们选择 finish 完成,让我们配置飞书的 dm 策略,选择 yes, 这个策略我们直接全部打开就行,这样最简单。给账户添加显示的名字,然后我们选择 no 就 行,然后给这个账户绑定 agent。 yes, 那 选择 agent 的 时候,它只有一个默认的 man, 我 们回车。 ok, 这样就配置好了,然后再回到飞出控制台,点击权限管理,然后点击批量导入权限,然后粘贴所有权限的 jason, 那 这个大家直接粘贴我提供的这份就好,因为官方文档上面的那份, jason 缺少一个权限,点击下一步确认申请开通,确认 确认, ok, 权限开通好了,我们点击机器人,然后配置一下它的名字, 然后在左侧点击事件与回调,点击这里的订阅方式,然后选择长链接保存。注意这里保存时, opencloud 的 应用程序必须已经配置好了,并且正在运行中才能保存成功。然后我们点击添加事件,直接搜索接收消息,勾选它添加, 然后我们直接点击上方的创建版本,给一个版本号更新说明,也填一下,滑到最底部,点击保存确认, ok, 这个时候我们打开飞书, 那在飞书里面就可以看到一个应用创建成功的推送,我们直接点击打开应用,然后给他发个消息, 当我们收到了回复之后,飞书的渠道配置就已经完成了。 ok, 接下来先不着急,我们先来了解一下 openclaw 的 目录结构。首先你一定要知道一个目录,点 openclaw, 我们使用 cd 命令来进入到 opencloud 的 根目录,然后输入 ls, 看一下根目录下都有什么文件。 opencloud 点 jason, 这是 opencloud 的 主要配置文件,相当于总控面板,大多数的核心设置都在这里,以后也少不了和他打交道。我们刚刚在引导配置中的绝大多数内容最终都落到了这个文件里,那这个文件还有一些,后面带 back, 然后 back 一, 这是配置文件的备份,当我们执行一些修改操作时, opencloud 就 会帮我们把之前的内容存一个备份,避免我们改坏了回不去。 workspace, 它是默认 agent 的 工作区目录,放的是你希望这个 agent 的 长期记住遵守的东西,比如项目文件、说明书、长期规则、人设等等。那 agent 目录, 这是每个 agent 自己的后台数据目录,用来存放这个 agent 的 运行状态、认证配置、绘画记录等内容。官方会把一个 agent 分 成三部分, workspace 用来存放 agent 的 人格以及规则,还有记忆文件。 agent d i r 存放每个 agent 的 状态配置。 session 存的是 agent 的 绘画记录,其中 agent d i r 和 session 最终都会落在这个 agent 下面。那这个目录下面现在只有一个 man, 它是我们在程序安装时的默认 agent, 那 这个名字叫 man 的 agent 对 应的工作区目录就是这个 workspace log 文件夹存的是各类的运行日制,那出问题的时候第一时间看的其实就是这里,尤其是 getaway, skills, hux 相关的错误。 converse, 它是用来规划和编排的临时目录,很多 a 正的框架会把计划任务分解,临时中间产物放在类似的区域,用来支撑一个提示来触发多个模型调用的链路。 on, 它是定时任务与自动化触发的文件夹。 devices, 它是设备与执行环境的抽象层。飞书目录,它存放的就是飞书机器人适配与凭证的相关信息。有这个文件夹是因为我们装了飞书机器人 identity, 它是存放身份与认证的相关目录。 update check, 这是 opencloud 的 更新状态与相关原书记检查的文件。 我们再来看一下 workspace 里面都有啥 agent 点。 md, 这个里面存储的是有哪些代理各自负责什么?相当于岗位的说明书,一个工作规范,也是最重要的一个文件。四五 md, 这里面存放的是瞎子的灵魂设定 u 字。 md, 它存的是你是谁,你的偏好和禁忌,相当于用户画像 tosh。 md, 存放的是它能用哪些工具,怎么用?边界是什么?相当于工具清单。 heartbeat, 这里面存放的是一个自检和状态汇报规则,俗称心跳机制文件,比如启动后该检查什么,多久报一次状态。 bloodstream, 它是冷启动时先读的初步化说明,那我们现在还是一个空的 agent, 还没有产生记忆,如果产生了绘画记忆,这个下面还会有一个 memory 文件夹,文件夹下存放的是年月日点。 md 文件,作为我们每天聊天的记忆存放,那还会有一个 memory 点 md, 存放的是稳定的长期记忆, ok。 在 了解了 opencloud 的 目录结构之后,我们想一个问题,你需要几个 agent 帮你处理事情?一个够吗?可以这么说,如果你觉得够,那 opencloud 对 你来说可能未必是最合适的选择。 用 opencloud 的 可玩性建立在多个 agent 的 分工和协助上。如果只有一个 agent, 你 又希望他同时处理很多不同类型的事情,问题很快就会出现,他的上下文会不断被污染,人设会越来越混乱,记忆也会越积越多,滔滔消耗更是会不断飙升。 更麻烦的是,旧任务留下来的对话和上下文,还会持续干扰他对新任务的判断。所以接下来我们要处理的是多个机器人,多个 agent, 一个 agent 只专注一类事,那既然我们要做多 agent, 每个机器人都是不同的打工人, 所以接下来我们要新创建一个 agent, 我 们输入命令来添加一个新的 agent, 后面的 bot 一 agent 就是 我们给这个新的 agent 的 命名,我这个命名比较随意,如果大家有明确的想法,比如这个 agent 是 做什么的,最好语义化命名,不要用中文回车。 然后它让我们输入这个 agent 的 工作区目录,这里它会给一个默认的,当然我们也可以直接把它设置成 workspace, 这样的话和之前那个工作区就在一个目录下,那两个 agent 就 会共用一个工作区。但是我不太建议这样做, 直接回车就好,你会发现它默认在点 opencloud 目录下给了 workspace bot 一 agent 这样一个目录当工作区。结合我们之前介绍过跟目录下还有一个 workspace 工作区。 现在你回过头来理解, workspace 目录其实就是名字为 man 的 这个默认的 agent 工作区目录。那我们现在新创建了一个 agent, 这个目录就是我们新创建这个 agent 工作区目录,然后我们配置模型选择 yes, 那这个大家应该就比较熟悉了,之前引导配置中第一个机器人瞎子我们已经配置了自定义的 provider, 那 这次就换一个官方的吧,具体看你买了哪家。 我其实哪家都有,但是这里选中 mini max 的 速度比较快,所以这里选中 mini max。 mini max 前两天更新了一部,如果使用它官方渠道作为提供商时, opencloud 以内置工具会自动连接到 mini max 的 vl m api 端点,不需要额外配置。 当我们向机器人发送图片的时候,他就会使用这个工具来理解图片内容,也就是自动连接 v r m api 端点来做图片多模态处理,这点还挺方便的。我们选中 office 授权登录,然后选择 c n, 复制一下这个链接,在浏览器打开,然后授 权好了,然后他问我们还没有创建第二个机器人,所以这里先选择 no, 一会创建完第二个机器人,再把它和这个 agent 绑定, ok, 这样就创建好了一个新的 agent。 我 们再来看一下 agent 目录下面都有啥,可以看到多了一个 bot 一 agent, 然后我们也可以跑一下命令,看一下 agent 列表, 看到有两个 agent, 工作区路径也没问题,这就 ok 了。接下来我们来创建第二个飞书机器人,之前我们已经添加了一个机器人,它挂载的是默认账户,默认 agent, 也就是问这个 agent。 我 们回到飞书开放平台,创建第二个机器人,还是同样的操作, 点击创建企业自建应用名字,我们叫瞎子一号, 然后点到应用凭证,再次回到服务器面板,我们需要来配置第二个飞书机器人账号,那这个配置有点特殊,目前需要单独来改配置文件,没有办法通过命令集成,不过这个官方 e c u 已经提到了,估计很快就会得到优化。我们来看一下配置文件中目前的飞书配置是啥样。输入 cat, 这个就是目前的飞书机器人配置,它只配置了一个账号,我们可以直接在服务器上改这个配置文件。当然也可以简单一点,我们回到它这个 web ui 里面, 直接发送给 opencloud 一 段提示词,我让它根据官方的飞书配置文档帮我配置第二个飞书机器人,然后把 app id, app secret 填进去回车。 ok, 他 说配置好了,让我们重启一下,我们复制命令重启一下,再来看一下这个配置文件。 ok, 这就配置好了。那这里需要注意的是,我敢让他动配置文件,是因为我知道官方文档有这么个配置参考, 也知道他要改的是什么东西,我才会放手让他改。如果你不知道怎么改,直接让瞎子给你改配置,那就把你的 open class 系统生杀大权交给了大模型,你的大模型优质的话,能解锁到相关的信息去修改还好,如果大模型不太行,一旦出现了幻觉,那记记你会更难受,所以还是要尽量避免这种行为。接下来我们回到飞出开放平台,继续之前的操作, 点击权限管理,批量导入,粘贴一下,这个跟之前还是一样的,确认申请开通确认确认,然后点击机器人配置名称, 点击事件已回调订阅方式保存。哎,怎么不对?我们来看一下这个配置哦,这怎么写了两份?这个也是写了两份,我们回过头来看一下给他发的消息, 哦,这里发错了,再来复制一下,这里 app id 和 app security 写错了,给你修改一下。 ok, 这回改对了,刚刚那个给他发的提示词里面的 app id 和 apprecate 写错了,我们再回来点下保存。嗯,这次就可以了,刚好演示了一下,如果配错了,这里保存保存不成功,然后点击添加事件接收消息,勾选添加 创建版本,给一个版本号保存发布。 ok, 看一下有没有推送,打开应用,让我们给他发个消息。 ok, 收到回复之后我们就配置完成了,但是这个时候其实我们还没有给这个机器人绑定之前新建的 agent, 我 们可以通过命令来看一下当前 agent 的 绑定关系。 哎,你看我们新创建的瞎子一账号,其实默认绑定在了 man 这个 agent 下面,那目前这两个机器人其实用的是一个 agent, 我 们可以直接修改这个 agent id 的 名字,那这次我们在 yui 里面修改, 我们在这个 dashboard 里面找到 config, 然后点击 ro, 那 现在这份文件其实就是我们的配置文件,我们拖到最底下,找到这个飞书的配置,这是我们刚刚看的飞书的配置,我们找一下 b 的, 对,就这里我们把虾子一这个 agent id 改成我们刚刚创建的新的 agent 名字。 bot 一 agent 修改好了之后,我们直接点击保存更新, ok, 当它断掉,那就是证明已经重启了, 那等它恢复了之后就重启好了。我们直接回到飞书这里,给虾子一号发送一下,问他一下是哪个 agent, ok, 它已经切换到新的 agent 上了,那到这里我们的多 agent 多机器人账户就配置好了。接下来我们来创建一个飞书群组, 填上名字,飞书群组一个人也可以创建群聊,我们直接点击创建,必须得群组创建好了之后,我们才能邀请机器人进来,点击右上角选择设置,点击群,机器人添加, 选中瞎字添加, ok, 这样群组就创建好了。那由于我们之前设置了白名单,只有在白名单内的群组机器人才会回复,我们现在在群组里面给他发消息,他是不会回的,所以我们要先获取飞书群的 id, 那 获取的方法也很简单,我们回到服务器这里 输入 openclogs 转杠 follow 回车。这个命令是实时查看服务器网址,我们打开网址之后,在飞书群里面圈一下机器人,发一个消息。 ok, 这就可以看到这有一个 group, 后面这个 o c 开头的就是它的群组 id, 我 们复制一下, ctrl c 关掉它,还是直接在外部 ui 里面直接给它发消息,让它去改回车。当然我们也可以直接在飞书给机器人发消息也行。 ok, 已经改好了,我们直接让它重启,当看到它断了,那就是开始重启了。 ok, 恢复了,那就重启好了,我们再回到飞出这里再圈一下它,因为我们设置的是只有圈它,它才会回复 这个图标,代表它已经在输入了。 ok, 这就好了,那这样的话群组就搞好了。这里要特别提醒一下,不要轻易被网上那种一个群里面塞满不同角色机器人组成一个所谓的 team, 大家自己讨论自己工作的演示带偏了,那都是博眼球。绝大多数情况下并不是一个合理的生产实践, 因为在多 a 阵的多角色的设定下,每个机器人本质上都对应一个明确的角色和职责边界。如果你把多个角色的机器人同时拉进一个群里面,让他们同时面对同一批消息,那系统很快就会变得混乱。相对还算勉强可控的一种方式是通过艾特提及的方式来明确指定某个机器人角色回应, 也就是说,只有你明确艾特到哪个机器人,哪个机器人再出来处理。如果不是通过艾特提及,而是群里随便发一条消息,多个机器人都可能响应,那就必须额外做非常严格的路由控制。比如你至少要配置成只有某个特定用户 id 发出的消息,才有某个对应的机器人处理。 但即便如此,我仍然不建议让多个 a 证的机器人同时处理同一条消息并分别回应。因为你一旦这样做,整个系统基本上就会进入一种自由混战的状态,看起来好像很智能、很热闹,实际上很多时候只是无意义的多轮响应和无休止的 talk 消耗。更关键的是,这种模式并不真正符合大多数真实的工作组织方式。 现实里的工作流往往不是让一群角色同时对一个输入各说各话,而是有明确分工、明确入口以及明确的责任边界。哪怕你已经做了限制,比如让机器人只回复某个特定 id 的 消息,这种方案本身也不算理想, 因为很多人类的工作流并不是完全串行的,消息和任务经常会交错出现。一旦多个角色长期混在同一个上下文里,非常容易出现上下文混淆、职责边界模糊、记忆污染等问题。所以更合适也更常见的做法其实是下面这几种,一个机器人对应一个 agent, 一个群组对应一个专用的 agent 机器人, 或者一个主机器人作为一个统一入口,背后有多个专职的 a 政在后台分工协助。这几种方案虽然没有多机器人同群互聊那么有观赏性,但从稳定性、可维护性、上下文控制以及 top 成本来看都会更合理。 当然再往后走,如果你真的想做成多 a 政的协同,那就已经不是简单把几个机器人拉进同一个群里面这么粗暴了,而是需要更高级的路由编排和协助策略。这个话题可以单独展开讲,后面有时间的话可以再开一下 a 政的协同的内容,这里我们就先不展开了。 那到这里,我们其实已经有了两个彼此独立的 agent, 也分别绑好了对应的机器人频道,但目前为止我们还没有给他们做任何的功能增强,也没有给每个 agent 配置各自的身份信息、角色设定 和风格。所以现在这两个 agent 还是两个空壳子,虽然他们已经能独立运行,但是还没有真正形成差异化。那接下来我们就要先给这两个 agent 分 别配置不同的信息和性格, 他们真正区分开来。其实我们前面已经讲过,工作区里的那些文件分别对应着什么作用,我们完全可以直接手动去修改这些文件,给 agent 写入不同的设定,但是这种一方面比较繁琐,另一方面不太直观,所以这里我们换一种方便的方式来做。我们直接打开外部 ui, 那 这个是闷塞审,也就是瞎子那个机器人, 我们直接给他发送一个提示词,你是瞎子,一个赛博打工人,巴拉巴拉一堆,然后我们让他自行优化,并且拆分提示词,将这些提示信息分别写入下面的文件里面。回车, ok, 可以 看到它已经帮我们修改好了,这里它问我们要不要把 bootstrap 删掉,这个文件我们之前有介绍过,它只有在输入话的时候会读,删不删都无所谓。那我们直接在面板里面来看一下这几个文件,点击 agent, 然后点击 men, 然后点到 feel 看一下。哎,你看这里面它的灵魂设定已经帮我们写进去了。再来看一下 user, 可以 看到我的名字也写进去了, agents 点 md 这个文件大家有空的时候可以好好看一下,因为整个 agent 的 运行机制其实大概就写在这里, tools 身份 memory ok, 我 们回到飞书给瞎子发一下你是谁, ok, 这就已经配置好了。那现在我们就给瞎子配置了一些基础信息,我是谁,他是谁,他的性格等等等等, 都是些基础信息,也比较简单,大家可以顺着这个思路自由配置。那另外一个 agent 配置起来就简单很多了,也是一样的流程,这里就不赘述了,大家可以给不同的信息自己玩一下。那接下来我们给 agent 做一些基础能力扩展。首先是浏览器操作,那如果我们有 g y 面板 这块就会简单很多,但是由于我们使用的是无 g y 面板的无斑图系统,所以要稍微麻烦一点,我们需要先手动安装一下浏览器,虽然也可以让 opencloud agent 帮我们安装,但不建议这样做,因为需要给它开额外的高级权限才行。那首先我们需要安装一个 chromeem, chromeem 是 谷歌自己家的正式浏览器, 而 chromeem 是 chromeem 浏览器的上游开源版本。那这里需要注意的是, nipp 版本的自身的沙箱机制会产生冲突,导致 c d p 无法正常启动, 所以官方推荐使用 chrome 的 d e b 包,这是专门给得遍或者是无斑图这类 linux 系统用的安装包。首先我们来执行安装 c d p 连接,就是程序通过 chrome 的 devtools protocol 去远程控制浏览器的连接。 playrite 是 python 的 一个浏览器自动化框架,当我们安装浏览器后, open color 会负责浏览器的接入配置和路由, playrite 负责执行很多具体的自动化动作,而底层的浏览器通信协议走的是 c d p, 这样就形成了 linux 系统上的浏览器自动化。 ok, 下载好之后,我们还需要执行安装 那由于我们使用的是 d e b 的 方式安装的浏览器,这种方式还会缺少一些依赖,所以我们还需要让 app 自动把上一步安装 chrome 时缺失的依赖补齐,并且把包的状态修复到正常状态。我们输入命令回车, ok, 一 切就绪之后,我们输入命令来验证一下浏览器的安装路径,然后检查一下它的版本, 这里输出了目录,并且成功输出了版本号,就安装成功了。然后我们输入命令来验证一下无沙箱无头模式下的 c d p 连接。 ok, 只要出现这个幺二七的监听链接就可以了。下面无关紧要的一些报错,比如 g u i 内部的一些注册服务错误可以忽略, ctrl c 退出, ok, 我 们开始配置 openclaw 使用浏览器。这里我们选择的是命令行配置,那最终也会落在配置文件里,我们直接改配置文件也行。首先我们需要启用浏览器能力, 然后配置一下浏览器的路径,那由于我们用的 vps 没有图形界面,所以我们还需要开启无头模式,还需要关闭沙箱来规避 linux 类服务器或者是容器环境下的权限与隔离限制问题。 最后我们还需要指定一下浏览器的 profile。 ok, 这些都执行完,重启一下 get 位, 重启完成之后,我们打开 web ui, 我 们来看一下这个配置落到配置文件里面是什么样子,就是这段配置。 ok, 我 们来测试一下浏览器输入命令,启动一个浏览器实力, 启动成功之后,我们让它打开一个网页,打开之后我们来抓一下这个页面的快照, ok, 拿到结果就没问题了,我们也可以尝试抓一下这个页面的截图, ok, 如果能拿到快照或者是成功截图,说明整个浏览器的渲染页面打开控制链路基本上都是正常的。那现在就可以在飞书里面给机器人发消息,让他截个图试试了。让虾子一号处理吧,虾子一号用的 mini max, 速度比较快, ok, 给了我们截图,那就是成功了。接下来我们来处理联网搜索。 openclaw 有 两个内置的搜索和爬取的 tools, 分 别是 websearch 和 webflash, webflash 负责实时搜索网络内容, webflash 负责爬取某个网站的信息, 这两个 tools 组合起来就构建了一个实时网络剪索的能力。但是由于 openclaw 内置的 websearch rely brave, 这是一个三方的搜索引擎,如果我们要使用的话,需要额外配置 brave 的 api, 这个是收费的,所以目前联网搜索是用不了的,那我们的代替方案就是使用其他的 search 服务来代替内置的 web search。 这里推荐两个 skills 来配合完成这件事。首先是 tabule 这个 skill, tabule 同样是一个三方的商业搜索引擎,但好在它每个月有免费搜索一千次的额度,所以我们可以放心使用。我们可以直接打开 tabule 的 官网, 然后注册就可以拿到一个 api k 复制下来就可以了。还有一个是 multi search, 这是一个集成了多个搜索引擎的免费搜索服务, 如果它 webster search 的 服务不够用,或者搜索结果少的情况下,我们可以使用 multi search n 这个搜索服务来都抵。这两个 skill 组合起来代替内置的 webster, 安装方式也比较简单,我们可以直接发送提示词给瞎子, 我们让它根据文档自己去安装,安装完成之后在 toast 文件里面明确声明 webster 能力的 skill 使用,最后把内置的 webster 能力给禁用掉。 ok, 我 们来看一下 toast 文件, 哎,可以看到它帮我们把这个搜索策略写到了这个 tos 文件里。装好之后我们测试一下,可以看到这里它已经调用了它为设置这个 skill。 那 如果你不想装两个 skill, 并且想要在企业里部署无限使用 web 搜索能力的话,还有一种方案是在一个服务器上自己部署一个 z r x n g 服务,这是一个开源的原搜索引擎服务,聚合了多个搜索引擎的搜索结果。 安装好之后就可以在 opencloud 安装一个 c r x n g skill 来进行搜索服务的本地调用,可以返回结构化的搜索结果,那 像一些三方的收费搜索引擎,会随着你的搜索偏好提供一个个性化的搜索结果。但 c r x n g 这种则是不关心你搜什么,只通过你的搜索内容拿到各个搜索引擎的结果,打分排序,完全隐私,是一个不错的免费搜索方案。如果你想做任何 agent 缺乏 web search 的 能力,都可以使用它。 ok skills 技能,这是 openclaw 能力的核心。通过上一爬联网搜索,我们可以看出,我们需要通过一个个 skill 来扩展 openclaw 的 能力。 那社区上有上万个开源的 skill 让我们集成。我们可以通过 openclaw 官方的 cloudhub 平台去查找对应的 skills, 也可以通过 github 的 awesome openclaw skill 仓库去查找想要使用的技能。 比如你在做一个企业级的 open class 系统,并且企业委托于飞书办公,那么你就可以搜索飞书相关的 skills, 读写飞书文档,操作多余表格,以及处理一系列飞书的自动化功能。你要是想赛博炒股,就搜索金融相关的 skill 去装。要是想让虾子去写代码,那就搜 coding 相关的 skill, 根据自己的需求去装就可以。我给大家推荐一个比较核心也比较通用的技能, self improving agent。 这个 skill 翻译过来叫自我提升,它的核心不是让模型自己训练自己,而是让 agent 在 运行过程中把错误纠正、知识缺口、功能需求结构化写入 markdown, 再把那些反复验证有效的经验进一步提炼成长期可付用的工作规则。它主要解决的是一个非常现实的问题,很多 agent 在 使用过程中都会不断犯错,有的是命令执行失败,有的是工具调用翻车,有的是知识过时了, 还有的是被用户指出你这种做法不对。如果这些问题每次都是当场改正一下就结束了,那这个 agent 本质上没有真正成长,下一次遇到类似的情况,他大概率还会踩一遍同样的坑。而这个 skill 做的事情就是把这些当场修正变成长期记忆。他的 skill 点 m d 里面写的非常明确,典型的触发场景包括命令或操作失败。用户纠正 agent, 用户提出当前做不到的新能力。外部 a p i 或工具调用失败。 agent 呢?发现自己的知识已经过时,或者在重复性工作里发现了更好的做法,所以它本质上不是在增强模型参数,而是在给 agent 增加一层失败记录,加上经验累积,加上晋升规则的机制。 会先在工作区里面建立一个 learnings 目录,把经验分别记录到三个文件里。 learnings md 记录更正知识缺口和最佳实践。 arrows 记录命令失败和异常。 future request 记录用户请求的功能。他会先把这些经验沉淀成可追踪、可复查、可累积的外部记忆, 然后再进一步把那些已经反复验证确实有效的经验提升到更长期的工作区规划文件里。比如行为模式可以提升到 so 点 md 里,工作流经验可以提升到 agents 点 md 里, 工具使用规则则可以提升到 twos 点 m d 里。写进 linux 目录只是临时记录下来,而提升到这些长期文件之后,才意味着这些经验会在后续的绘画中真正参与上下文变成 agent 的 稳定行为规则。那为什么我会觉得它很核心?因为它其实已经碰到了一件更庞大的事情,那就是怎么管理 agent 的 记忆 memory。 不管你是做个人助手、做工作流 a 证的,还是做多 a 证的协助,如何把错误纠正经验沉淀下来几乎是绕不过去的一件事情。而这个 skill 恰好提供了一套非常朴素但却非常实用的解决思路,它可以为我们后续的记忆治理埋下影子。那安装方式和之前一样,是复制一下这个链接,让 openclaw 自己安装即可,我们就不做演示了。 我们前面提到过, open klo 官方的 memory 记忆整体是偏轻量化的,真正的记忆载体始终是工作区里面的 markdown 文件。也就是说,不管你后续接不接数据库,开不开向量剪索, memory 最终落地的地方依旧是这些文件本身。 默认情况下, open klo 会把这些记忆写到工作区的 memory 目录下面,以年月日这样的方式去存储长期记忆则是沉淀在 memory 点 m d 里。 那官方其实也支持接入 sqlite、 list db 以及像 qmd 这样的增强型解锁后端,但这里一定要注意,它们都不是用来代替 markdown 的, 更多的是承担锁影、解锁、召回这一层的工作。所以你可以简单地把它们理解成三类角色, sqlite 更偏默认的清量级锁影以及状态存储。 list db 更偏向量解锁和羽翼召回。 q m d 则是在解锁层更进一步增强的一种混合解锁方案,它会把 b m 二五向量搜索和 ranking 组合起来,尽可能地把记忆找得更准。所以 markdown 是 记忆本质, circle、 拉斯 d b q m d 这些本质上都是解锁层能力。 也正是因为如此, opencloud 官方的方案优点非常明显,简单、透明、可控。但它的短板也同样清晰,那就是它更像一个基础可用的记忆底座,而不是一套完善成熟的记忆治理系统。在默认方案下,记忆的长期维护更多依赖于 markdown 的 持续写入。 而向量解锁、自动召回、 embedding 配置,这些能力需要额外配置之后才能真正发挥作用。并且就目前来说, opencloud 内置的向量解锁能力本身也有一定的限制,比如它依赖外部大模型 api 提供的 embedding 能力,目前只能配置 openai 和 jimmy。 很多国内用户其实并没有把这条链路真正接起来,而一旦没有接起来, memory 虽然还能工作,但就会退回到最基础的文件读写模式,那这个时候,系统依然会把内容写进 memory 文件夹下的年月日文件作为日常记忆, memory 点 m d 作为长期记忆, 这些文件照样存在,照样可写。只是因为没有 byte 模型,系统无法进行基于向量的语义剪辑和相似召回,更多只能依赖内置的 memory get 这类定向读取具体文件或指定范围内容的方式来获取记忆。换句话说,系统这时仍然能记,但不太会找。 而一旦没有比较强的剪辑能力,问题就会慢慢出现。记忆文件会越积越长,历史内容会越来越多,上下文 tock 消耗也会越来越快,用得越久,你越觉得 agent 变笨了。 因为大模型本身的上下文窗口是固定的,而 memory 如果只是不断累积,没有智力,最终就会从资产变成负的。而关键的是,在这种基础方向里,我们通常没有真正意义上的清洗、压缩、分层、失效和冲突消解机制。记忆会不断累积,但缺乏有效智力。时间一长,优化 memory 几乎成为一个必然需求。 但这件事情也不能一概而论, memory 策略没有绝对最优,只有是否适合当前场景。本地部署更关注隐私可控和低成本, 那云部署更看重接入速度和跨端统一。个人助手则更强调个性化与长期偏好。记忆团队 agent 或者是多 agent 协助,他会更看重权限隔离。项目级上下文既污染控制以及整体的可维护性。也正因为侧重点不同,不同场景下适合的 memory 方案往往也并不相同, 所以到目前为止,这个方向其实并没有一个统一稳定、所有人都认可的标准答案。大多数时候,大家还是需要根据自己的需求、资源条件和技术能力去做适合自己的取舍。 homecloud 的 记忆增强大体可以分成两层,第一层是剪缩增强,也就是让 agent 更容易找到相关的记忆。这部分典型代表就是官方默认的 sqlite 剪缩、可选的 sqlite 向量剪缩以及进一步增强的 qmd 混合剪缩。 那这其中 sqlite 更适合轻量级默认可用的本地锁影场景。 sql 更适合做 in binding、 向量存储和域域召回。 qmd 则是更强的混合剪缩方案,它通常以本地 start 进程执行,再把结果交给大模型做 ranking, 也就是二次重排。这里的大模型 random 可以 把它理解成前面,尽量多召回一些可能相关的内容,后面再让大模型重新判断哪几条和当前问题最相关,把它们排到更前面。 所以 qmd 的 价值主要体现在,当记忆很多,认知很多、表述又不统一的时候,它能明显提升召回精度和解锁质量。但也要明确一点, qmd 解决的是怎么找的更准的问题,不是怎么把记忆管理的更好的问题, 也就说它的强化是剪缩层,而不是记忆治理层。如果底层还是无组织的 markdown 文件,那么事实变了,依然可能直接覆盖知识写进去了,也未必经过结构化整理。那长期下来,知识是否真正能沉淀成稳定可赋用的 memory 资产, 是取决于你上层怎么治理。第二层才是记忆治理增强,也就是在能找到的基础上,进一步解决怎么记记什么、怎么压缩、怎么氧化、怎么避免污染这些问题。这部分常见的思路大体可以分成几类,第一类,单文件增强。最直观的方式就是通过各种策略,把重要的信息都不断追加到 memory 点 m d 里。 这种方案的优点非常明显,简单直接,几乎没有额外的系统复杂度。你不需要引入新的数据库、解锁服务或者是后台进程,只需要让模型持续地往 memory 点 m d 里面写就行。但问题也同样明显,随着时间的推移, memory 点 m d 会越来越长,文件不断膨胀,信息密度也越来越低,查找的效率也会越来越差。 第二类,自动记忆管理。那第二种思路是做一套自动记忆管理机制,比如通过定时任务,每隔一次 session transcript 自动提取大模型认为重要的记忆内容, 然后按天进行定时压缩归档,持续维护到 memory 点 m d, 减少人工的干预。那这种方案比起单纯追加文件更进一步,因为它开始尝试怎么解决记忆越来越多怎么办的问题,而不是让系统能记住,还开始试图让系统自动整理记忆。但 这套方案的问题在于,我们其实很难知道它到底记住了什么,以及为什么记住这些内容。因为重要这件事本身是由大模型来判断的,而大模型判断的重要性未必和人真正关心的重要性一致, 哪些该保留,哪些该忽略,很多时候并不好对齐。那另外,这类方案常见的时间线压缩方式,比如按天、按周去归等,虽然可以控制体积,但也会带来另外一个问题,事实变化的历史容易被抹平。 举个例子,一个项目原本是进行中,后来变成已完成,在压缩归档之后,旧的状态可能直接被覆盖掉。最后你看到的是一个更新后的结论,但中间是怎么变化过来的?这段过程信息可能已经丢了。第三类是日制流加上剪索增强。那第三种思路是依赖每日的日制,再加上 memory search, 然后再配合更强的剪索后端来工作。 这种做法的核心很简单,每天持续的写日制,把记忆沉淀在日制流里,真正需要的时候,再通过 memory search 去做剪索,把相关内容找出来。 如果只是默认解锁,这更像一种可搜索的流水账。但如果配上 l s d b 或 q m d, 体验会好很多,因为搜索会更准,召回也会更稳定。它的优点是实现简单,维护成本低,几乎不需要额外的治理策略。 你只需要保证日制的持续写入解锁链路就能跑起来,整个系统就能工作。但它的问题在于,这依然不是一个真正结构化的埋木尔系统。随着日制的不断累积,搜索结果里的噪音会越来越多,相关性也会越来越不稳定。 同一个事实可能分散在几十个不同日期的日制文件中,模型每次都要从这些零散的片段里面重新拼装上下文,这样既浪费 talkin, 也难以形成稳定的知识沉淀。所以这种方案虽然能用,但更适合清亮场景,不太适合长期高密度、需要持续服用的知识系统。 那第四类是外接完整的记忆系统,那再往上走,就是把 open cloud memory 增强做成一个独立的系统,或者直接接入第三方平台。最省事的一类做法就是直接集成第三方平台提供的商业 memory 方案,比如 my machine、 open cloud super memory 这类项目, 本质上就是把 memory 的 存储、召回、管理这些能力外包出去。他们的优点是接入快,上手简单,但代价通常是依赖外部平台,灵活性和口控性相对有限。而如果不走商业平台路线,社区里也有一些重型的增强方案, 比如结构化抽取、分层记忆、长期生命周期管理,甚至是主动式记忆系统。这类方案的能力更强,但接入和维护成本也更高,更适合那些已经明确要把 openclaw 做成长期运行的 a 政策系统的人。比如 memory labs db pro 这个项目就很不错,大家有兴趣的话可以去尝试一下。那如果有更好的方案,也可以评论去分享一下。 ok? 在 了解了概念之后,我们应该怎么处理自己的 openclaw 的 时候,其实并不清楚自己真正需要的是什么, 你是想做一个本地的个人助手,还是想做一个长期运行的 agent? 你 更在意隐私成本还是召回效果进行上线?这些问题如果一开始都没有想清楚,那你过早的去折腾 memory, 最后大概率只是在增加记忆系统的复杂度。 所以在这个阶段,你只需要先意识到 memory 确实是个问题,但不用着急,现在就把它彻底解决。对大多数人来说,先用 opencloud 默认的 markdown 策略做基础处理其实就已经够了,先跑起来,先用起来, 先观察自己的实际使用过程中到底会遇到什么样的问题,这是比一上来就追求高级记忆架构更重要的事情。等到什么时候,你真正开始觉得你的瞎子变傻了,记不住了,照回不准了,上下文越来越贵了,那时候再回来处理这个问题反而是更合理的。 因为这个阶段你已经不是在想象问题,而是在面对真实问题。你会更清楚自己到底缺的是更强的解锁能力,更好的记忆治理,更低的 top 肯消耗,还是多 agent 多场景下的隔离能力。 到了那个时候,你再根据自己的需求,参考前面提到的几类思路,去找到对应的开源项目,逐步尝试优化和治理自己的 memory 系统,会更具针对性。这其实是一个很正常的学习路径,先用默认方案建立认知,再在真实问题里逐步升级,而不是一开始就试图设计出一个完美的记忆系统。 而且说实话,现在这个阶段想一开始就把 open cloud memory 做的非常完善,本身也不太现实。因为目前不管是官方方案还是社区里的各种增强路线,都谈不上稳定统一,没有明显的缺陷。 到目前为止,我还没有看到一个真正能够让所有场景都满意的通用优质方案。很多方案都能解决一部分问题,但同时也会带来新的成本和新的复杂度。所以与其一开始就幻想把这件事一次做对,不如接受一个更现实的结论,慢慢也是一个随着使用过程逐步治理的问题,而不是安装 open class 就 能彻底定型的问题。 当然,从更底层的角度来讲,哪怕你把 mac 策略设计的再漂亮,也依然避不开一个根本限制。大模型的上下文长度始终是硬约束。也就是说,很多所谓的记忆增强,本质上都是在有限的上下文窗口里,尽量让系统记得更准一点,找的更快一点,浪费的更少一点。它能改善体验,但是很难彻底消灭限制本身。 ok? 朋友们,如果你看到这里还没有放弃,那么看起来你是想认真玩一下 opencloud, 那 这种情况下,每个工作区的备份将必不可少。这是为了防止你悉心呵护的瞎子突然发疯干掉了自己,或者是某些改动不想要了,你想回滚? ok, 备份的方案也很简单,走 github 备份。首先为了安全,无论你有没有 github 账号,我都建议大家注册一个新的 github 账号。我们直接打开 github, 点 com, 然后点击注册一个新的账号,这个流程比较简单,我就不说了。那账号注册好之后,我们就可以回到这台服务器的终端操作面板,运行一行命令来生成这台机器的 s s h k, 注意这里的邮箱要换成自己 get up 的 邮箱,一路回车就行。 ok, 运行命令,我们查看一下公告内容,我们先把输出的这行公告全部复制下来, 然后回到 gethelp, 点击右上角的头像,点击 settings, 然后在左侧选中 ssh, 点击新增一个 sshk, 粘贴进去,给一个名字创建。 配置好了之后,我们点击 github 导航栏右侧的加号,选择创建一个新的存储库,那这个仓库其实就对应了一个工作区,所以这个名字我们以工作区名命名。那前面的 r n 三是我这台服务器的缩写,因为我在多台服务器部署了 opencloud, 加上服务器代号更清晰一点。后面的 man work space 代表默认的 agent 工作区, 当然你想叫啥都行,但是我建议有意义一点,不然后面工作区搞多了不好找。还需要注意的一点是,我们这里要选择私有, 这样你的这个项目就只有你私人可见了。点击创建,这是一个空的项目,创建完成之后就会自动跳转到项目页面,我们切换到 s s h, 然后把这个仓库地址复制一下,当然下面这个绑定以及推送的命令我们也复制一下,后面会有用。然后我们回到这台服务器的终端控制面板,来配置一下全区的 get 用户名和邮箱。 配置用户名配置邮箱,注意这里的用户名就写 github 注册的账户名,邮箱就写 github 的 账户邮箱即可。配置完成之后,我们输入命令检查一下, 那这样就配置好了,我们直接回到 web ui, 给瞎子发一条消息,让它绑定并且推送。注意一定要选择 men 这个 agent, 因为我们目前配置的是 men 这个 agent 的 工作区备份,直接输入提示词,那这里的命令就是我们刚刚在 gitup 复制的命令。直接回车, ok, 这样就已经推送好了。我们回到 github 刷新一下页面, ok, 可以 看到工作区已经同步过来了,我们还需要给工作区配置一下,让它每轮修改后都提交代码并推送远程。像这样的固定流程,可以直接加到 agent 点 m d 文件中,那如果你不会写,也不知道要加到哪个文件里,你就可以这样问,直接给瞎子发送一段提示词回车, ok, 等它执行完提示词,就帮我们追加到了 agent 点 m d 文件里,那由于改了文件,这次变更它依然会帮我们提交到 git 仓库,到这里我们的工作区备份就做好了。后续如果你的工作区被删除干净了,或者需要迁移, 直接把仓库地址给到 opencloud, 让它恢复就好。 opencloud 的 每个 agent 执行过程中的持久化产物都会放在工作区,所以你可以随时在 github 仓库在线查看你的工作区文件内容, 甚至也可以直接在 github 在 线修改你的工作区文件,然后提交,那提交后给 opencloud 对 应的 agent 发消息,让他拉取一下最新代码,就可以直接应用了。修改工作区文件是不需要重启网关的,那我们有几个工作区就创建几个仓库即可,这里我就不重复了。工作区的这份 agents 的 md 文件建议大家有时间的话,就一定要看看 大家在安装的过程中有什么问题,或者是有什么花里胡哨的报错,可以直接发送给 ai 去问。我们实操的过程中,你会发现,有些是去服务器中的面板自己操作指令,有些时候也会在 opencloud 的 机器人聊天窗口上的操作。那为什么不全都让 opencloud 自己运行安装或者修改配置呢?原因有几点, 第一,有些命令他自己也跑不了,权限太高也不安全。第二,他的系统提示词太长,执行起来有点慢,还不如问外部的 ai, 然后自己去执行,更速度一点。 三、我们在做的是一个高度自制的 a 证的系统,如果我们完全不熟悉,是玩不起来这个 a 证的系统的。所以这个边界在哪儿?我的看法是涉及到一些 skill 安装或者是工作区目录下的内容,编辑可以给到 opencloud 去做,但涉及到系统层面的,哪怕可以让 opencloud 去改, 你也得知道它具体是改了啥,不然挂了你都不知道怎么解决。还有一个操作是直接在服务器上安装一个 cloudcode, 让 cloudcode 作为外部 ai 工具介入去修改配置文件,降低我们的操作复杂度,甚至可以创建一个专门用于编程的 opencloud 机器人, 但让这个机器人操作 cloud code 去完成编程任务,而不是他自己去完成编程任务。因为 cloud code 是 一个干净稳定的 ai 编程 agent, 是 一个非常优秀的 ai 编程产品。 ok, 本期视频到这里就结束了,真的是啰嗦了太多东西,原本我是不想录这期视频的,虽然我也是一直在有用 open cloud, 但由于上不了生产,对我来说它更像是一个学习样本,一个玩具, 互联网真的把它吹的天花乱坠。那最近估计你又会看到大量的第一批跟风体验 open club 的 人的反馈,一定有很多人态度转变,开始吐槽他,真的是很无语。所以大家要理性看待这件事情。 ok, 感谢大家的观看,相关的文档可以在评论区或者是私信找我要。那觉得不错可以参联。谢谢大家,下期再见。

今天花两分钟啊,给你们讲透一下最近圈内很火的 openclo 龙虾 ai, 它究竟是什么东西,能帮我们干什么?以及对我们普通人、创业者或者是学生党带来什么样的重要影响。 国内的大厂呢?又是怎么布局的?最后呢,我会在结尾告诉大家怎么从零部署这个龙虾 a i。 先一句话说清啊, open core 呢,它不是真龙虾,也不是一个只会聊天的 ai, 它是一个真正能够操控你电脑,帮你干脏活累活的开源本地智能体。 因为图标是个红色的小龙虾,所以大家都亲切的叫它龙虾 a i, 它和 trap, gvt、 千问豆包这些最大的区别就是别的 ai 呢,它只会给你出方案, 但是龙虾 ai 他 是真的能够帮你把这个事情干起来。我举个最直接的例子就是你跟 ai 说帮我收拾一下乱七八糟的桌面, 他只会给你第一步,第二步,第三步,怎么做这样子。但是呢,你跟龙虾 ai 去说这句话呢,他会真的当着你的面先创建文件夹,然后把你这些需要整理的文件放在一个一个文件夹里面, 全程呢都不需要你动一下鼠标。再比如就是,如果你想去发邮箱,或者是汇总你的以下表格,或者是你每天的一些财报, 排查一些呃,最近的爆款文案,发朋友圈,监控数据,所有的东西他都可以帮你完成,而且他是二十四小时无休止的给你做。除了他这个强大的功能以外呢,他真正爆火的原因有三点,第一点就是他的数据是不出门的,不对外泄露, 很多人不用 ai 呢,是因为怕它泄密,龙虾 ai 呢,它是直接在你电脑里面跑的,它是不会往云端去传数据的,你的客户名单,财务报表, 甚至是你的商业机密,全部都在你的眼皮底下。第二点呢,就是这个东西完全是开源的,全球几十万顶尖的程序员天天给它更新, 重点是它不要钱,也没有各种恶心的订阅费,更没有隐藏套路,你就当它是一个不要工资,不要五险一金,二十四小时待命的工具就行了。 那第三点呢,是什么呢?就是你不用翻墙,也不用会什么英文,你能够直接用我们国内的大模型接上去,像 kimi d sib 豆包, 你只需要用你平时说话的指令去跟他说,他就会听从你的指令去做。那对于我们所有人来说呢,他有什么作用呢?首先,如果你是上班族, 每天整理报表或者是写日报这种事情,你就可以让龙虾一键帮你自动化,每天帮你省掉一两个小时的时间。 那对于学生党呢,他又可以自动整理文献汇总笔记,查论文格式,别把青春呢都浪费在你的排版上。那对于我们创业者来说呢,他就是一个顶尖的小团队,他可以随时随地帮我们抓取素材,定时发布统计多平台的数据。 所以我说这一波呢,不是小打小闹,而是全行业的压轴,阿里跟腾讯在搞基建,小米都推出了自己的手机端 mecloud kimi mini, 直接开放免费的额度给你使用。简单来说就是大厂呢,它都让你低门槛的去用到,这个小龙虾,可想而知它就是下一个的 ai 刚需。 那最后呢,就是今天的干货,小白回家按照这四个步骤也能装上你的小龙虾。首先呢,准备好你的电脑,不用高配。那第二步呢,就是到小龙虾的官方去下载一个安装包,然后一路点下一步。第三步呢就是填写你国内盗墓行的 keep。 第四步,你只需要发送你的指令,让他完成任务就可以了。 总结一下就是 open club 呢,是 ai 从动口到动手的拐点,它不是未来的科技,而是现在就能用的效率工具。如果有什么安装上或者是部署上的不懂都可以在评论区提出来,我会及时给大家回复。

有时候不得不承认网络上的大神是真的厉害,当别的 ai 还在动嘴出主意的时候, openclock 他 都已经在帮你进行操控了,甚至是你在睡觉的时候他在帮你工作,这相当于你有着一个廉价的劳动力员工,这么好用的工具你都没有用上,真的太可惜了。 今天猴哥给大家准备好了 openclock 获取方式和部署教程。首先我们点右下角分享键分享复制链接,然后我们在手机上打开这个应用,打开在首页这里搜索石头仓库, 我们照着这个顺序进去,找到这个 openclock 开源 ai 文件,先去保存下载查看就可以了。这个方法是不是非常的简单呢?聪明的你这回又学废了吗?

啊好,再来一个 man 啊。那不得不说这个配色啊,黑配什么颜色就是显得高级是吧。深图模型用,然后这个其实就是 nolan, 本来拿了看一下。 哦,有了,还挺快,这不又用别的模型跑了吗。我们现在看一下这个图片审好了吗?还没有审完全审好,但是这个图片总体看的还可以, 差一点意思啊。这个还行啊,但是这个爪子这个位置有点假,看后面这个这个可以吗?我感觉挺诱人的。可以啊哈,这里有包装,很高级。 可以亚马逊风格电商主。那比如说搞个亚马逊的电商主图。哎,去模仿别人的品,把他链接给他就好了。 要要要,要个五张还是五张 看一下。哇,蛮高级的嘛。换了个配色看第二张,嗯,高级是高级,但是这配色打的是什么市场呀?哦,好, black man 哈哈哈。啊,那不得不说这个配色啊,黑配什么颜色就是显得高级是吧。 哦,还给了个细节说可以嘛,像我们再问一下他,呃,我能不能给你一个表格链接里面有的呃,不同产品的 url 也有链接有没有不同?有的不同产品,你每天固定一个点开始,呃, 开始生成,开始针对每一个 u l 生成五张这样的电商产品主图,然后如果生成完了或者发现某天我没有给你新的, 嗯,产品 u l 你 通过我后续后后续给你接的,嗯,飞书或者说或者说别的什么都可以通知我。 也就设置一个地址嘛,我就每天都跑,固定每天都跑这么个流程放在那就可以酷酷上传你想要的作品了啊。看他给出方案了, 无人工厂不仅能做,而且可以把我不知道的地方给炸干,中久了其实可以接飞书也可以接好多。然后我现在比较喜欢用的就是 dy, 虽然握笔 dy 会比较清晰,但是你看他这个经常有网关断掉,不是很好用,然后你可以下载它的 app 也可以。然后我这个接了这个这个什么东西我也不知道,这个很少用,反正就发出来的时候会给他用,就这样。 哦对了,还有个问题啊就是,嗯,有的人会觉得还有个问题,就是有的人会觉得这个头盔很贵啊。但是我这里有很便宜的头盔给你啊,就这样恰口饭。