呃,咱们今天啊,继续把 open 小 龙虾放到实际使用中,对它进行测试。呃,在咱们自媒体的工作中啊,现在有一些个工作是属于把这个文声视频或者图声视频的需求。 呃,今天呢,咱们就让小龙虾参与到 ai 生成视频的一个工作流程里,让他看看他在这个这个文声视频和图声视频的这种 ai 工作里头,他能把这个工作做成什么样子。 呃,我还是结合录屏,一边录一边给大家说啊。呃,之前做的这个视频过程中啊,有一些个朋友说说你得添加给他添加技能, 然后让小龙虾添加完视频生成技能之后,然后他就能做视频了。这样呢,咱们在这个 get up 的 这个网站上,咱们下载了这项技能, 可以看一下啊,他让他调用纪梦视频生成工具,然后生成这个图文声音都有的小视频。呃,这个技能我提前已经让他安装好了。然后呢,我提前把这个两张照片也拍好了,放到桌面的这个文件夹里头。 新版本的这个小龙虾呢? open 小 龙虾它已经可以把这个图片通过这个添加附件的形式直接添加上了。然后呢,我已经把它添加进来了两张图, 底下命令是以导演的身份在记梦里把这两张图片做成一段产品展示的小视频,要求背景在类似茶室的地方哎,然后让这个檀香的香气淡淡萦绕, 生成后保存在桌面的临时文件夹里,这是命令。然后咱们运行 好现在他的程序开始跑,咱们看看最终他能把这段视频做成什么样。好,大家可以看一下啊,他这块已经显示产品的视频已经生成,然后放到了这个桌面的这个临时文件夹里,咱们现在打开文件夹, 呃,确实啊,在这里头生成了一个新的文件夹檀香视频,但是这个文件夹里头问题就来了,这个文件夹里头什么都没有, 大家可以看一下啊,这个文件夹里头是没有生成任何视频的。 呃。在咱们反复的这个命令的输入和调试之下,呃,包括图片的位置都重新给他进行了这个填写,最终他生成了两段视频,咱们可以看一下。 呃,画面可以看到啊,大家可以看到画面只是进行了一个运镜的旋转。呃,没有其他的过多的这个表现形式。呃。然后他生成了两段,咱们看一下另外一段。 呃,另外一段其实刚才这段和第一段是一样的,也是是一个旋转的运镜,仅此而已,其他的没有。呃。然后咱们这个 这个是当初是一张图片,这是当初的图片是不动的啊,是一张图,图片。 呃。通过这个咱们可以看到他确实在新的技能的加持下啊,他让图片进行了运动,但是 嗯,他和咱们最初对他的要求就是一个环境,让香在一个环境里进行这个烟雾缭绕的这种表达,他是完全没有做到的。 而且在第一遍生成的时候,他这个显示图片已生成,视频已生成,但实际上他并没有生成任何视频,而是在咱们反复进行路径的调试以及命令调试之后,他才生成了这么一个简单的运镜视频。 呃,可以说他做出来了,但是对于咱们当初对他的这个期望值差距还是很大的,他没有做到咱们当初理想的那个样子。 后续咱们还会持续的对 open 小 龙虾各项技能以及他在自媒体实际使用中的应用效果进行测试,大家持续关注。
粉丝259获赞1712

有人问小龙虾能不能调用 comforu i 实现图片生成?可以的可以的,我给大家实现。要想用 open curl 调用 comforu i, 首先你肯定是要有一套 comforu i 的 环境, 这是我们在本地搭建的 comforu i 的 环境,这是刚创建不久的一个流程图,它的作用就是根据你的正向提示词、反向提示词去生成一个平面图。其次,我们肯定是要有一个 open curl 的 环境,对吧? 我们建了一个 openclo, 这个 openclo 呢是使用的模型是 kimi。 二点五,要想用 openclo 去调用 ctrl u i, 我 们最好的方式是使用技能。这里是我整个创建这个的过程啊。嗯, 帮我开发一个 skill, 用于调本地的 comfyui 他, 然后后面就是要要求我提供给他这个 jason 的 路径,然后到这一步就是他已经成功创建了这个 skill, 就是 我通过在这个对话框里面跟他聊天的方式,他就已经能帮我生成图片了。 我这里是需要用 openglue 去调用的,怎么做?然后他就尝试再去做调整,调整完成之后就这里就算是好了,是吧? 然后我紧跟着我到小龙虾这边,这是它第一次生成,然后最后生成了它会路径在这,因为 openclo 它的这个界面是没有办法直接去访问本地文件的。这是目前 openclo 这个界面的一个问题,我们是不是可以 重新考虑修改一下我们的 skill? 既然你本地文件没有办法输出,那你是不是可以直接帮我输出 best new 四啊?在这儿你看它这边也是有 best new 四的方式进行输出。嗯,修改到这一步之后,它支持了 best new 四。 这个时候呢,我又重新跟他说,我修改了一下 skill, 你 帮我重新生成它。确实按照这种思路其实是对的,因为它能正常的输出这个这个东西,但是如果它这个输出完成之后,它就会正常显示,以百四六十四的方式显示。但是可惜百四六十四比较长,它输出 没完就结束了,所以导致这个图片是没有办法正常显示的。既然你这边生成的过程是用 python 去生成的,那为什么不能生成之后帮我直接打开呢? 使用电脑默认的打开方式帮我打开就好了吗?使用默认的图片的浏览器帮我打开,好,你,我已经同意生成,你帮我试一下, 对吧?他就成功了。我们给大家演示一下,编成一条鲨鱼,我们现在再看一下它的效果,但它的效率感觉并不是那么高,哎,你看生成成功了。

今天我们要做的就是给一份行情的数据,让他画出一张蜡烛图,然后呢就是,呃,画长润的线和笔啊,我们这个文件就放在这里,然后呢我们就让他去做,他首先是读文件, 然后去安装,拍成一些应用,他自动会安装,不用我们去管。 然后这里我要他重新执行,因为装的时候啊,调用 kimi 的 时候会有一些限制啊,调用太快了,所以要重新执行,这里是要重新执行 啊,他自己会安装一些必要的。那拍摄包装完之后呢,他会执行,让他第一版就出来了, 这个第一版出来他我总共让他做了三版的,你看啊,这图标,第一版的图标又生成这个 根据他这里有一些说明啊,根据这些开勾低搜,那时间他生成了这个图,这个是第一版的图,我们看一下 啊,这个是第一版的图, 第一版的图呢,他已经生成了。其实蜡烛图生成的还是不错的,就是这里就有一些缺口,看见没有这些缺口,就这些时间是周末啊,或者或者是没有开团呢,他就多了,多了这些缺口。然后呢到 我就让它啊这层重新生成,我这里中间我还要为它生成,默认是保存在它这个 open core 的 文件夹下面的,那我让它保存在另外一个文件夹,它就自动的把这些 文件迁移到我让它保存的地方,这个就是智能体,可以让你干你电脑可以干的活啊。 那刚才那也时间多了,我就让他把那时间点都去掉,重新生成那个蜡烛图,然后他要去重新改啊,他重新改这个拍摄的文件 啊,做完之后呢他,你看这里又出现了 api limit, 就是 说这个调用的次数太多了。 kimi 的 调用次数太多了,我只充了五十块钱,充了五十块钱。我今天,我看我今天用了多少啊?今天用了?不是今天用了, 应该是总共用了一些,第一天我也用了一些,然后呢,他 等一下之后我让他就重新生成,那他就会又重新生成了一些图啊,生成的图呢?就是 content 啊。在这里我们看看他第二版生成的图怎么样?这是第二版生成的图, 第二版生成的图呢?他已经把那些缺口都去掉了,就是没有数据的那些日期啊,这些都去掉了,看都连都连在一起了,所以这份呢,就就跟呃现在的行情图就是一样的了。 然后呢?生成完这个之后呢?我就想让他生成一个残忍啊,生成残忍的笔。然后他就先什么样呢?他就先搜索残忍这个定义 啊?你看他就他,其实他用了一个插件的,用了一个技能,一个技能就网络搜索那个技能,记得那个,我那个技能我昨天已经装了,就是这个, 就这个技能。老王爷搜索的技能图,我这边已经装了啊,他就用这个去搜索,然后他搜索着一些规则 啊,怎么怎么是一笔呀?啊?怎么是顶分型啊?底分型这些定义。现在的话,他在网上搜索的,我们先不管,先让他用网上搜索这个以后,呃,不好的,我们再自己定义,让他去学, 等到他得到这个定义之后,他要重新写这个文件啊,让他重新写这个文件,最后写了啊, 他就说图表,说我们看蓝色线,然后说现在这些是什么,他就把这数据,因为我们之前叫他保存到这文件夹下面了,然后其实到后面的两次他自动就收啊,自动就保存在这里了,他就不是保存在他模样的位置 啊,这保存在模样位位置的这些都是他每个版本的保存的。我们看看最后这个版本啊,最后这个版本就是 这个,你看他已经生成了一些笔啊,这条就是 k 线,然后常用的笔,顶分型,底分型,我们随便来抓一个来看看。 那,那他一笔一笔连上去,其实这些笔是错的啊,我们没有去定义他,他那个定义是不够准确的,这些笔是错的啊,这笔是错的,所以我们还要去定义他, 但是正常人这样子已经很不错了,就已经是第一步已经可以了,我们用这个 overclock 已经可以干点活了 啊,其实我们我最后呢,我还叫他帮我做一份文案,就是我就是想做一个啊,发到发到平台上面去的吧,让他做一些文案整理出来,他其实也整理的很不错的, 真的很不错,这个文案养成日记啊,整理的很不错。今天就先这样吧,明天我们继续让他改正那个残忍的一些问题。 其实这个奥本扣还是比较可以的啊,就是今天他帮我们做了一些比较简单的活,就是第一,今天才第一天,我昨天装的啊,今天今天第二天帮我,呃,生成了蜡烛的图, 改了一些长润的笔,明天让他继续去清气一些啊,做的更加完美。好,拜拜,明天见。

今天两分钟教大家白嫖 google gemini 的 api key, 帮你的小龙虾装上生图的能力!第一步,要注册一个免费的 google 账号。第二步,打开 ai studio, 点 google 点 com, 这是它的主页,在右下角进入 get api key 的 页面,这个时候在右上角创建一个新项目的名称,并且点击创建项目,这时候在你的项目列表里面就会出现新的项目了。 这个时候请你点击 a p i 快 速入门,并且复制这个 a p i 的 文档,因为 jimmy 的 文档有可能会更新,我们需要让小龙虾学习到最新的 a p i 的 接入的方式,所以最简单的方式就是复制这个文档,并且告诉小龙虾你读一下这个文档,并且按照这个文档来帮我配置上图的 skill。 这时候小龙虾就会一顿的操作,你不用管他,你就慢慢的等,等到他会问你说,请你告诉我 google 的 api key, 这个时候请你打 call, 跳回到刚刚的页面,点击你的密钥详情,并且复制之后啊 啊贴怀给他赞,他才会一顿操作,这个时候他会告诉你啊,很遗憾 啊!模型限速到这里有很多同学已经放弃了,但其实我告诉你不要放弃,因为 google 有 很多的模型可以任你挑选,如果你触发了 default 的 模型限速,这时候你告诉他你能不能换一个模型参考 api 的 文档, 那这里我们测试通过的比,比如说有 jimmy 二点五 flash image 这个模型就可以生成,但是不同的时间段可能每一个模型 啊他的限制的速度都不一样,所以你让他读 a p i 文档去更换模型就可以了,这时候他就更换了模型之后就帮我生成一个漂亮的三 d 口像,那他就大概也就是呃二十秒钟就生成完成了,生成完成之后你可能不知道他在生成在哪里,那你告诉他说,请你告诉我生成的路径, 他告诉你之后,你就可以打开,我们可以看看这个效果,就是这张头像了。那这里还有一点我需要告诉大家,就是刚刚生成的 a p i 有 可能 会限制你使用,你肯定要等一等,比如说两个小时之后再试,或者明天再试啊,刚刚呢,因为我直接用了我老项目的 api, 所以 是没有问题的。配置好 api 之后呢,我们就可以在手机上通过飞书 discord 来跟小龙虾进行沟通,并且随时随地的生成图片了。这个时候我们可以测试一下在手机上 那么借助大语言模型的能力呢?小龙虾呢,可以在自己去写图片的提示词,并且借助这个 jimmy 的 a p i k 呢,帮你生成各种各样的画面,而不需要你自己去想这个提示词。 好,这些免费的头像和免费的画面就给你生成好了,可以看一下通过 a p i k 生成的画面是没有任何的水印跟 logo 的 啊,你可以展开你更多的想象啊。那今天的介绍就到这里啦,那下次见喽,拜拜。

hello, 大家好,今天呢继续来给大家分享 openclo skill 实战相关的知识点,前面几个小节呢,都给大家在分享啊,如何来创作网页自动化,网页分析等相关的 skill, 那 么今天这个小节主要给大家在分享一个知识点,就是如何来实现文生图的 skill, 文就是你输入的呢,是一个文本描述的一个 propound 啊,然后呢产生的是什么呢?一个图片这么一个过程, 那么这个过程呢,相信大家已经非常熟悉了,现在市面上的大模型基本上都有生成图片的能力,只要你把这个文字描述描述对了,那么图片生成已经不成为什么样的问题了, 比如说像我们常用的积梦,还有这个 nana banana, 都可以根据你的文字描述去产生质量很不错的图片,还有我们最早使用的 germany, 对 吧?这些东西呢,都是可以用来生成图片的, 那么如果你去调用这样的图片来封装成 skill 呢?它有两个问题,那就比如说你的本地的 open cloud 去调用云端的 大模型的啊,或者是专有模型的去生成图片,他会有两个问题,第一个问题呢,就是他的速度呢,相对来说较慢, 较慢,这是第一个点啊,第二个呢就是费钱,他有成本的就是你要搞这个东西,对吧?人家 不可能免费的给你去生的对吧?所以你都需要去配置什么,你的 api k 啊等等,对吧?那配置 api k 的 过程呢,其实就是花钱的过程,所以呢,今天呢,我们 采用的方法呢,就不采用云端这种形式,当然云端的最大的好处是什么?就是它生成的效果比较好,对不对?但是这种方式呢, 如果对于你 skill 来进行操作的话,它的成本还是高了一些的啊?还是高了一些,不是说它的速度慢,其实大家也能接受,对不对?呃,但是关键是什么?关键是你的这个 呃成本,可能大家不愿意去承受这个成本,因为你发现就用了这个 opencloud 以后呢,要钱的地方是非常多的,就比如说你大模型是要钱的,对不对?你接入任何一个地方需要配置 api k 的 地方呢?都需要花米,所以这个呢就上就让我们觉得这件事玩起来没有那么爽了。 现在我们给大家的策略是什么呢?我们要在本地部署一套,部署一套什么呢?部署一套有这个文生图的这么一个模型 啊,就是我们在本地跑,利用我们自己的电脑来进行跑,然后呢把这个本地部署好的一个在本地可以运行的命令封装成一个 skill 来进行操作啊,这就是我们今天要给大家分享的。 那么问题来了,就是第一个点,如何我们在本地生成一个纹身图的这么一个程序呢?对吧?那很显然我们自己手上没有模型,我们得用第三方的模型啊,就是开源模型,把它呢 下载到我们的本地的服务器上啊,或者我们本地的电脑上,然后呢把它运行起来,形成一个什么可以运行的命令。 所以呢要完成这件事情就要分两个最关键的步骤,第一个步骤呢,就是你要在本地形成一个文森图的这么一套程序,你要有,对吧?这是第一步, 第二步呢是要把你上面形成的这一套程序呢封装成 skill 啊,主要是这两步,然后这个 skill 呢,就可以让你的 open cloud 进行调用来使用了 啊,这样的话,我们就形成了 opencloud 去调用本地的纹身图的这么一个流程啊,这样的话就等于说完全自产自足了, 那么我们就看第一步如何来形成自己的纹身图呢?如果在本地进行跑起来这个纹身图啊,它是需要一些环境的, 一个呢是你的硬件环境,比如说你至少得配一张显卡,对吧?我这个机子配的显卡呢是英伟达的 gforce rtx 五零七零 ti 是 十六级别的一张卡。这张卡目前它的架构呢是 sm 幺二零,就是 blackwell 的 幺二零架构, 它这个架构呢有点偏新啊,就是你在默认安装的时候可能会遇到一些问题,下面我会给大家说怎么来解决。这是第一个问题啊, 就是你的硬件最好得有一个显卡,不然的话你进行跑起来的话,纹身图它是比较慢的,对吧?第二个呢就是模型的选择,我们应该选择什么样的模型来形成纹身图呢?因为我们自己并没有这个模型,对吧? 那么纹身图必须得基于一个开源的框架在本地进行部署,我们这里面呢就是选的这个开源界大名鼎鼎的 s d x l turbo 这个模型。呃,其实经过我本地的试验啊,我发现它的效果其实并不好,但是呢它有一点就是速度非常快。 其实模型的选型呢,并不是特别难的事情,因为我们这一个小节主要是在给大家分享如何来封装成 skill 的, 所以呢,这个模型不是我们的重点,我们这里边虽然选了这个模型也能用,对吧?但是它的效果并不好, 原因是他比较快啊,他比较快,而且是免费是吧?所以我们要先把这个流程跑通了,如果后面我们觉得这个模型不理想,我们还可以继续换其他的模型,把这个名字变一变就可以了。到目前为止呢,我们的啊,硬件有了,我们选的模型也有了,那接下来就是环境配置了, 环境配置这个地方我需要说一下,就是刚才给大家分享的那个问题,如果你的显卡他的架构比较新, 那么 padlock 呢?它对于新架构的这个 gpu 呢?它姿势的并不好,就比如说我的呢,像我的是 blackwell 架构的是 s m 幺二零啊这个代号的。但是这种情况之下呢,常规的 padlock 它是没有办法运行这个的, 所以呢,你得使用它的抢先体验版,也就是说这个库大幺二点八这个版本的。所以这一点是我们的一个很关键的点,否则的话,你的程序在安装的过程中会不断的给你报错的。 那你说我要看一下我的硬件到底是什么样的,呃,配置呢?你就可以通过这个 in v 店 杠 s m i 呢来进行看一下自己的显卡到底是什么样的配置啊,可以通过这个命令来查看。另外一点呢,我们在安装之前要最好是要虚拟一个环境出来, 因为我装的是 mini cuda, 那 么我在这地方就虚拟出来了一个 text image 这么一个虚拟环境,呃,我后面所有的纹身图呢,都会在这个环境当中来进行啊,都会在这个环境当中来进行。那么安装的时候这一句话最重要就是你在安装的时候呢,你要指定, 你要指定你的 pad 的 版本呢,是十二点八啊,一定要 选这个,但是如果你的 gpu 比较相对来说比较老啊,架构比较老的话,那你后边这个就可以不加啊,就可以把这个去掉 啊,直接把这一把后边这个杠杠后面的这些东西都去掉,然后直接装前面的默认的就行了啊,这是针对于新显卡,新架构的显卡来说的一些问题啊。 紧接着呢,这个环境呢,就是把 petouch 安装上去了,然后呢就安装这个纹身图的核心库啊,这个核心库呢?呃,用这一条明令就可以把它安装上,如果你想使用翻译功能呢,你也可以再加上一个翻译的库。 呃,这个呢,为什么要有翻译呢?是因为这一个图生文的库呢,它只支持英文的 propound, 那 么我们这个翻译呢,是要把我们的中文的自动的翻译成英文,然后再喂给它,让它进行文生图, 呃,就算后边哈,我们要封装成 opencloud, 也不需要我们管。那么也就是说呢,你要搞定这个文生图呢,有几个点?第一个点呢,你得有个硬件, 第二个呢,你得选一个模型,第三个呢,你得把这些东西配这个环境,对吧?然后呢你就可以进行纹身图了,你像我这里边的,对吧?我们来随便生成一张图,这个时候他就可以加载这个模型来进行生成这个图啊, 这个描述词啊,他是英文的这样写的,那么这个图呢,就是我们刚才生成的,我们现在打开一下看一下啊,就这里边有很多 这些图,都是我们自己生成的图啊,它的效果呢?一般般啊,因为描述吗?它要根据你的描述进行生图啊,你像这个的话, 嗯,你,你像这个,这个,对吧?啊?像这个图呢,我就是让它去生成一个 呃江雪的图,然后呢他就给我生成这个叫江雪吗?就是千山鸟飞绝,万径人踪灭的那个诗啊,根据那首诗来生成的一幅图,他是这个东西啊,所以呢基本上 能够把这个流程跑通,但是他生成的图的效果呢?呃,确实很一般啊,那么后边我们换模型就行了。那么好 啊,到此为止呢,就说你这个环境,基本上这配置完成,你的代码也能运行了,那你是不是在本地这个文文件夹下面,对吧? 那你是不是在本地已经有一个纹身图的一个功能了,对不对?他纹身图这个代码也非常简单啊,首先就是说加载模型调用库的啊,其用库的,然后呢给一个,呃, per pound, 就是 一个一个输入, 然后接入到这个输入以后呢,然后就去根据这个输入呢进行生成这个图片,然后把图片呢放到这个文件夹下面去啊,这个就是一个很简单的过程,就是根据你的,你给他传入的参数呢,就是你的命令啊,就是这么简单,然后呢就可以产生一张图, 那么这个时候如何来包装成我们的 openclaw 的 skill 呢?我这个地方呢有一段代码,这个代码呢是要让 openclaw 去参考的一个代码,根据这个代码呢分装成一个 skill, 那 么这个代码呢,其实不需要你去写的啊,就是这里边这些具体的命令呢,我也不想给大家一一的去解释,也没有什么实际意义,我就说两个最关键的点, 第一个点呢,就是你本地的这个是不是已经写出来了?你本地的这个测试代码,你可以让大模型帮你写啊,就是写个测试代码,这个你是不是写出来了?写出来以后你这个代码在哪呢?是不是在你的项目的这个文件夹里边啊? 你是不是在这个文件夹下面,对吧?在一盘,当然了,你要把它放在哪你就在哪啊,就这个文件夹下面,在这个文件夹下面呢,有你的代码,你可以直接把这个代码呢 让大模型封装一下,你说把这个代码给我封装成一个 openclaw skill, 然后呢它就可以给你根据你的这个代码呢给你生成现在这个代码,这个代码呢是一个比较接近于 openclaw skill 的 代码, 但是这个代码呢仍然不是最终封装后的 skill 代码,就是你要封装的这个 skill 不是 你自己手工写出来的, 这是第一点,是由谁帮你干出来的?是 open klo, 通过你跟 open klo 对 话,让他参考你的项目,你的代码去生成的, 也就是说你要向 openclaw 描述清楚,说我呢在本地哪个文件夹下面部署了一套什么样的代码?这一套代码呢,可以生成,呃,可以实现纹身图,请你把我这个代码呢给封装成 openclaw 的 skill, 紧接着后边的事情你就不需要管,是用 openclaw 来进行给你接管的啊,它会封装,它封装以后呢,就会在你的本地这个地方呢,形成一个文件夹, 比如说我们这里面的这个文件夹,这是它封装后的,它封装后的这个东西呢,就是比较 比较具体一点啊,就是符合 skill 这个标准的啊,由它的原数据就是它的 mate 数据,然后呢由它的核心的一些描述啊,生成生成的一些命令, 这是第一个非常需要注意的点,就是有些老铁可能误认为啊,就是我们要自己手工地去实现这个 skill, 不是的,就是你把基本的 demo 跑通以后,说明你本地已经有了这个纹身图的能力。紧接着呢,封装 skill 这件事情,你不要去做啊,不要 就算自己有能力做也不要去做。为什么呢?因为这个封装呢,它是根据你的 open klo 的 标准,可能不一样,它里面封装的东西可能都不一样,你尽量的让 open klo 来进行给你先封装,封装完以后,你觉得哪个地方不合适,你可以再尾调一下,这个都是可以的啊, 这是我要说的第一个点,第二个点,由于你在本地运行的时候,你采用了一个虚拟环境啊,这个我是强烈建议大家去采用虚拟环境的啊,否则的话,你的电脑上能安装的东西就太少了。就是你这个虚拟环境呢,它本身 里边是含带着一个 python 解释器的,所以在解释的时候呢,你一定让 openclaw 去调用你的这个虚拟环境,比如说我这里边的虚拟环境呢,是 text to image 这个虚拟环境,那么你要让它调用这个虚拟环境下面的 python 指令去解析 啊,就是说你不要直接调 python, 这个 python 指令并不是一个虚拟环境,它里边很多的 python 的 库呢,并没有安装,所以你得找到这个虚拟环境下面的这个 python 解释指令,让他呢去解析你的这个代码就 ok 了。 就是我们为什么要这样搞呢?是因为我们想要告诉 open club, 他 呢现在只需要调这个指令,而不是在本地再建一套指令,明白吗? 这个大家能理解吗?就是 open club 他的常规做法是什么呢?就是他看到你的代码以后呢,他会在这里面重新给你安装一个环境, 那这个就重复了,这个环境是非常难配置的,对不对?是我们前面要花很长时间才能配置成的好,那这样的话,封装完以后呢,他就封装成这样的这个指令 啊,这样的指令由于这里边啊牵涉到很多详细的代码,我一下子呢也没有办法跟大家讲清楚啊,所以这个过程呢是,嗯,整体上逻辑是这样,你要是想用这个东西,你还得自己摸索一下, 你如果没有上手操作过的话,那你会觉得我在讲天书一般啊,所以呢,这个还是要自己亲手去搞一下。那这时候呢,封装成这个视频以后呢, 他就会告诉你啊,纹身图封装完成啊,然后呢,他会告诉你这里边有什么技能,对不对?这个时候你就可以让他给他下一个指令了,对吧?下一个指令,然后让他呢给你生成一幅图,对不对?这样就行了,那这个这个呢就是整个的 封装的过程,这样的好处呢,就是等于说把我们本地运行起来的一个纹身图的一个东西呢,给封装成了一个四 q, 那 我们现在在 openclaw 里边去告一下这个四 q, 我 们先问一下他,你现在有哪些技能? 然后呢他就把他的所有的技能呢列出来给我列到这里边了,对不对?你看他有什么百度搜索的邮件管理的,抖音上传的文字转语音的啊,还有纹身图的,那么这个纹身图呢就是我让他封装后的, 那么现在呢,我们就让他用一下纹身图啊,呃,用纹身图, 呃用纹身图生成一幅图片,嗯,比如说风中的竹林油画风格, 这里边我输入的是一个中文的简短的一个提示词,他会把我这个提示词呢进行分析一下,对吧?然后呢他转换成了英文提示词,因为咱们那个模型呢只字是英文提示词, 所以呢他会把这个提示词呢翻译以后再啊再转给这个纹身图的模型进行处理 啊。这个时候呢,他告诉我们这个纹身图转完了,对不对?在这个目录下面,我们呢就把这个目录打开看一下, 这就是他生成的一个东西,可能跟我们想要的不一样啊,但是不管咋样,我们这个流程跑通了,也就是说这个时候呢,是我们的 open claw 调用了我们本地的一个 纹身图的一个程序,然后实现了零成本来进行制作啊,不能说零成本吧,最好你最少你耗了一些电费,对不对?但是最起码他这个过程还是比较顺当的,对不对? 这个呢相对来说配的呢比较呃流程比较长一点,因为我们要先在本地部署一套,然后再封装成 sku 这么一个过程啊,那么这一个小节的文档呢,是比较详细的,如果你也想做这件事情,想要这个的话,那你可以 呃按照下面的操作,第一点呢一键三连,第二点呢加我的地球号啊,这是我的地球号,然后加一下我,然后呢我就会把这个 pdf 版的发给你了啊,因为咱们这个呃 相相关的东西啊,特别多啊,有有些老铁想尝试的话,可以按照咱们这个流程进行搞一下啊。好,那么今天这个视频呢,就给大家分享到这里,谢谢大家。

我的 ai 会自己刷短视频?不是摸鱼,他在找灵感,他看上了这篇内容。零点三秒,他总结了风格,老钱,高级质感。一秒,他完成了自己的 o o t d 全程。我没碰鼠标,我知道你们现在满脑子问号 到底怎么做的?别急,今天全交代,不用写一句代码,只要你会复制粘贴逗妹,这样的你也能养一个。其实就两步,第一步,给他立个人设,比如齐肩短发、红色夹克等等,你们可以结合自己的喜好来写,之后发给小龙虾,简单吧,这是他以后所有穿搭的底。 接着最重要的第二步,咱们要选一个生图模型,我亲测国内体验最好的是极梦四点五,你不用纠结抄作业就行。打开网站,选择极梦四点五,两百次免费额度够我们折腾了。点击 api, 接入,创建 api, 选择使用。看到步骤二了吗?选单图,生成单张图,复制整个内容。咱们要给逗妹 配置画图技能包了。直接输入提示词,第一部分是要求,第二部分是刚才复制的内容,看到类似这样的回复就搞定了, 既能包装好了,该拍证件照了。这是以后所有穿搭的参考图,直接输入提示词就行,你就会得到一张类似这样的图。终于可以做穿搭了,要操纵内置浏览器,把这里改为夫。最后输入穿搭提示词,这里稍微步骤多一点, 除了二三点,其他都建议抄作业。然后豆妹就自动打开浏览器,搜索关键词,总结风格,生成穿搭图。至此,恭喜大家所有流程都完成,还有什么问题找我,我帮你们崔老板出第二季。

我的龙虾刚才在我没有给他配置任何深图大模型的 api, 以及我没有教他深图这个能力的前提下,给我生成了一张图片, 原因是我后天要去做一个组局,我现在已经做出了会议议程,我就想要一个海报,我刚开始是没有海报这个想法的,我没有想着让去龙龙虾去做,我甚至去找了 jpt, 让 jpt 帮我直接在页面上生成,结果就是这个里面全部都是很很多的错字,就是很很多错字,我不满意, 我正想要怎么办的时候,突然看到他在给我溢成了之后他还问了我一句,就是 要不要帮他,他帮我生成海报,我很震惊,因为我知道他是没有这个生图的 a p i 的, 我没有给他,我只是给他登录一个 g p d 的 会员,因为我很穷,我很穷,我只能给他包月的会员,然后我就问他,我说你可以帮我做图片吗?他说可以啊, 这个时候我没有抱任何的希望,我说那你给我做一个减一百的图本海报吧,什么内容我都没有要求他,然后他就给我做出来了,哎呀,在这里, 哎呀,质量不差,质量真的不差,起码他没有错字,而且他讲的很清楚, 我我我感觉这个真的是非常的让我惊喜,刚才太震惊忘拍这一段了,我有问他,我说你没有 a p i 是 怎么出图片的?他,他说他相当于是通过代码来去画的,做了一个 svg 的 文件, 然后再通过消息工具作为本地文件附件发到飞出。 所以我觉得就是普通人对于 ai 也好,对于龙虾也好,你,你最最有用的办法,你就是你去用,你去使用,你在使用的过程中你可能发现 惊喜,或者说是真正可以帮助到自己的一些点吧。不要老听太多的 ai 的 自媒体的博主的分享,不要吃人家咬过的甘蔗,而是真正的去实践出真知,去落地,去尝试把手弄脏。

最近 a h r open klo 这个小龙虾实在太火了,付费上门安装的服务都被炒到了五百元一次。某大厂办了一个线下免费安装的活动,排的队比老年人领鸡蛋还长。那今天这个视频教你如何一分钟部署 open klo, 视频结尾我还会演示几个硬核的用法,教你如何压榨这 只龙虾。那开着前先给大家提个醒,网上很多教程都教大家本地部署,但是如果你没有一个备用电脑的话,就不建议尝试本地部署, 因为 oppo 壳到需要的权限实在太高了,如果你在有重要文件的主力电脑上去跑,一旦出错,后果就很严重。上个月 mate 的 高管被龙虾删了大量的工作邮件,这就是个惨痛的例子。当然这也是为什么最近苹果的 mate mini 被买断货的原因。 所以本视频我们用的是云端部署方案。限阶段龙虾能无缝接入 telegram、 discord、 whatsapp、 飞书、企微等平台。国外用户接入 t g 的 比较多,但如果你人在国内,又不想折腾网络的话,飞书是目前国内玩龙虾好的选择。它们家的生态非常齐全,前两天发布了官方版的 open 格式插件, 接住龙虾后的操作特别丝滑。那废话不多说,我们正式开始。首先打开飞书,直接搜索 open class, 选择这个妙搭,然后点击一键部署 open class, 这里你需要给你的龙虾起个名字,并且给他选一个形象, 然后点击创建按钮,他就开始部署了。大概等了一分钟左右,他就给你部署好了。选择这个立即对话, 在输入框里跟他发送,获取所有权限,点击授权, ok, 这一下就大功告成。现在你就拥有了一只属于自己的龙虾,并且不需要网上那些复杂的配置,你就可以直接在飞书上去指挥他干活。 这个部署真的对小白用户来说特别友好,啥也不用管,一分钟就搞定。当然,如果你之前已经在各大厂的云平台上面买过服务器的话,直接部署好也可以接近飞书来一样能用。 具体结构教程我写到文档里,大家感兴趣视频接本自取。那接下来我们开始压榨龙虾,看看在工作中到底可以怎么样使用。 open class 案例一,私人秘书日常工作中最简单的用法就是让他去充当你的私人秘书。你可以让他帮你创建代办事项和日程,或者帮你预约会议, 又或者让他每天给你发送行业日报,了解最新的资讯。不光如此, overclock 还能跟飞度上的各种办公软件结合。比如在日常工作中,你写了一份文档,然后你的同事和领导在文档上添加了各种批注。现在你可以直接让他动手帮你修改文档。 不光文档可以用,表格的工作也可以处理。比如你让他去做一个市场调研,我给他发这一串指令,等他干完活以后会发消息提醒你点开他消息里面的链接。刚才我们要的所有数据,他都整理好了,登记在周围表格里,这个玩法用来监控或者爬取数据都特别方便。 那这说句节外话哈,虽然现在龙虾的热度很高,但我不会无脑去吹。坦白来讲, open klo 目前执行任务也会出错,比如这个任务,我在测试的时候他就失败过两次,但我让他自己想办法解决,过了一会他改一改就跑通了。所以在执行任务中遇到报错或者无法解决的问题,不要慌, ai 时代,我们要学会用 ai 去解决问题。 这个案例是我觉得最实用的。写日报估计是所有打工人都讨厌的工作内容。在过去的一年里边,有不少 ai 工具都号称自己能写日报。但如果你用过那些工具,你就会发现,想让他写个日报,你需要先把今天的工作事项、文档等数据喂给 ai, 他 才能帮你总结。 讲实话,如果我愿意把今天干的活自己去梳理一遍,为啥还要多余让 ai 去总结?所以市面上很多 ai 工具都有点华而不实。但如果你的公司是在非书上办公的话,现在可以让龙虾帮你写日报,直接跟他说,给我生成今天的工作日报,它就能获得你所有的文档、日程,还有聊天里边的数据 看,不仅能看出我今天创建的几个文档,甚至连今天装龙虾做了七十五个系统授权,也总结出来了,跟市面上那些需要自己未数据写日报的 ai 工具比,这才是真正能落地的生产力。 视频最后聊一下我个人对龙虾的看法。在深度养虾一个月以后,我觉得这波 open klo 热潮最大的赢家有两个,第一个毫无疑问是苹果公司 mac mini 的 销量直接被带起飞, 另一个就是那些在用飞书这样的软件办公的企业。因为接触龙虾以后,你会发现 agent, 它不再是一个只陪你聊天的对话工具,而是拥有你的工作数据,能真正帮你干活的执行者。 视频里面的所有步骤,包括云端部署和本地步骤教程,我都整理在了一个文档里面,赶紧去创造你的第一个赛博员工吧!下期视频教你 open klo 的 进阶玩法,别忘了点赞加关注,我是山河,我们下期见!

如果你真的去用了 oppo, 那 你就会知道他有多难用。发完消息没声了,联网查点东西要配 a p i, 但有的时候他又能查到,这种时刻我就很惊喜,我说这可太好了,你刚是咋干的,记一下以后就这样搜,结果呢,没两天他就又忘了,然后跟我道歉,这期间压根就没记。 其实都不是什么大事,但官方的这个默认配置,它就用着各种不爽,这些坑我每踩一个就解决一个,然后让 ai 把经验总结一下,最终把它们汇总,形成了这一整套的 skill。 双击加关注啊,私信优化龙虾这四个字就能够自动获取。这个 skill 全程只用跟你的小龙虾对话,就能把整个的优化流程给做了。 简单去演示一下,然后官利回答一些弹幕的疑问,直接给你的小龙虾发送这条消息,他就会告诉你我们开启了一个 open cloud 配置优化向导。第一步是备份,他会备份你的整个 open cloud 程序,万一出了问题,那你就直接解压就能恢复,这个是最起码的保障。 整个 scale 分 为四层,那第一层是基础的优化,这几个功能我都很建议打开,比如说消息回执,原先你发了消息就只能干,等打开这个他处理的时候就首先会给你点个引猫记,直到他收到正在处理了,这个真的能够极大的缓解你的焦虑。这个记忆功能,如果你打开增强和每日规章,他就会在你上下文快满的时候强制去写入一次记忆, 并且在每天晚上的十一点钟最佳总结一次。第二轮他会根据你之前选择的渠道进行优化,然后是第三轮,我推荐了一些我自己觉得还不错的 scale 啊,大家就各取所需,这个具体就不展开说了。然后是最后一轮,我写了一个渠道的添加向导, 反正我个人是在用了飞书之后,就会好奇说其他的渠道他的体验什么样的啊?我就假定大家跟我一样就玩了一阵子,就想试一试其他的渠道,所以我就把我自己整个介入的过程都录了一下,并且总结成了一个非常详细的步骤,你去按照这个来做,同时把各种需要的信息去发挥,你的小龙虾他就会帮你自动配置好。 好了,这个 skill 我 们就先说这么多,接下来呢?啊,我来看看弹幕,有朋友说你 open cloud 推荐什么样的模型。嗯, 这个问题其实我可能跟其他的博主有点不太一样啊,我曾经也是一个盲目去崇拜大参数大模型的人,比如说 cloud 或者是真未来。 那用了小龙虾好像会发现没有必要,因为他更多的时候就是去啊调用各种工具去搜索,定时删改文件,那只要这个模型的 a 帧能力他够用,调用工具的时候能够准确的识别你的想法,那么在速度快价格低的情况下,我觉得世界知识或者说智商他差一点就是可以接受的。 当然了,如果你侧重的是生产力的编程场景,那其实大家都会去用那个 cloud code 或者是 codex 这样成熟的编程 agent 啊,他就需要去理解整个代码库的各种依赖嘛,然后与异的关联模型能力越强,他就越能做出正确的判断,就是编程这种场景,你还是去用最顶尖的模型去干吧,它能省不少的事儿。 我自己其实已经收集了有一百八十多家中转站啊,也确实是阅战无数。在这里呢,我会推荐一个我自己在用的比较稳定的 api 中转站,叫做接口 ai 这个平台,它是集合了各种顶尖的闭元模型,国 外的四大顶流模型它都有,需要写作,我还是推荐你找世界知识更强的 jimmy, 它就是有点慢,需要编程。那我还是推荐你用 cloud, 它就是有点贵。 而我刚刚所说给小龙虾用一些更快更清亮的小模型,比如说 mini, max, kimi, 还有质朴这边也是非常的齐全,只需要用他的一个请求地址填上密钥,你的钱软件就可以瞬间多上几百个模型,充一份钱,想用哪个就用哪个 好。第二个问题我,我看别人 u 盘卖了二十六万,但安装一单两百,我看的心痒痒,那你怎么看? 就是你心痒,谁不心痒呢?就这个事也能理解,但是最近也确实是有点太魔幻了,从线上到线下各种活动,到现在开始付费卸载,就在我的概念里,安装它不就是一行命令的事吗?那卸载也是一行命令的事啊, 我知道,就是电脑的环境,网络连接啊,命令行大家可能不习惯,这些都是一些门槛,但是玩过的就都知道,其实难的肯定不是安装这部分,而是在这个过程中的各种坑啊。就像我这些做的这种 scale, 其实就是结合了这么多坑的一个精华, 那在我看来,这些才是比较有价值的部分,从我自己的价值观来说,你去帮别人安装我觉得不太好,因为会给他增加一些这种安全隐患。 而且呢,啊,你装完对吧,你是去收了他的一笔费用,那他后续又去用了各种厂商的模型,钱又进入这些厂商的袋子里面,他呢,玩着玩着感觉好像也没啥劲,就放那不管了。那我觉得这种其实还是有点不负责任的, 大家也都关心说 oppo k o l 怎么变现啊,也确实,甚至有人发私信问说,哎呀,我不了解 a a, 但我想赚钱,你能教教我吗?可以,有偿。 那其实答案通常就写在明面上了,但是这种我就还是拒绝了代安装付费咨询,就这种有点割韭菜的快钱我还是不会去赚的,反正还没到这个饿死的程度。而且这期视频你别看我说什么三连关注啊,什么私信, 其实这个录屏里就已经有我那号命令了呀,你直接截个图就发给你小龙虾就可以了。这个 sky 我 也没有什么藏着掖着的,社会战前,其实我想象中有价值的变现方式,其实是用小龙虾去做一些比较成熟的解决方案,能够呃帮一些人或者说一些行业去解决一些问题。 这种卖解决方案肯定还是最高级的,但是目前他不太成熟,我也没有见过有做的特别成功的,再稍微低一点,我觉得我也能做的,其实是去卖课。说实话我不觉得这是贬义,就比起你那些单安装啊,实打实的去教会你这个东西是怎么回事,把它给讲透,这个肯定会负责的多。 嗯,但大家也不一定都有这个耐心去学,而且这个时间点其实也有点晚了,该学的也都学会了,不该学的可能他也不感兴趣。嗯,后续应该也会有各种厂商去做一些简化的安装步骤,或者说各种方案出来。嗯,所以这个可能我也不会去做了。 好,我们看第三个啊,看了你两期视频了。好,谢谢啊,上期视频你也看了?我还是感觉 open color 没有什么用。你到底用没用 啊?其实我确实是烧了不少啊,上一期的结论,或者说上一期我确实是想试图去总结这个,解答这个问题,但 阶段他解决的不是一些痛点,都是一些痒点。这个我也认同。我再来说一下我的想法啊,就是如果你是一些传统的重复性的工作,那其实你用 ai 模型其实是费力不讨好的,反倒因为模型会有幻觉,有可能会做错,这种我们就真还不如用传统的程序去批处理。 而真正去利用 ai 模型的创造力做的一些工作,我们也有了 cloud code code s 还有 open code 的 这样的一些成熟的编程 agent, 就 你给他一个需求,人家就先起一个 plan, 然后在分布中去跟你实现,期间去压缩上下文,它也稳定的多。如果你要干的是严肃的大火,那限阶段还得适用他们。 我依然是不推荐你啊,一边逛超市,一边去跟你的小龙虾去聊一些大的火。那小龙虾它自己适合的场景呢?啊,它的核心优势,我上期说了,它就是二十小时在线, 我呢会用它去维护我的网站,比如说我刚那个 a p i 的 中转站,我看到了一个新的站,以往我想去加我真的得脸我的福气,现在我就给他直接发个消息,很随意,这种突发性的小活就很合适。再比如我会突然想到一些点子,那就直接语音输入全部退给他,整理成结构,这种脏活累活就全都交给他。 它的另一个优势就还是在你的本地电脑上运行,比如说我远程连不上我的电脑了,我让他去帮我重启一下 todesk, 我 家的网络卡卡的,我也可以让他去直接重启我的路由器,甚至也可以去控制家里的开关,或者说电视投屏。 对啊,其实说来说去就这点事别的软件都能做,它还是一些洋点,但如果你把这东西全部串起来啊,都有一个入口来操纵的话,其实还挺爽的。 而且你要知道他现在还是一个初步的阶段,就之所以你现在觉得他没什么用,是因为他的生态还没有形成,而且他的出现其实已经在瓦解,各种互联网大厂去花了那么多年形成了一个壁垒了,我个人是依然看好的 他虽然有一些泡沫的成分,也有人说他去啊,是一些厂商去卖 taco 对 吧?故意的这么一个机会,就如果你保持理性啊,不想去参与这场闹剧,我觉得也没有关系,你这样大概去了解一下他的现状也就够了。 好,这期视频呢,我们就先录到这啊,我是大黑,希望以纯人工的方式向你去分享智能。那我们就下期再见。来吧,跟大家说再见,拜拜。

open k 捞小龙虾太强大了, ai 助手直接帮我两分钟一篇文章带图美化排版之初。

今天直播的时候直接演示了 openclo 做视频切片的能力,没想到一次性任务就跑通了,我还挺惊讶的,直接来分享一下。首先我就直接跟他说了这一句话,能不能帮忙做剪辑,给我之前做的一些访谈的视频做切片。第一步是把视频转成文字,再通过文字做视频切片的拆解, 拆好了之后把时间戳标记出来。然后呢再用这个本地的一个工具叫 fmp e g 这个工具来去做一个拼接。这工具之前我们讲用 q 做视频的时候也有讲到过 这个方法,就听起来很靠谱,然后我就让他直接去试了,他就先测试一下 whisper 能不能用,很快他就发现 whisper 可以 直接用了,然后他就让我直接给他一个视频文件,我一下给了他一个三十二分钟的视频文件,让他去切片,当然三十二分钟要等时间挺长的,然后他就会先给我切出来一些样例出来看一下,就直接 切了一个五十秒长的视频。这个视频首先我检查了一下这个视频真实存在,确实的存在在我的桌面上他可以打开,然后确实也是五十秒,也是今天晚上九点半的时候创建的。 其次呢,我后面自己检查了一下它整个的完整性,我觉得是非常不错的,就是它没有把一些句子直接截断,它的观点段落的语义都是比较完整的, 所以它这套方案用下来我觉得很靠谱,而且我觉得很实用。因为我知道有很多的媒体的公司就会有大量的这种需要,直播切片或者是播客切片的,这种需求非常实用,而且很快就能跑出来。这个案例我真的要收入到我们下周五的课堂里面。 那明天晚上九点我们还会继续直播,那我们直播都是用 open call 直接来当场跑案例,大家如果有想看的一些 case 也都可以预约,我们明天直播见。

不懂代码的普通人怎么不熟 oppo clone 呢?根本不需要花几千块钱去买一个 mac mini, 今天看了我的这条教程呢,直接让你白嫖一百万。 talking, 咱们打开阿里云的官网,在这里点产品,然后选到清亮应用服务器, 然后呢,在这里可以选这个啊, open club 啊,然后一个月啊,一个月大概是这个二十多块钱,一年大概六十多块钱,咱们选个二十多的直接付款啊,付款之后呢,可以看到我们这个实力马上准备好了,咱们点我这个实力,点进去有个音乐详情啊, 因为详情一共有三个步骤啊,第一个步骤啊,就执行这个命令啊,可以放通这个端口啊,第一个已经成功了,第二个呢,就是配置这个 oppo 的 这个 mate 啊,咱们这里呢,直接使用这个百炼 callinplay 啊,确认开通就行了, 免费赠送一百万 token 推理额度啊,这个是阿里云旗下的一个百链平台。然后呢在左下角有个蜜柚管理,创建 a p o a p i k, 创建一个 a p i k, 然后呢勾选用户名称描述一下,随便填一把啊, opcode, 然后确定, 然后大家可以看到啊,这个庙已经生成了。然后呢,右上角有一个地区啊,我们现在是在华北啊,就在北京地区,然后复制这个,然后复制 api k, 然后在上一个页面,然后回到上一个页面,粘贴我们的 api k, 然后呢选北京。那就可以看到奥鹏哥老配置成功。 然后呢就是第三步了啊,就直接呃,可以给我们一个网站,让我们去访问我们的这个龙虾机器人, ok, 点开我们的龙虾机器人,直接问他用中文介绍你自己 啊,你看他已经回答了,下一期我会让 oppo cola 自动帮你干活,大家有遇到部署的问题可以随时问我。

老师们,那个欧本可乐怎么把他里面那无头浏览器?不是,那时候是浏览器的无头模式调成有头模式。就是我现在看他的界面,然后呢我让他登录我的极梦让他帮我去升图让他让他帮我去升视频吧。啊他咔 给我截了个图过来,倒是也没毛病哈,就是他给我截个二维码,我我扫了之后登录就完了呗。但是呢他一些时候经常的 这个这个你看他截个主页的图,要么截个别的图,就是他截不准,我就想说他能不能让他最起码有一个可说话的界面啊。有那个界面之后呢我自己进去然后登录给他完了。嗯,然后让他再去执行任务 对吧?因为他本身自己是大模型吗?他自己就可以处理文本的问题,自己处理这个提示词的问题啊,再给他个参考图啊什么的他就能把这个图做出来了。那你再拿这个图作为手针也好或者参考图也好,就喂到 这个小韵趣也好,或者他的这个呃。 cds 二点零也好,然后让他去升视频,这不一个标准化的流声就出来了吗?这点卡在哪了?这就是就是别扭 别扭。我也看了那些文档啊什么的,有关于什么有头无头的没整明白。就是怎么才能让我们在云服务器啊。我这边是云服务器,不是本地部署,你要本地部署的好说,你可能直接三两下就解决了。就是云服务器上怎么才能 有个可识画的界面,最起码说系统咱看不着。没关系,他登录的那个浏览器咱能看见也行啊,咋整哎求助求助求助。

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

三分钟小白也能学会的 openclaw 保姆级部署教程。 第一步,安装 node js 打开 node js 的 官网,点击获取 node js, 在 这里选择与电脑适配的系统,我的是 windows 系统,所以直接点击安装程序。 下载完成后,打开文件所在的文件夹,点击进行安装,点击 next, 选择接受条款,这里可以自定义安装到 d 盘,也可以默认安装到 c 盘, 之后一直点击 next 即可。 第二步,安装 git, 打开 git 的 官网,在这里选择合适的系统。 我的是 windows x 六十四, 同样的方式进行安装,只需要一直点击 next, 耐心等待安装完成。 如果只是为了部署小龙虾, no g, j s 跟 gate, 都不需要进行其他的配置, 取消勾选这个,跳过查看更新日期。第三步,部署 openclaw, 打开菜单栏,搜索 power 秀, 点击这里的以管理员身份运行,首先输入这个指令 回车,输入大写的 y 回车,然后再输入这个指令回车,耐心等待, 然后这样就算安装成功了。 然后接下来进行 open class 的 配置,通过键盘左右键控制,选择 yes, 回车,选择第一个 quickstart 回车,这里我建议选择 kimi, 因为配置起来比较方便,这里选择 c n case, 这里需要输入密钥。第四步,创建 apikey, 打开 kimi 的 开放平台, 点击这个 api 管理,新建 api, 这里随便输入即可 复制这个密钥,密钥一定要做好保密粘贴到这里。回车 选择第一个 skip for now, 选择 no, 这里通过空格来选择,然后回车 skip, 等待一会,它会自己给你弹出一个本地网站。 好啦,这样你就拥有属于自己的小龙虾了。牛逼牛逼!

hello, 大家好,今天用一个例子来教会大家如何使用小红书 skill 来让 open club 发布小红书。那么在开始之前,我还是认为大家需要对 skill 这东西有一定基础了解,因为网上对 skill 的 描描述很多都太玄乎了,我们其实可以直接打开这个小红书的 skill, 看看它怎么说。 我们找到这个 github 上的这个仓库,然后打开 skill 这个 markdown 文本,然后我们来简单的过一下它这个 skill 包含了些内容,实际上你看一下就是首先它会有一个使用前提,它会让你准备就是让你在你的电脑上先创建好这样一个文件夹。是什么文件夹呢?因为 只需要在你的根目录下创建一个小红书杠,然后你的账号名,这个这个名字其实是可以随便起的,然后呢,你会需要在这个账号里面建两个文件,第一个就是 ctrl 点 md, 说白了就是你的你的一些账户信息,那你为什么要创建这个 账户信息呢?很简单,因为你的标题和内容实际上是需要通过 open call 来阅读你的账号信息来生成的。 第二个就是你的 resource 点 md, 这个就是你的素材列表,然后你还需要在这个文件夹里面再建立一个叫做 resources 的 文件夹,然后这里面其实就是包含你需要发布小红书的一些图片信息, 然后还有一些视频信息,那么 resource 点 md, 就是 你需要把这些信息作为汇总,然后 open 阅读了这个 resource 点 md, 就是 这个素材列表之后,它就大概知道该怎么发,发哪些图文了。 然后你初次登录的时候,它还要求你利用 open cloud 内置的浏览器来去做一次登录,因为很简单嘛,你要用浏览器来发布小红书呀,所以你肯定要先在你的网页端去登录你的小红信息,对不对? 然后你创建好这个账号文件夹的呃,一系列的这个前期步骤之后呢,就可以进行发送了,那我来演示一下我们真实的操作一下。然后今天我会用 这个,我会用 open pocket cloud 这个东西来帮大家安装好这个 skill。 其实你你可以通过聊天记录看到就是这一块,我刚才已经通过 pocket cloud 来让它安装好了。然后你会发现,当我的 open cloud, 我 的龙虾在安装完这个 呃技能之后,它会其实已经告诉你下一步该该该做什么呢?就是创建账号文件夹。那么废话不多说,我们先把文件夹创建好。 那么第一个问题来了,我们是不是要自己跑到那个电脑上去操作那个电脑上创建文件夹,去创建对应的 account 点 md, 还有乱七八糟东西?那当然不是了,我们都用上龙虾了,我们为什么要自己动手呢?对吧?我们只需要在 pocky 的 cloud 里面给它下个命令就好了, 你直接帮我创建好这部分文件夹内容,我的账号名字叫 极简就行了,然后直接发送,然后你会大家需要耐心的等待一下,看一下他有没有在对应的位置给我们创建好这个对应的目录。 其实你已经通过 to 它的, to 你 的 to 库的这个,随便你到这些 c c 看看,你帮我创建好对应的人,然后让小耐心等待一下,然后这时候稍微加速一下, ok, 大家可以看到就是我们现在的这个,呃,龙虾已经帮我们远程创立好了这这些对应的文件夹和对应的文件还有目录等等。那接下来,其实,呃我就需要告诉他我的一些账号的信息,然后让他帮我直接更新那个文档就好了。然后我怎么跟他说呢?我就直接说我的账号 是 app 极简桌面的官号啊,极简桌面,面向的客户,面向的用户吧,是数码产品爱好者, 呃,它是一款可以自定义 iphone 桌面主题的应用。 呃,帮我更新,根据以上信息吧。以上 帮我更新对应的账号文档, ok, 然后我们只要发送就可以了。 然后这块我也会稍微加速一下, 然后大家可以看到他给我们这些回复的信息,就是我们的目前的这个账号信息,我们先验证一下对不对啊?首先账号定位就是极简桌面 app 的 官方账号,没问题,目标受众,数码产品爱好者, iphone 用户,喜欢个性化桌面的年轻人,他其实还帮我做了一些小小的补充, 然后产品和服务,极简桌面可以自定义 iphone 桌面主题的 app, 总结的非常精简和恰当啊。然后内容风格简约,高颜值,使用数码科技感没问题,对吧?然后最后呢,其他要求,禁止低质量内容重复搬运,必须高清,画质简洁,文案突出, app 功能推广,适当引导下载 app。 太好了,我简直比我自己写的还要好,对不对?那接下来我们要干一件事是什么呢?我需要给他传一些素材对不对?那接下来我会给他发送两张照片,然后让他帮我保存在我们的 resources 文件夹里面,然后直接让他给我们啊发送。 那么接下来我们就要给此次的发布准备一张图片了,因为实际上小红书是支持主要是支持图文的嘛,对吧?那我们去直接啊在这里面去,在 pocketcloud 里面,然后去发送一张图片就好了。我们再直接选择相册里面的一张壁纸,然后给他一个描述,这是一个极简壁纸, 帮我更新到呃资源文件夹, 并且更新对应的文档,然后我们直接发送发送就行了,然后我们过来看一下, ok, 直接发布。 但是这里我还需要提醒一下大家啊,就是有一部我们是必须要在电脑上操作的,是哪一部呢?就是很重要的一部,就是你需要让 open call 打开它的内置的 chrome 浏览器,然后你需要在那个浏览器上先去登录,因为为了节省时间,我之前已经登录,但是我还是建议大家先这样做,先帮 先帮我检查一下我浏览内置的浏览器是否已经登录, 我们让它去检查一下就是这个浏览器是否已经登录,如果没有登录的话,那么可能你还是需要去打开你的电脑去登录一下。这步确实是省不了的,没有办法完全通过远程呃 pocket cloud 的 操作来去完成这一步。 好, ok, 他 其实经过检查已经告诉我们就是浏览器登录了,然后直接发布, 然后他就开始执行下列的操作了。那我们等一下去检验一下,就是他有没有执行成功。 ok, 那 么到现在为止,关于小红书的发布,然后基本上就大家了解的差不多了,那可能很多用户看到这有一个问题,就是 ok, 你 折腾这么半天,然后你才发布了一条,那我还不如直接打开 app, 我 自己发好了。 但大家要切记啊,就是这个操作,它是自动化的,意味着什么呢?意味着你只需要一次性批量的准备好你的素材就好了,你懂我意思吗?就是你可能准备二十张图片,二十个视频,然后接下来二十天你就不用管了,它每天会走这个定时任务,然后执行这个 skill, 然后去帮你发布小红书, 这个是它最大的功能。我刚才上述的所有步骤,只是告诉你具体应该怎么操作,不是说你每次去发小红书的时候,你要人工地去用 pocketcall 去和这个 opencall 交流,然后让这样发,那不是对吧? 那不是有病吗?所以本质上我是想告诉大家,就是大家可以利用这个 skill 配合上定时任务,然后完全取代你的运营,然后你就可以自动地让它去编辑主题,编辑内容去发了。这就是我想说的关于 skill 的 一个用法 啊,大家也可以尽可能去尝试一下,然后关于这个 skill 的 一个地址,等一下我会啊,放到结尾, ok, 那 么今天就到这里,谢谢大家。

今天我们不谈安装,只谈架构,来看一下 opencloud 的 底层是怎么运作的。那 opencloud 的 本质实际上是一个围绕未构建的 agent 平台,它的核心就是在你运行在你电脑本地的一套网关程序。 get 位简单的来说就是一个调度器,负责路由和分发。比如说你坐公交车,人很多,车也很多,那你就需要一个调度中心去管理什么人去什么方向坐什么车。 open cloud get 位主要的功能就是负责路由规划状态的管理, 它一头连接着你日常常用的各种聊天工具,微信、飞书、 tabl 等,然后它会把每一条发给他的消息统一格式, 那一头连接着 agent runtime, 那 各个渠道收到的消息就会发给这个 agent。 如果消息非常多,他会建一个消息队列,大家排好队,一个一个地处理。 任务分配下来就会进入到 agent run time 中。你发的消息首先会跟记忆文件一起拼接成上下文给到大模型,那这里的记忆文件包含系统内置的 agent so 的 md 文件,也包含你的 log 日期,还有存在向量数据库里的内容。 大模型就会结合这些上下文去理解用户的意图,进行思考推理,同时还会调用工具和技能去执行任务, 最后再把消息通过 get 位返回给到用户。人工发送消息是主动的触发任务,同时这个系统还引入了 coin 和 heart beat 的 机制,这样就可以实现任务的定时触发,那你这个牛马就可以二十四小时不间断的干活了。 那这套系统的优势首先是多渠道的接入,接入了多个消息渠道,这样就可以不用守在电脑前,也不用守在应用前,发个消息就能干活。 第二个是定时任务,通过定时任务,在你看不见的时候, ai 也可以主动的做事,不是被动的响应。第三是记忆的本地化和持久化, 普通智能体的记忆是存在云端的,看不见也改不了。比如说在 gpt 里提到一件事,后面再做其他事情的时候,他可能还会反复提到那件事,就很烦,那存在本地,你就可以随意地增删改查,也不怕丢。看完架构图,我们再看一条指令在 opencloud 的 内部是怎么运转的。 首先,当用户发送一个请求,首先用 get 为网关来承接。这个网关就像是一个前台,它会迅速识别用户的一个需求,并且准确地把这个需求分发给对应的人的 round time, 这是整个执行链条的一个起点。 agent run time 会唤起上下文构造器,那这个构造器它一开始也不会盲目的行动,那它会在首先去 memory 记忆系统中先去解锁历史的。你是谁?哦?我们聊过什么?你能做什么? 结合这些信息,它会生成一条含金量非常高的 prompt 发送给大模型。那大模型拿到这个 prompt 之后就会开始进行思考,如果他发现纯聊天解决不了问题,就会发出指令,要用工具来执行任务, 工具返回的结果再会给到大模型,大模型会结合这些内容生成最终的专业回复,给到这个 run time。 在 消息返回给到用户之前, opencloud 还有一个非常重要的动作,就是他会把这一套消息再存入记忆当中去, 这个对话细节被存入记忆当中去,就可以确保 agent 下次遇到同样问题的时候会变得更加高效和精准。最后再通过网关的封装把这个消息返回给到用户。 这套 agent loop 的 核心机制是典型的 react 模式,模型会先思考推理,制定计划,判断如果需要外部数据,就会发起工具的调用, 再会根据调用的结果来判断任务是继续还是终止任务。那像 opencloud 这种本地化高度结偶的设计,会给开发者带来极大的自由度,这也是为什么它爆火的原因。那架子已经搭好了,能盖出什么样的房子,就看设计师的想象力了。

这是我用 openclaw 搭建的 ai 团队,他们各司其职,不用睡觉,能节省下非常多的时间,同时也做很多我一个人做不过来的事情。这期视频我想带你看一下我的 ai 团队到底长什么样,然后我们再一步一步搭建出属于你的 ai 团队。我们会讲如何创建一个 agent, 我们在 open cloud 里面,一个 agent 到底指的是什么? agent 之间如何相互协助,以及什么时候需要多个 agent 和最佳实践。好的,废话不多说,我们开始吧。我的团队里面一共六个选项题,其中四个是有定时任务的,就是每天的某个时刻都会触发他的任务,让他执行直到完毕,当然也可以随时跟他对话。 还有一个是几乎二十四小时期不间断工作的,还有一个最后一个,那就是你给他任务,他才会执行。第一个 agent 呢,是攻击 galk 啊,他每天负责给我情报工作,具体来说就是每天早上九点会提前搜寻 关于 ai agent 相关的技术的进展,产品进展以及用户的痛点。然后呢,把在网上搜寻的信息汇报给我。那么如果我不回答他,那就是明天继续给我相关的信息。如果我回答他,希望他对某一个话题进行深挖,那么他再去根据某一个话题再去搜索相关的信息为我展开。 那我的第二个 ai agent 是 auto 合理,它是我的私人助理和提醒助手,怎么用呢?我一般都是通过 diagram 跟它对话,这里我就不展示我跟它具体对话了,要涉及我的个人隐私。 一般来说,有任何的待做事项或者事情有着进展,我一般都会语音留给他,或者是打字告诉他,他都会记下来,某一单有问题就会问他,他都会翻出来告诉我待做事项是什么,事情到哪一步了, 同一次。同时呢,每天早上七点半,他都会告诉我今天的天气,然后今天要做什么,一步一步按重要性排序。它的作用就是完全替代笔记软件在我这里的作用。现在呢,我已经不用 notion 来记我事情,要做的事情,以及事情的进展了。 我的第三个团队成员,也是最重要的团队成员,就是 man, 一个狮子的形象。他呢,有最好的模型,有最高的权限,我主要用它来做两个功能,第一个就是日常的对话,我所有重要的对话,长期的计划都是跟他讨论的。 第二个就是一个视频流水线,帮助我制作视频。那么这个想法来自于一个叫做 alex finn 的 博主,本质上就是每隔几个小时,比方说我是每隔三个小时,他会去 x 上搜索我感兴趣的话题,比方说 ai 阵,比方说 open call, 比方说 ai 模型等等等等。有系列的话题。 他呢,就会看看哪些帖子现在比较火,或者是正在受到关注。然后呢,把整个的中文翻译和相关的数据都发到我这里来,包括原文的链接。如果我更感兴趣,希望用这个题材做一个视频,或者是有可能做一个视频呢,我只会点一个大拇指, 他就会进到我们的流程的。下一步就是他去研究这个帖子相关的背景信息,补充相关的背景信息给我,确保我了解这个事情的来龙去脉。那么如果这时候我再相关,我还觉得还是感兴趣,我再点一个拇指,他就会往下走,去研究怎么做这个封面图,或者给我一些脚本大纲的一些建议。 那么除此之外呢,如果我对一个帖子我不想做成视频,但它对我是有用的信息,我的时候可以点一下这个眼睛,它呢就会到我的收藏家里面去,可以看到。哎,这个帖子现在到我的收藏家里面去了,这里面就是我认为收集的比较重要的信息。除了 x 之外呢,它也会去搜索 youtube 和 hacker news, 看看每天大家都在讨论什么。这是我这样一个视频的辅助系统。我的第四个团队成员是潘大熊猫,他负责开发,他呢算是唯一一个几乎不休息的智能体。现在他有开发任务,但是当他没有开发任务的时候,他会增加测试,或者是自己去测试边缘情况,找 bug。 那 么关于二十四小时期,我特地特别想说明一下,想有好的效果,往往你需要用好的模型,如用云端的模型消耗 top, 二十四小时期会非常的贵。如果你用本地的模型呢,你大概需要买 max 九九,那么 也会造成非常贵。所以二十四小时成绩一定得是高价值的工作。对于我来说,开发是高价值的工作。除此之外,正在我现在正在做的还是有销售相关的,比方说做 seo, 或者是给我自己的产品做销售线索,找潜在客户。 我的第五个团队成员是 monkey 猴子,他只有一个作用,就是我丢给他一个视频链接,他把这个视频变成一个带截图的文章,因为我自己做视频,我希望重复利用自己的资源,这时候我给他我做过的视频,你可以看到他啊把相关的进行了截图,并且把整个视频脚本重写为可以发表的文章。 我的第六个团队成员,也是最后一个是 tiger 老虎,他负责安全和更新,他呢每天都会定期扫描一下有没有安全问题,然后有新的可以更新的版本也会通知我,我们一起讨论如果更新的话,会不会造成性能的退化和影响当前的任务。 那么如何创建一个新的 agent 呢?其实非常的简单,我们后来会看到整个 agent 的 结构,但是你完全不需要自己创立文件夹,最简单的方式就是跟你的主要的 agent 的 对话,让他帮你去创建。这里我们以 diagram 为例, 你通过 diagram 与你新的这个 agent 进行对话,这时候你可以告诉你主要的 agent, 你 跟他说,哎,新建一个 agent, 他 叫什么?他要做什么啊?有什么呢?任务最后呢,告诉他你新建的这个 diagram boat 这个 diagram 机器人的 token, 这 token 怎么获得呢?我们找到 boat father, 点击这个打开 boat father 的 app, 然后这里我们点击 create a new boat, 新建一个新的,然后这时候我们给他一个名字,比方说我们叫做 fox, 然后我们点击 create boot, 你 就会得到这个 tokin, 然后这里我们点击复制,然后我们回到这里来, 把我们的 tokin 复制上去,告诉我们的主要 agent, 那 它呢,就会自动帮你创建这样一个新的 agent, 新的智能体了。那么什么是 agent? opencloud 里面如何定义 agent? 它又是如何工作的呢? 其实啊,一共就分为三层,分别是全局层, agent 层以及 session, 也是对话现成层。我们首先看第一层,就是全局层, 它呢并不是一个 agent 独有的,而是所有 agent 共用的,可以理解为是公共设施。这一层最典型的文件就是点 opencloud 我 们的总文件夹下面的 opencloud 点这次文件,也就是总配置文件,大家可以打开看一下,里面有非常多重要的参数,包括 os, 也就是定义哪个大模型厂商,还有就是你的登录身份是什么? agents 定义有哪些 agent? 它的默认模型是什么?工作目录和运行参数是什么? tools 定义局的工具权限以及 agent 之间的调用规则。 bundings 定义什么来源的消息调用到哪一个 agent, 浏览器定义浏览器信息, chanel 定义 telegram, discord, 飞书等外部的渠道连接, gateway 定义网关, memory 定义记忆等等等等。可以看到 openclaw 点 json 文件,里面包含着 openclaw 最重要的参数配置。 其实啊,大部分情况下我们出现崩溃对话没有反应的情况,也是因为我们的 ai 去改 opencll 点 json 这个文件夹里的参数的时候改崩了,所以一个建议就是,哎,你告诉你的 opencll, 在 他改这个文件之前一定要提前通知你,而且改的时候一定要谨慎。 第二层是 agent 层,这才是每个 agent 自己的领地,每个 agent 啊都有自己的工作空间,系统数据会话记录。那么 workspace 里面每个 agent 文件夹下面的这些文件,在每个对话开始的时候都会被加载进去来作为这个 agent 的 上下文。 由于呢,不同 agent 这些文件有所不同,这也就决定了啊,这些被文件被加载进去的时候,里面携带的信息,包括啊,他的身份,他是谁,他的性格,他的对话方式,他的任务的不同。 那么这些文件呢,包括 agent 点 m d, 也就是这个 agent 的 工作说明书,它决定这个 agent 的 做事规则,优先级,边界,还有如何使用记忆。 so 点 m d, 就是 这个 agent 的 性格和说话方式,与其是什么风格,是什么,边界在哪里,由它来决定。 user 点 md 就是 这个 agent 对 用户的理解就是他在帮谁,对方是什么风格,应该怎么称呼,有什么偏好,要注意 identity 点 md 就是 这个 agent 的 身份卡,解决的是这个 agent 叫什么,是谁的问题。 to 点 md 是 工具说明书,告诉 agent 啊,本地有哪些工具命令,怎么约定项目里面有什么习惯? memory md 是 长期精华记忆,它不是流水上,而是提炼之后的长期信息。这个文件很重要,而 scales 里面就是这个 agent 专属的 scale, 如果和局的 scale 同名的呢,这里的优先级更高, 会覆盖大局。那么这些呢,都属于 agent 层,也就是说啊,不同的 agent 默认不共享这些文件,但是同一个 agent, 不 同的对话,不同的对话线程之间是共享这一套文件的。第三层是 session 层,这个层级啊,不是这个 agent 是 谁,而是这个 agent 当前在哪个窗口里面工作。 session 是 对话县城,怎么理解呢?比方说,当你在同一个 agent 和他对话,但是在不同 discord 里面的频道对话,或者是你先跟他在 telegram, 后跟他在 discord 对 话,这就是属于不同的县城,因为它们的渠道不同, 或者是就是你当前的对话,但是你打了命令 slash new 或者是 slash reset, 就 会开启这样一个新的县城,区别是 slash new 旧的对话还在,但是 slash reset 会清空上下文,重新开始这样一个对话界面。那么这一层最典型的文件就是在我们每一个 agent 的 下面 sessions 文件夹里面不同的 session 文件了, 也就是每个对话都有自己独立的这样一个文件来记录啊,不同的对话历史。也就是说同一个 agent 不 同 session 会共享 agent 层那一套的。我刚才说的 saw 点 md, 我 刚才说的 agent 点 md 等等那些 workspace 的 文件,但是不会共享竹字的聊天记录。 讲完三层结构,了解 agent 工作原理之后,下一个很重要的问题就是,哎,多个 agent 之间是如何协作的呢?在 open call 里面, agent 协作大体有两种方式,第一种就是固定分工,也就是我们刚才说到的多个独立的 agent, 各自有各自自己的 workspace, 有 自己的 session, 也是对话现场。 固定分工就是像搭一个长期团队,就像我展示的我的 agent 一 样,一个负责找资料,另一个负责写脚本,一个负责写代码,还有一个负责日常对话和汇总等等等等。他们每个人啊,都长期干自己的事情, 他们之间的工作啊,写作的方式可以通过触发的串联或者是并行,比如啊, agent a 搜完信息这里我在 disco 里面点个赞,后面的 agent b 就 会根据我点赞的这个内容去调研资料,去补充材料。 那么第二种就是临时拉 sub agent, 也就是子代理。子 agent 去干活,也就是 open club 的 sessions prom, 它呢会拉起一个隔离的啊。 sub agent prom, 也就是子代理的这样一个运行在独立的 session 对 话现场里面工作, 工作完之后再把结果传到我们当前的对话里面来,相当于临时叫了一个实习生或者是外包去隔壁的办公室工作,干完工作回来汇报。这样的好处就是当我们的子代理在独立的赛程里面工作的时候,他不影响我们当前对话的这个主位阵子,我们可以继续给他提问,继续跟他对话,两边同时进行。 那么官方文档对他的定位也很明确,就是他适合做研究,慢任务、重任务、病情任务,而且不会阻塞我们主对话。 比方说这里啊,我让他去用 sessions born 去开一个子任务,研究 open call 智能体最近最受欢迎的三个讨论点,要求每个讨论点的热度、原因,代表观点,以及我可以做视频用的切入角度,然后让他开始在后台启动,完成之后主动汇报结果, 好的,他已经启动了这个任务。其实这时候我们可以去跟他对话,比方说我问他今天天气怎么样, 他呢,还是会回答我们这个今天天气怎么样的任务,因为刚才我们也说了,子任务是在另外一个县城完成的,不耽误我们跟我们的主要的智能体之间的对话。可以看到他就是继续的跟着我们进行对话,他回答了我刚才的问题,然后我们可以继续提问,我说, 哎,可以看到我们等了一会之后,他终于是把这个任务完成,然后自己主动地把任务的结果发回到了我们的主要的频道。哎呀,没有影响我们刚才跟他这个主要频道主要的智能体之间的。对,不是所有任务都适合上多 agent, 如果只是一个短问题,那么一个 agent 往往更加有效,硬拆呢,只会让系统更重更慢。那么真正适合做 agent 的 场景啊,一般有这么几种,第一种就是你的任务天然就能拆开,比如啊,研究,写作,审核,发布,本来就是不同的角色,这时候拆 agent 有 不同的工作区的这种不同的文件边界会更加清楚。 第二个就是任务可以并行,有些事情呢,不需要排队,一个 agent 可以 查资料,另外一个可以同时整理结构。如果你用 sub agent 这种并行就很合适,那么刚才我们也说了,它很适合做这种比较重的或者重复性的工作。 第三个多 agent 呢,不只是为了分工,也是为了避免污染。因为啊,如果你用单 agent 做太多不同类型的任务,都会出现相互污染的情况,长期记忆呢,会把不该混的东西混在一起。因为我们也说了,工作区那些啊, markdown 文件是同一个 agent 在 不同聊天窗口里面共享的, 那么什么时候没必要用多个 agent 呢?那么很简单,要么就是你的任务很短,要么就是上下文高度连续,你不想打破,要么就是你角色的边界根本猜不清,就没必要拆。还有就是避免为了做 agent 而做 agent, 只是为了看起来很高级而已, 能一个做好的事情就一个做,就相当于是一个队伍,当一个任务需要一个团队来做的时候,那自然值得用团队。 那么关于多 agent, 为了达到好的效果,我想分享一下我自己得出的一些实践。第一个就是不要一上来,对于很多的 agent 可以 从一个开始,有必要就加第二个,比方说你第一个 主要的 agent 也是默认的 agent, 基础上你加一个研究 agent, 每天去搜索啊有价值的信息,定期汇报给你,那么先把这个逻辑跑顺出来,然后再根据你自己的业务再加一个,同样每加一个呢,都先跑顺功能验收效果。 第二个就是工作区的文件要尽量的短,尤其是 agent 点 m d, soft 点 m d, user 点 m d, 也就是心跳文件, 而因为这些文件都会进入 agent 的 运行上下文,如果太长的话会增加效果。考虑到你有多个 agent, 如果你不注意的话,那你的成本可能会成倍的增加。好的,以上就是今天的视频了,希望你也能开始搭建属于自己的 ai 团队,不要忘记点赞和关注,我们下期再见。