这是一个零基础的 openclaw 系统教程,我们从选择电脑安装 openclaw 连接聊天软件开始,到 openclaw 最基础的心跳和定时机制,再到如何让 openclaw 为你在浏览器上自动化工作,然后我们会讲如何将 tucker 消耗降低百分之九十五, 以低消耗为底气,我会首先毫无保留的介绍自己的 ai 团队,更重要的是我们会一起打造属于你的 ai 团队。为了更好的了解 openclaw 和多 a 阵的成本消耗,我还开源了 openclaw 格式化控制中心, 这是一个对往期视频教程的合集串联和总结,这里有理论,有实操,有应用,还有工具,千万别眨眼,我们现在开始从 零开始。第一章我们会讲到该选用什么样的机器来运行 openclaw, 我 们如何安装 openclaw, 如何连接我们的聊天软件,以及我们该用什么样的 a e m 模型。现在开始 openclaw 是 一个开源项目,那么每个人都可以免费的使用它,它本身呢,又是 mit 的 license, 也就是说你可以把它用在商用上, 或者是对代码进行修改,再用到商品上,完全没有问题。那么大家为什么对 openclaw 如此的有热情呢?这里有三个原因啊。第一个原因我认为是它主动性,很多工具呢,比方说你用很多无代码的编排工具,或者自己写代码做程序,你都要 定义自己的工作流才能完成任务。那么这里 openclaw 呢?很多情况下,你给他工具,给他权限,那么他自己去完成目标,而不需要你规定如何做。 第二个原因呢?我认为就是他有自己的记忆,他的记忆呢就保存在本地,通过我们不断的跟他对话,通过我们不断的啊告诉我们他我们自己的偏好和信息,他呢就会越来越了解我们,为我们的工作干的越来越出色。 那么第三个就是他可以用我们平时的一些聊天软件,直接对他远程进行指令,或者是接收他的结果和报告, 比方说啊啊 diagram, 比方说 what's up, 比方说 discount 等等,我也知道国内有人接入飞书、微信等等等等吧,这些都是非常强大的优势。关于安装和设置 opencloud 的 第一个问题就是我应该做一个云服务器,还是用在跑在自己的电脑上? 我知道有很多人在推荐用云服务器,那么这里我也想给大家说,你应该跑在本地的电脑上,我说一下原因,首先云服务器的优点,二十四小时不间断,也不在你这边,所以它跟你的工作环境完全的隔离。但是我想让大家是明白一点,就是 opencloud 的 能力是完美完全取决于我们给他的权限的,我们给他的权限越大,他能为我们做的东西就越多,当然也越危险。这个我们后面会提到, 那么看看我们 vps 的 缺点,就是首先最重要的浏览器,对吧?在我们本地的机器上,我用我真实的浏览器,我登录 啊,有我真实的拓展等等等等。那么有些平台呢,有非常高的价值,比方说 youtube x, bilibili, 抖音等等等,这些的平台都需要我们登录,都需要我们有真实的用户行为,但是你用 vps, 用无头浏览器做这些事情,就很容易被这些平台所封禁,那么有很多的限制。 第二点就是在 vps 中,你就不能够打开你本地的 app, 就 不能跟本地的浏览器进行互动,就不能对本地的文件进行一些操作。那么也就是说, vps 本地的文件以及浏览器这两个我们最希望他帮我们工作的事情,他都完全接受不了自己的能力,因此 还是推荐大家用本地的机器好。那么新的问题就是用本地的机器,我需要买一个新的 mac mini 吗?说实话不需要,但是如果你一直心心念念想买一个新的 mac mini, 现在确实是一个比较好的借口。 那么实际上 openclaw 它支持 mac os、 linux, windows, 那 windows 呢?主要是推荐通过 wsl, 也就是啊, windows 的 linux 系统来安装啊。 openclaw 确实最好的方式是你装在一个完全不同的机器上,但是它不一定是 mac mini。 如果你有一个旧电脑,比方说你有一个 windows 电脑,你有两种 比较常见的选择,首先你可以安装一个新的 linux 系统,在你的 windows 上,你就把这个旧的 windows 电脑当做专门的 ai agent 的 机器。第二个方式就是 wsl, 不知道朋友们 wsl 呢?它是本身是啊 windows 的 一个功能,它是允许我们用一行命令行代码直接安装 linux 子系统到我们 windows 里面,这样的话你就可以安装 opencloud 在 你的这个 linux 子系统下面了。这里我们后来会提到, 如果你安装 opencloud 到你的 wsl 里面,那么你要注意就是你要做好文件的隔离,否则它会有权限用你的看你的所有的 windows 的 文件, 那么如果你的旧电脑是一个 mac, 如果它是一个 m 芯片的,那么太好了,你就可以用它把文件处理完之后,作为我们的 opencloud 的 专门的机器。但如果你是英特尔的旧电脑,你要注意一下,你可以跑 opencloud, 但是呢,由于你英特尔无法升级你的系统到啊 mac os 十四以上, 但是有很多专门支持 open cloud 的 一些工具和 skills, 需要你的系统是至少是 mac os 十四的,也就是说啊,有很多功能你是没办法用的, 你的能力就不能全部被解锁了。那么如果你没有旧电脑,你只有一个电脑,这时候如果你的系统是 windows, 那 么跟我们刚才说的一样,你的选择就是你安装 wsl 二,用一行命令行就可以。 还是那句话,文件隔离一定要做好,一个常用的做法就是我们创立一些共享的文件夹,那么我们的 open cloud 只有权限去看这些共享的文件夹,那么我们呢,就可以从我把我们想要给他的文件放在这里面,以及把他生成的文件拿出来放到我们的 windows 系统里面去。 好,如果你只有一台电脑,这台电脑就是一个 mac 系统了,那如果你不想折腾,你就买一个新的 mac mini 吧,这里买最便宜的就好,就远远的对 open cloud 来说够用了。 好的,选完机器之后,我们就要来看如何一步一步的来安装 openclo 到机器上去了,其实相当的简单啊,就是到它的官网上去 复制这一行命令行代码,大家看到了吗?哎,复制,然后到我们机器的终端里去粘贴,然后,哎,静静地等它自己安装完成就可以了。 安装完之后他就会问你明不明白这里面存在的强大的风险,你明白。 然后呢,就有一个啊,快速的相当于是快速启动的这样一个程序,哎,这里就要讨论我们,你看他有很多的不同的大模型提供商供我们选择。这里这个问题还是蛮重要的,我们单独来谈一下 啊。首先呢,你想要通过云啊, ai 模型提供商啊来用它们的模型,而不是本地跑模型,有两种方式,首先就是通过 api, 第二种就是通过现有的订阅了。首先 api 啊,先说明一点,就是 open clock 真的 是非常的烧,我们的 talkin 非常的要注意这一点, 我们这里对比一下三个不同的模型,分别是 cloud op 四点六,被大家广泛认为是最好的 agent 模型, 还有就是 sony 四点六以及我们的 mini max m 二点五,它是性价比最高的模型,也是 open cloud 官方推荐的模型。你可以看到 mini max 的 价格实际上是,呃, opus 的 十五分之一,十六分之一是 sony 的 十分之一。 这么便宜的情况下,我给大家一个概念,我用了几天 mini max, 我 每天烧掉三十美元左右,你可以想想,如果我用了几天 mini max, 我 每天要烧到五百美元, 所以说它这个真的是不便宜。用 opencloud, 那 么这时候你会问,哎,不是还有第二个选择吗?就是我用我现有的订阅对不对?这里分为两种情况,如果你有 openai 的 订阅,就 gpt 的 订阅,你就可以通过它官方的登录或者授权的方式来使用 opencloud, 这是相对安全的,而且那么 opencloud 的 创始人不是也刚刚加入 openai 吗? 但是另外一种情况就是 ospec 和谷歌这两家呢,实际上是本质不支持你用它们的订阅来使用第三方像 opencloud 这样的工具的,他们呢,网上说很多人的账号也被封了,所以如果你是这样的话,你要注意一下。 好的,我们继续安装。来到这里,我们选择提供商。比方选择 openai 有 两种方式,要么是你登录,要么是你用 apikey, 对 吧?那么如果你是用的 apikey, 你 就要去 openai 的 官网上啊,用你 注册一个新的 e p i k, 或者是你用你之前已经有的。然后呢,是按量付费。如果你是选择 open icodex 就是 g p t 的 授权登录,它就会跳转出一个网页来,让你登录你的 g p t 的 网页 啊,这里你选择这里的账号登录就可以了。登录之后会让你选择模型,那么这里呢,我这里就用最好的模型 gpt 五点三扣啊。然后叉弟也会继续往下做,他会问我们要不要现在设置 skills。 skills 是 很重要的,才等于是啊,我们 open cloud 的 肌肉 对吧?它执行我们呃任务所需要的个工具。这里呢,你可以随时随地呢,想要把自己的 skills 都勾选上,那你可以现在跳过回来,自己在这里或者是在那个 web ui 那 里去进行勾选,这里它会问你一系列的 api 哦,这里我都会选择。 no, 我 们这里随时随地嘛,有需要可以随时再设置就是了,也不复杂。 好的,这样我们来到设置的最后一步啊,他问我们继续跟这机器人是在公屏里对话,还 是啊去我们那个网页 u i 进行对话,这里我就选择终端了,我们最视频最后会给大家展示如何随时随地的去网页 u i 进行对话,那么这里,哎,他就开始跟我对话了,我们就激活设置成功了,他问我们告诉他名字,角色, 他的工作风格,以及给他一个表情。啊,那么啊,这样的话我们就设置完成了啊,如果这时候你回到 diagram, 你 试图跟你的 ai 助理进行对话,你发现是不可以的,他没有回应,这时候我们就要复制这个命令回到我们的终端,然后我们粘贴这个命令啊, 哎,这样的话,我们的 diagram 和我们本地的 ai 助理 openclaw 才算是配对成功,这时候我们在 diagram 发一条信息, 可以看到,哎,我们的 ai 助理成功给我们回复了,那这样的话我们就可以在电报里面控制和对话我们的 ai 机器人了。好了,如果你不喜欢在终端里工作,那怎么办呢?哎,其实 opencloud 还有一个网页版的 u i, 这是我们运行命令 opencloud dashboard 之后就会弹出来这个网页,以后我们就可以在这个网页里面 啊直接跟我们的机器人进行对话了。在安装完 openclaw 之后,我们就要让他帮我们干活了。首先就是所有人都要用到的浏览器的工作,我们会借助四种方法让 openclaw 在 浏览器上为我们工作,分别是内置的工具, api 的 方法, 以及单独的用户档案的隔离的浏览器操作,以及完全接管你当前浏览器状态的方法。好的,我们开始。首先我们看 openclaw 以及内置的 web fetch 节点。 它的原理啊,就是一个网页抓取和论文提取的工具链,它用 http 请求去抓网页的内容,这是服务端的抓取啊,不依赖于你本地正在用的浏览器,也不会附用你任何浏览器的档案啊,资料啊, cookie 啊,拓展等等等等。它就是把 html 作为论文提取 玻璃调导航栏,页脚,广告,侧边栏等等的噪音。那么输出的是干净的 markdown。 它适合什么呢?它适合所有公开可访问内容主要在 html 里面的网页,比方说文章,博克,公告这些, 它做不了什么呢?哎,它不是浏览器,它没法执行 java script, 也就是说所有需要登录,交互,翻页,滚动点击,这些它都做不了。 它的优点啊,非常的明显啊,它速度快,成本低,因为它不需要启动浏览器,不需要渲染。它呢,适合二十四小时成期的扫描输出,更干净也更安全,因为它完全不碰你的个人浏览器,它不接管你的账户的登录态。 它的缺点也非常的明显啊,它看不到需要登录,需要 gucci 的 内容。那么比方所有的社交网络,它呢,不能执行 java script, 所以 需要互动的内容它都做不了。然后呢,它呢,非常容易受反牌机制和地域的限制。那么它的价值和使用场景来自于两个方面,不论是你做生意有竞争者,还是有对标者, 还是你想要学习或者某一个网站,那么你都可以第一时间。哎,关注到这个网站,爬取这个网站最新的定价的消息,它是不是有发布新的 i c u 的 文章,那么它,哎,有没有调整它的政策,这些你都可以第一时间知道。第二就是,哎,有些公开的信息啊,比方说你关注 ai 领域,那么 open ai, spatial, jin 奈他们的官方的 啊,文档,他们官方的网站的最新信息呢,都可以被你抓取到,你可以第一时间知道这些信息。除此之外呢,比方说去公开的网站啊, archibald, 如果你读文章的话,还就是维基百科, hack news 这些网站都可以公开地爬取。 它的缺点也是非常非常明显啊,任何的社交媒体上的高价值信息,尤其是需要你登录进去的有关于你的信息,它都抓取不了,不能够定制化。那如何设置呢?哎,完全不需要设置,你安装了 openclaw 之后,那 web fetch 工具就已经安装在内了,那么任何需要网络抓取的任务,没有其他方法的话,它都会默认走 web fetch 可以看到这里啊,我让他啊用 wifi 去抓任何关于 opencloud 的 啊,具有趋势的信息。那么由于呢,我这里已经安装了其他的方法,所以如果我只布置明道性的用 wifi 的 话,他就会去用我浏览器的方法了。那这个我们后面马上会讲到,你可以看到这里,他就会去 hackernews 上抓取 相关的 open cloud 相关的信息给我了。那么用内置工具最大的缺点就是任何社交网络它都做不了。那么由此我们衍生出第二种方法,也是不依赖浏览器的 skills。 那 么第二种方法,我们用的这个 skill 叫做 last thirty days, 本身上我们就可以规定一段时间内 啊,最低抓昨天的,要么就是三十天以内最多。我们去抓取社交媒体上 x, reddit, youtube 上最新的爆点,痛点,舆论趋势等等等等,它只是用来做抓取的这样一个工具,那么它的原理也非常的简单,就是广撒网,然后再聚焦 reddit 上的信息来自 openai 的 网络搜索功能, x 上的信息来自于 xai 的 网络搜索功能与 youtube 的 信息来自于 ytrdp 这个开源库。 首先啊,先搜索信息,然后对于这些高频的关键词呢,他就会再聚焦 subrading 或者是一个账号,再进行二次的补搜。最后啊,根据出现的频率和活动信号来做加权的总结。 那优点,首先第一个就是他三个主要的社交媒体平台都顾及到了,都抓取了,所以他后面呢,还可以对他们这些信息的来源进行交叉验证。 第二个优点就是它毕竟不需要浏览器嘛,所以它是个轻量级的方案,它第一个缺点就是它需要 api, k 就是 它不是免费的方案。第二个缺点呢,就是它只能做情报的获取,舆论的监控,爆点痛点的挖掘,对吧?它做不了任何浏览器,需要我们浏览器的操作,比方说鼠标点击啊 啊,比方说帮我们发表文章等等,它都做不了,那么这个是我们后来两种方法,依靠浏览器的两种方法,我们马上会讲到 令我提一举,就是这种依赖 a p i 的 方法,你完全没有必要用这个开源库,它做的不错,但是呢,你可以完全定义自己的算法,比方说 啊三不同的来源,你认为 x 最重要,那你就对 x 进行更多的加权。这些算法的制定,你就完全可以通过自然语言跟你自己的 open cloud 机器人兑换的方式来进行设定你自己的算法。 那么关于安装呢,有两种方法。第一种方法就是通过 cloudhub, cloudhub 可以 看成是 opencloud 的 市场,里面有各种各样不同的 skills, 你 可以一行命令直接安装这个 skill, 它的优点就是快速简单,对吧,受到官方的支持。缺点就是,哎,它呢里面的版本不一定是这个 skill 最新的版本,比方在这里啊啊,我们在我安装的时候呢,它 cloudhub 里面的版本是 v 一 点零这个 skill, 但是呢,实际上 github 上我看到它这个最新的版本是 v 二点一啊,所以就隐身出来我们的。 那第二种方法就是,如果你想看安装这个 skill 最新的版本,但是 clubhouse 不是 最新的,你可以通过 get 来安装,这个就要稍微复杂,稍微麻烦一些了。那么具体怎么安装,一步一步的,我遇到的问题我都放在免费的社区里了,大家可以去社区里面免费去拿。还有一点就是安装的时候一定要多跟你的 open club 问他问题, 因为每个人的环境有所不同,你遇到的问题也会有些不一样,最好是问你的 open club, 而不是网页版的 gpt 或者是 gmail, 因为问他,他很可能在回答的过程中直接跟你把你问题解决了,而不是你还需要去问网页端的, 然后玩一段 g p d 给你回答,你再粘贴到这里告诉你怎么操作。那由于取决于 api k 啊,所以我们还是要在安装完之后去到点 config last thirty days, 点 e n v 文件下面填入我们的 openix api k, 那 么因为它是个付费的这样一个功能,如果我不说多少钱就显得过说不过去了,对吧?那么每一次深度搜索呢, 大概是零点二美元,也就是 x c i 和 o p i 的 费用加起来大概包括 reddit 二十多个县城, x 啊,三十到六十个帖子, youtube 大 概四十个视频左右,每次搜索都会有点不一样,但是大概的费用是零点二美元左右。 这里有一个小 tips, 就是 一定不要用它来搜广泛的词,比方说 ai 这种词,用它搜尽量细致的关键词,比方说 openclaw 或者 openclaw setup 这种关键词才会有比较好的效果。比方这里啊,我让他用这个 skills 哎去给我找出这两天之内,大家都在讨论关于 openclaw 的 比较火的帖子以及痛点,比方说比较火的帖子,大家都在讨论安全问题啊,安全性啊,还有就是它记忆的管理,以及多个智能体的使用案例。 那么关于痛点呢,大家都在说,就是更新之后哈会有一些风险,还有就是可信的问题,安全性的问题等等等等啊,同时啊,他也可以看到他可以分析不同平台,他发现 x 上 啊是非常强的,大家在上面抱怨痛点, reddit 上呢,就会有更多的技术讨论,而与 twitter 呢啊,就是各种混在一起。 那么到现在为止,我们见识到两种方法都是无浏览器的方法,他们呢,可以抓取我们想要的信息,不管是社交媒体还不是社交媒体, 但是它还不能完全替代我们人类能在浏览器里做的所有工作。那么接下来我们就要正式建设两种新的方法,这种方法都依赖于浏览器 完全模拟人的操作,你能做什么,他们就能帮你做什么。好的我们来看第三种方式是由 openclaw 管理的浏览器,真正实现二十四小时期的浏览器自动化操作。它的原理啊,其实就是 openclaw 在 我们网关上启动一个谷歌浏览器的实力。 然后呢,你这是独立的用户档案,而不是附用你现有的浏览器的用户档案,所以呢,它有独立的拓展,独立的 cookie, 独立的缓存,都在这里面,你呢,可以手动的登录一次你的社交网站之后就可以一直长期服用了。 它的优点就是哎,它实现二十四小时长期非常的稳定,只要你的网关是开着的,那么它就可以直接跑,不依赖于你的日常使用浏览器是不是开着。 第二个优点就是它安全边界更清晰,因为它隔离了你的用户档案,它不会污染你平常你用来工作,你自己手动使用的日常浏览器的生态。 第三个就是它可控性强,你可以选择有头模式,如果你想要看到图形操作的界面的话,你可以选择有头模式,或者你可以选择无头模式,它自己在后面跑,对吧?它的缺点首先就是,哎,附用生态弱,因为它是新的一个用户档案,那么它不带你日常用户档案里那些插件啊,你的证书,那些密码管理器等。 第二个就是设备的一些风控问题啊,一些站点呢,对你这个新设备,你的新的这样诱惑档案可能会更加敏感,可能会容易触发额外的验证, 那么它的使用场景是什么呢?哎,你用浏览器做的东西都可以让它自动化来帮你做,只要你设置完之后,哎,用自然语言的方式告诉他,你想要什么时候触发任务,去做什么样的任务就可以了。那么如何设置呢?其实也非常简单,分为三步,第一步就把下面的 open cloud 点 json 文件里面,然后填入 这个关于浏览器的内容参数,直接照抄这里的就可以,然后控制有头和无头的是这个这个 handleless 参数一开始推荐大家是填 false 也是有头的,因为我们还是需要手动地登录,之后你可以登录之后可以把它调成无头的。 那么第二步就是,哎,我们去重启我们的网杆网关,然后呢,我们需要手动地弹出来,用这个命令手动地弹出来我们的谷歌浏览器。然后呢第三步,我们在弹出来的网页里面手动地进行登录,把我们的社交网站,所有的 x, youtube, ready, 其他的网站都登录一下。 登录之后,哎,我们就可以回来用自然语言的方式给我们的 open cloud 命令,让它去帮我们做任何浏览器的操作了。 比如说这里啊,我首先给他一个任务,就是每天的九点,他要去帮我生成一个报告,关于 open cloud 所有的报点和所有的新闻, 那么可以看到他返回给我们说他任务完成了,每天就早上的九点,哎,都会有这样一个定时的任务进行执行, 然后后面我要让他现在就给我输出一个报告,我们现在先测试一下效果。我们首先看他给我们的热门话题啊,跟啊前面的那个 skills 也差不多。首先就是安全性的问题,大家都在讨论,另外就是可靠性的问题, 还有就是哎记忆的问题,包括是各个多个智能体之间的写作的问题。那么关于痛点他发觉就不一样了,他发现了就是在社交媒体上自动化,比方说 x 平台 l 存在一些限制,大家都在讨论这个问问题,然后就是一些啊维修的问题啊,比较复杂,包括安全性。 然后他每一个社交媒体啊都会有一个总结,告诉他在这个社交媒体上发现的关于 openclaw 相关的话题,大家在这里都在讨论什么?值得注意的一点就是这种方法能做的事情远不止于去社交媒体搜集信息。 这里我们用这个搜集信息作为例子,是为了更好的对比四种不同的方法。但是呢,任何你在浏览器上做的工作,你都可以尝试让 openclaw 浏览器自动化来帮你做,只要你设定好边界和规则。 那么第四种方法就是我们也干脆不用一个单独的浏览器里面的用户档案了,我们直接敷用我们现有的浏览器,现有我们的登录,用我们现有工作环境的一切。 这里啊,我们就需要安装一个谷歌浏览器插件,那么这个插件的名字叫做 open cloud relay, relay 就是 中继嘛,本质上就是我们安装的这个拓展和我们本地网关之间的交流不是直接的啊,是通过 本地的中继作为桥梁来完成数据的传输的原理,不需要懂太多,哎,重要的是它的优点和缺点,对吧?那么它的优点最大的优点就是百分之百附用我们当前的啊,谷歌浏览器的档案,我们的 cookie, 我 们安装过的任何的拓展,我们有的证书等等等等,哎,都可以百分之百的服用,相当于去带你去操作你日常的工作了啊,而且呢,哎,你有什么问题你能直接看出来对吧?就在你的眼前,在你眼底的地下,抛做你平常的那些网页, 它的最大的缺点啊,首先就是不得不提的就是危险性,为什么?因为它完全使用你当前的档案进行操作啊,有什么问题要出了之后,哎,时间是影响到你日常的登录的网页,网站等等等等的。 第二个点就是它需要一些手动的操作,后面我们会马上设置,你就会看到,实际上每次我们还都要手动安装了这个拓展,之后,还需要手动的激活这个拓展才能够生效。 第三点就是他只能在你已经打开的网页上面操作,你没打开的网页,他操作不了,他能做什么呢?他直接可以当你的分身,他不仅是自动化,可以自动化工作,而且呢,你附用你当前的一切,直接帮你完成工作。 同时呢,哎,你你的登录,你之前的使用习惯,你已经在网站积累了一些信任,那么他呢,可以直接在你这个基础上直接帮你工作,他不能做什么呢?或者他不适合做什么呢?本质上他不是很适合二十四小时充气帮你工作,因为你看 它首先只能在你打开的网页上工作,不能去别的网页,对吧?其次你还要手动点亮啊这个浏览器,激活这个浏览器这个拓展,否则它就不能工作,所以这是比较麻烦的一些点, 那么我们如何安装它呢?首先我们来到 open clock 官方文档,大家谷歌搜索 open clock from extension, 就 会来到这个网页,往下拉有一个安装的一步一步的步骤,我们,哎,首先复制第一个命令,来到终端粘贴这个命令,然后执行, 他会安装,然后给我们一个地址,我们复制这个地址,哎,只要记住这个地址,然后我们浏览器右上角点击拓展,然后管理拓展,打开开发者模式,然后上传未打包的文件, 然后那个地址吗?还记得吗?哎,大家选择那个地址,打开文件,写完之后,他会问你一个 talk 对 吧?怎么获得呢?我们需要用到这个指令, 这个指令比较长,大家可以暂停截图一下啊,然后让 ai 识别出其中的文字,这个指令执行之后,我们会得到一个 token, 我 们复制这个 token, 然后粘贴到这里, 然后可以看到,哎,我们成功了,那么这时候我们打开任意一个网页,比方这里我们以 readit 为例子吧,因为它需要登录,也有比较高的价值。 我们这时候点开我们拓展按钮,把它给拼上,然后点击这个拓展,就会看到它有个 on, 说明生效了。这时候我们打开的任何网页,只要我们点亮了 on, 那 么我们就可以让我们的 open cloud 在 这些网页中执行任何 需要我们想要它做的操作了。好,那这里之后我们马上来试一下。我去另外一台机器的 diagram 里面,我让它去 read 里面仔细寻找关于 open cloud 的 热点和痛点。 那么可以看到我在另外一条信息上,他自己对这个浏览器进行操作,他去了这个 opencll 的 子板块找这点,然后他寻找 opencll 艺术来找痛点, 最后他总结出答案来回答了我。那么这次搜索啊,明显更加细节,针对 ready 的 这一个平台。当然这只是一个平台啦,大家也可以用在其他的平台,比方说 i x, youtube 等等一切社交媒体或者其他的网站上,只要你打开网页点亮都可以操作。 让 openclaw 帮你开始工作之后,在开心的同时,你会发现你的 tucker 消耗爆炸式的增长。为了真正让他帮我们无限制的干活,我们必须解决这个成本的问题。 在这里我们会介绍四种方法,在完全不牺牲性能的情况下,把我们 tucker 消耗降低百分之九十五以上。 好的,我们开始在讲方法之前啊,我们首先看一下到底是什么在消耗我们的 talkin。 实际上我们每轮给大模型的对话,我们发给他的最终不只是我们的问题,而是一整个工作包,包括了系统提示词,包括了工作区 workspace 的 一些文件,比方说 agent, user tools, memory。 这些文件 包括了我们的对话历史,我们跟 telegram, 我 们在 discord 上与我们 ai 对 话的时候,会有滚雪球效应,越来越多的对话历史,以及第四个工具的一些输出,比方说他抓取的网络的论文,比方说日制等等。第五个才是我们当轮问他的问题, 那么为什么会贵呢?因为每轮我们都要给模型说明书,相当于我们招聘了一个员工对吧?员工来了之后,我们每次跟他说话,都要把员工的手册,公司章程,岗位, sop 全都给他念一遍。之后我们再提出我们的问题, 他当然贵了,那么如何省掏开呢?一句话就是来说,把每轮的输入变短,变干净,变得更可控。 好的,首先我们来看第一个方法, q m d。 那 么传统情况下,我们需要把我们整个的笔记资料像填鸭一样整篇的给到大模型, 然后呢就会导致输入 token 的 爆炸。那么 q m d 呢?就是我们现在本地把 markdown 数据库建立锁引,那我们问问题的时候呢,只返回前几个最相关的片段和摘录, 然后呢只把这些片段注入给 open call, 也就是说模型不再读全库了,而是只读命中的那几段。那么它是如何工作?这个锁影库又是如何建立的呢? 这里分为两步,第一步就是 update 锁影的刷新,它会发现哪些文件新增了,修改了,删除了,然后它会更新分段路径和原数据,相当于是更新了目录。第二个就是向量的更新,也就是向量的投射, 只把新增的变化的片段生成向量,然后投射到向量数据库。在语义解锁的时候啊,计算向量之间的相似度,把和问题相关的向量提取出来。 这里的重点是这两件事情都在本地跑,而不消耗云端的 talkin, 也就是说啊, qmd 把云端 talkin 来用来读所有文件和信息的这个成本都转化为了本地缩影的成本。那么如何安装 qmd 呢?其实非常的简单, 最简单的方式莫过于你让你的 opencll 帮你安装,那么如果你想要自己手动安装呢,也就只有这三步。首先就是我们哎,首先运行这些命令到我们的终端里,安装 qmd 之后,我们去到 opencll 点 json 文件,确保我们的 memory 是 这个样子的, 然后我们就重启网关,这就结束了。还有一点值得提,就是其实啊, q m d 还允许你精确地控制你的预算,通过三个参数来实现,还是在我们的 opencloth 点 json 这个文件里面可以看到 limit 下面有三个参数, maximum result 是 最多可以注入几段 maxim snappy charts 是 每段允许多长,而 maxim injected charts 是 每轮总注入最多允许多长,也是总的预算阀门。 好的,现在我们来看第二个省 tokin 的 方法就是用本地模型跑心跳。首先啊,什么是心跳?心跳是 open clock 定时的唤醒行为, 他呢,按照你配置的频率,把 agent 叫醒一次,让他执行一段心跳清单。简单来说,他不是检查你的进程还有没有问题,而是一个触发行为, 他先读你的心跳。 heartbeat 点 m d 这个里面的清单,判断是不是需要做维护,是不是需要做提醒,是不是需要执行一些任务,没事就输出一个极短的确认,有事就要去执行任务。一句话来说就是 heartbeat 本身,心跳本身啊,就是走一次完整的 agent 的 这样一个回合。心跳是非常强大的功能,它有很多很多不同的用处,比方说它可以当监工,如果你给 open call 工作过,很容易会发现你给他一个特别长期的任务和目标, 他承诺做完之后,往往做一步他就会歇菜,他可能就不会往下推进了。这时候我们就可以使用心跳去定期的每三十分钟去刺激一下,触发一下我们 agent 告诉他完成任务了吗?没有完成任务之前不许停下来, 这样的话就保证了我们整个 agent open call, 我 们的 ai 助手有一致性,能保确保完成我们的长期任务,这是其中的一个应用。那为什么说心跳可能会花费很多淘汰呢?这是因为啊,每次心跳的输入通常啊,都会包含系统提示词, workspace 文件的输入,尤其是 memory 点 m d 和 agent 点 m d 可能会变得很大,还有可能的对话历史,对吧?还有就是 heartbeat 心跳本轮的提示词和清单, 所以啊,它的输出可能会很短,可能就是 ok, 没有问题,但是呢,输入可能会变得很长。还有啊,我们再算一笔账,就是如果我们心跳的频率是三十分钟每次, 那么这一个月就是一千四百四十次心跳,也就是说啊,又多了一千四百四十四克自动扣费的 agent 回合。那么如何减小心跳的成本呢?这里除了增大时间间隔这种常规的方法外,最根本的还是直接让本地的大模型,小的大模型 来跑心跳这种低智商的任务。心跳只用来触发,不用来执行任何任务。如果用本地的模型呢?大家呢,需要下载一个乌拉玛,然后根据你电脑内存的配置来选择哎相对比较好的 本地的模型,比方这里千万的各个参数的模型,然后大家可以去告诉 openclock, 心跳触发任务用本地的小模型来做。好的,下面我们来到第三种方法,也是最简单的一个方法,就是尽量用订阅,而不是走 api 用量。 最值得注意的一点就是很多厂商是不支持这么做的,比方说 osropic, 比方说谷歌,它们的订阅是严禁禁止使用呃,到 open cloud 这里面来的, 但是呢, open i 目前它收购了 open cloud, 所以 它们还是开放的状态。如果想要追求极致的稳定,走 api 用量而不走订阅呢?这时候你要注意了,如果你用最新的模型,不论是 osropic 还是 open i 的 模型,你的账单可能会成倍的增长。 我之前在视频里也讲过,我一天用 mini max 的 a p i 用量是三十刀,如果换算成 astropica 的 价格,最新的 oppo 四点六,这会耗费我五百美元一天,所以这个是要注意的。那我们先来看第四个方法,这是一个见仁见义的定制化的方法,针对你的 open club, 让 opencll 生成一个成本的体检报告,不用固定形式让他给你一份啊 top 级的消耗驱动清单,可以是百分比的形式,看看到底哪些任务最烧钱,那最高的消耗来自于哪里?还有就是找到不合理的地方,因为你刚开始用 opencll, 我 向你保证,你总是有很多任务是不合理的,比方说,明明是如果 a, 然后 b 这种由事件触发的任务, 他非要做成是按轮询制,每十分钟去看一次 a 有 没有被触发。有,其实有很多不可理的地方可以被优化。一句话,也就是说高的消耗不一定是必要成本,很多是流程和配置的浪费,这个我们要根据我们自己的用处和任务来杜绝掉。那么发现问题如何优化呢?这里可以分为流程 和模型两个方面,考虑流程方面能不能有一些轮询的任务,改成事件触发符不符合条件。然后就是我们刚才讲的 qmd, 也是一个非常好的减少上下文注入的一个方法。 第二点就是从模型方面,对吧?有一些轻任务能不能用用更便宜的模型或者小模型来替代呢?那么我们刚才说的用本地模型来做心跳也是一个非常好的方法。 最后就是由 openclaw 给出的任务清单,和它讨论有哪些任务可以优化来减少成。最后我们总结一下大幅减少成本的四种方法,分别是使用 k m d 大 幅减少上下文的注录 心跳,用本地的模型。第三个就是尽量用订阅,而不是走 api 消耗。第四个就是跟你自己的 open call, 让他列出所有消耗讨肯的任务,由大到小,然后跟他讨论优化的可能性以及如何优化,以低消耗为底气,我们终于可以搭建属于我们自己的 ai agent 的 团队了。 我首先会毫无保留的介绍自己的团队以及每个成员是做什么的,然后我们开始搭建属于你的团队,我们会讲基本的原理,什么是 agent, 然后 a 阵的之间如何合作以及一些最佳实践。我们开始我的团队里面一共六个指导题,其中四个是有定时任务的,就是每天的某个时刻都会触发他的任务,让他执行,指导完毕,当然也可以随时跟他对话。还有一个是几乎二十四小时期不间断工作的,还有一个最后一个,那就是你给他任务,他才会执行。 第一个 a 阵的是攻击 galk 啊,他每天负责给我情报工作,那具体来说就是每天早上九点会提前搜寻 关于 ai agent 相关的技术的进展,产品进展以及用户的痛点。然后呢,把在网上搜寻的信息汇报给我,那么如果我不回答他,那就是明天继续给我相关的信息。如果我回答他,希望他对某一个话题进行深挖,那么他再去根据某一个话题再去搜索相关的信息为我展开。 那我的第二个 ai agent 是 auto 合理,他是我的私人助理和提醒助手。怎么用呢?我一般都是 通过 dailygram 跟他对话,这里我就不展示我跟他具体对话了,要涉及我的个人隐私。一般来说,有任何的待做事项或者事情有的进展,我一般都会语音留给他,或者是打字告诉他,他都会记下来,某一般有问题就会问他,他都会翻出来告诉我待做事项是什么,事情到哪一步了。 同一次,同时呢,每天早上七点半,他都会告诉我今天的天气,然后今天要做什么,一步一步按重要性排序,它的作用就是完全替代笔记软件在我这里的作用。现在呢,我已经不用 notion 来记我事情,要做的事情以及事情的进展了。 我的第三个团队成员,也是最重要的团队成员,就是 man, 一个狮子的形象,他呢有最好的模型,有最高的权限,我主要用它来做两个功能,第一个就是日常的对话,我所有重要的对话,长期的计划都是跟他讨论的。 第二个就是一个视频流水线,帮助我制作视频。那么这个想法来自于一个叫做 alex finn 的 博主,本质上就是每隔几个小时,比方说我是每隔三个小时,他会去 x 上搜索我感兴趣的话题,比方说 ai 阵,比方说 open call, 比方说 ai 模型等等等等。有系列的话题, 他呢就会看看哪些帖子现在比较火,或者是正在受到关注。然后呢,把整个的中文翻译和相关的数据都发到我这里来,包括原文的链接。如果我更感兴趣,希望用这个题材做一个视频,或者是有可能做一个视频呢,我只会点一个大拇指, 他就会进到我们的流程的。下一步就是他去研究这个帖子相关的背景信息,补充相关的背景信息给我,确保我了解这个事情的来龙去脉。那么如果这时候我再相关,我还觉得还是感兴趣,我再点一个拇指,他就会往下走,去研究怎么做这个封面图,或者给我一些脚本大纲的一些建议。 那么除此之外呢,如果我对一个帖子我不想做成视频,但他对我是有用的信息,我的时候可以点一下这个眼睛,他呢就会到我的收藏家里面去,可以看到这个帖子,现在到我的收藏家里面去了,这里面就是我认为收集的比较重要的信息,除了 x 之外呢,他也会去搜索 youtube 和 hacker news, 看看每天大家都在讨论什么。这是我这样一个视频的辅助系统。我的第四个团队成员是潘大熊猫,他负责开发,他呢算是唯一一个几乎不休息的智能体, 现在它有开发任务,但是当它没有开发任务的时候,它会增加测试,或者是自己去测试边缘情况,找 bug。 那 么关于二十四小时期,我特地特别想说明一下, 但有好的效果,往往你需要用好的模型,如用云端的模型消耗 tiktok, 二十四小时期会非常的贵。如果你用本地的模型呢,你大概需要买 max studio, 那 么 也会造成非常贵。所以二十四小时成绩一定得是高价值的工作。对于我来说,开发是高价值的工作。除此之外,正在我现在正在做的还是有销售相关的,比方说做 seo, 或者是给我自己的产品做销售线索,找潜在客户。 我的第五个团队成员是 monkey 猴子,他只有一个作用,就是我丢给他一个视频链接,他把这个视频变成一个带截图的文章,因为我自己做视频,我希望重复利用自己的资源。这时候我给他我做过的视频,你可以看到他啊把相关的进行了截图,并且把整个视频脚本重写为可以发表的文章。 那么我的第六个团队成员,也是最后一个是泰戈尔老虎,他负责安全和更新,他呢每天都会定期扫描一下有没有安全问题,然后有新的可以更新的版本也会通知我,我们一起讨论如果更新的话,会不会造成性能的退化和影响当前的任务。 那么如何创建一个新的 agent 呢?其实非常的简单,我们后来会看到整个 agent 的 结构,但是你完全不需要自己创立文件夹,最简单的方式就是跟你的主要的 agent 的 对话,让他帮你去创建。这里我们以 diagram 为例, 你通过 diagram 与你新的这个 agent 进行对话,这时候你可以告诉你主要的 agent, 你 跟他说,哎,新建一个 agent, 他 叫什么?他要做什么啊?有什么呢?任务最后呢,告诉他你新建的这个 diagram boot, 这个 diagram 机器人的 token, 这 token 怎么获得呢?我们找到 boot father, 点击这个打开 boot father 的 app, 然后这里我们点击 create a new boot, 新建一个新的,然后这时候我们给他一个名字,比方说我们叫做 fox, 然后我们点击 create boot, 你 就会得到这个 talkin, 然后这里我们点击复制,然后我们回到这里来, 把我们的 talkin 复制上去,告诉我们的主要 agent, 那 它呢,就会自动帮你创建这样一个新的 agent 新的智能题了。那么什么是 agent? open class 里面如何定义 agent? 它又是如何工作的呢? 其实啊,一共就分为三层,分别是全局层、 agent 层以及 session, 也是对话现成层。我们首先看第一层就是全局层, 它呢并不是一个 a 阵独有的,而是所有 a 阵共用的,可以理解为是公共设施。这一层最典型的文件就是点 openclaw, 我 们的总文件夹下面的 openclaw, 点这次文件,也就是总配置文件,大家可以打开看一下,里面有非常多重要的参数,包括 os, 也就是定义哪个大模型厂商,还有就是你的登录身份是什么? agents 定义有哪些 agent, 它的默认模型是什么?工作目录和运行参数是什么? tos 定义局的工具权限,以及 agent 之间的调用规则。 bundings 定义什么来源的消息调用到哪一个 agent, 浏览器定义,浏览器信息, chanel 定义 telegram, discord, 飞书等。外部的渠道连接, gateway 定义网关, memory 定义记忆等等等等。可以看到 opencloak 点 json 文件里面包含着 opencloak 最重要的参数配置。 其实啊,大部分情况下,我们出现崩溃对话没有反应的情况,也是因为我们的 ai 去改 opencll 点 jason 这个文件夹里的参数的时候改崩了,所以一个建议就是,哎,你告诉你的 opencll, 在 他改这个文件之前一定要提前通知你,而且改的时候一定要谨慎。 第二层是 agent 层,这才是每个 agent 自己的领地,每个 agent 啊,都有自己的工作空间,系统数据,会话记录。那么 workspace 里面每个 agent 文件夹下面的这些文件,在每个对话开始的时候都会被加载进去来作为这个 agent 的 上下文。 由于呢,不同 agent 这些文件有所不同,这也就决定了啊,这些被文件被加载进去的时候,里面携带的信息包括啊,他的身份,他是谁,他的性格,他的对话方式,他的任务的不同。 那么这些文件呢,包括 agent 点 m d, 也就是这个 agent 工作说明书,它决定这个 agent 的 做事规则,优先级边界,还有如何使用记忆。 so 点 m d, 就是 这个 agent 的 性格和说话方式,与其是什么风格,是什么,边界在哪里,由它来决定。 user 点 md 就是 这个 agent 对 用户的理解就是他在帮谁,对方是什么风格,应该怎么称呼,有什么偏好要注意。 identity 点 md 就是 这个 agent 身份卡,解决是这个 agent 叫什么,是谁的问题。 to 点 md 是 工具说明书,告诉 agent 啊,本地有哪些工具命令,怎么约定项目里面有什么习惯? memory 点 md 是 长期精华记忆,它不是流水上,而是提炼之后的长期信息。这个文件很重要,而 skills 里面就是这个 agent 专属的 scale, 如果和全区的 scale 同名的呢,这里的优先级更高,会覆盖全区。那么这些呢,都属于 agent 层。也就是说啊,不同的 agents 默认不共享这些文件,但是同一个 agent 不 同的对话,不同的对话,县城之间是共享这一套文件的。 第三层是 session 层,这个层级啊,不是这个 agent 是 谁,而是这个 agent 当前在哪个窗口里面工作。 session 是 对话县城,怎么理解呢?比方说,当你在同一个 agent 和他对话,但是在不同 discord 里面的频道对话, 或者是你先跟他在 dailygram, 后跟他在 discord 对 话,这就是属于不同的县城,因为它们的渠道不同,或者是就是你当前的对话,但是你打了命令, slash new 或者是 slash reset 就 会开启这样一个新的县城,区别是 slash new 旧的对话还在,但是 slash reset 会清空上下文,重新开始这样一个对话界面。那么这一层最典型的文件就是在我们每一个 agent 的 下面 sessions 文件夹里面不同的 session 文件了, 也就是每个对话都有自己独立的这样一个文件来记录啊,不同的对话历史。也就是说同一个 agent 不 同 session 会共享 agent 层那一套的。我刚才说的 saw 点 md, 我 刚才说的 agent 点 md 等等那些 workspace 的 文件,但是不会共享竹字的聊天记录。 讲完三层结构,了解 agent 工作原理之后,下一个很重要的问题就是,哎,多个 agent 之间是如何协作的呢?在 open call 里面, agent 协作大体有两种方式,第一种就是固定分工,也就是我们刚才说到的多个独立的 agent, 各自有各自自己的 workspace, 有 自己的 session 也是对话现场。 固定分工就是像搭一个长期团队,就像我展示的我的 agent 一 样,一个负责找资料,另一个负责写脚本,一个负责写代码,还有一个负责日常对话和汇总等等等等。他们每个人啊,都长期干自己的事情, 他们之间的工作啊,写作的方式可以通过触发的串联或者是并行,比如啊, agent a 搜完信息这里我在 d 就 会根据我点赞的这个内容去调研资料,去补充材料。 那么第二种就是临时拉 sub agent, 也就是子代理。子 agent 去干活,也就是 open club 的 sessions prom, 它呢会拉起一个隔离的啊 sub agent prom, 也就是子代理的这样一个运行在独立的 session 对 话现场里面工作, 工作完之后再把结果传到我们当前的对话里面来,相当于临时叫了一个实习生或者是外包去隔壁的办公室工作,干完工作回来汇报。这样的好处就是啊,当我们的子代理在独立的赛程里面工作的时候,他不影响我们当前对话的这个主位阵子,我们可以继续给他提问,继续跟他对话,两边同时进行。 那么官方文档对他的定位也很明确,就是他适合做研究慢任务、重任务、病情任务,而且不会阻滞我们主对话。 比方说这里啊,我让他去用 sessions born 去开一个子任务,研究 open call 智能体最近最受欢迎的三个讨论点,要求每个讨论点的热度、原因、代表观点,以及我可以做视频用的切入角度,然后让他开始在后台启动,完成之后主动汇报结果。 好的,他已经启动了这个任务。其实这时候我们可以去跟他对话了,比方说,我问他今天天气怎么样, 他呢,还是会回答我们这个今天天气怎么样的任务。因为刚才我们也说了,子任务是在另外一个县城完成的,不耽误我们跟我们的主要的智能体之间的对话。可以看到他就是继续的跟着我们进行对话,他回答了我刚才的问题,然后我们可以继续提问,我说, 哎,可以看到,我们等了一会之后,他终于是把这个任务完成,然后自己主动地把任务的结果发回到了我们的主要的频道。哎呀,没有影响我们刚才跟他这个主要频道主要的智能体之间的对。不是所有任务都适合上多 agent, 如果只是一个短问题,那么一个 agent 往往更加有效,硬拆呢,只会让系统更重更慢。那么真正适合多 agent 的 场景啊,一般有这么几种, 一种就是你的任务天然就能拆开,比如啊,研究,写作,审核、发布,本来就是不同的角色,这时候拆 agent 有 不同的工作区的,这种不同的文件边界会更加清楚。 第二个就是任务可以并行,有些事情呢,不需要排队,一个 agent 可以 查资料,另外一个可以同时整理结构。如果你用 sub agent 这种并行就很合适,那么刚才我们也说了,它很适合做这种比较重的或者重复性的工作。 第三个多 agent 呢,不只是为了分工,也是为了避免污染。因为啊,如果你用单 agent 做太多不同类型的任务,都会出现相互污染的情况,长期记忆呢,会把不该混的东西混在一起。因为我们也说了,工作区那些啊, markdown 文件是同一个 agent 在 不同聊天窗口里面共享的, 那么什么时候没必要用多个 agent 呢?那么很简单,要么就是你的任务很短,要么就是上下文高度连续,你不想打破,要么就是你角色的边界根本猜不清,就没必要拆。还有就是避免为了做 agent 而做 agent, 只是为了看起来很高级而已, 能一个做好的事情就一个做,就相当于是一个队伍,当一个任务需要一个团队来做的时候,那自然值得用团队。 那么关于多 agent, 为了达到好的效果,我想分享一下我自己得出的一些实践。第一个就是不要一上来,对于很多的 agent, 可以 从一个开始,有必要就加第二个,比方说你第一个 主要的 agent 也是默认的 agent, 基础上你加一个研究 agent, 每天去搜索啊有价值的信息定期汇报给你,那么先把这个逻辑跑顺出来,然后再根据你自己的业务再加一个,同样每加一个呢,都先跑顺功能验收效果。 第二个就是工作区的文件要尽量的短,尤其是 agent 点 md, user 点 md, heartbeat 点 md, 也就是心跳文件 啊,因为这些文件都会进入 agent 的 运行上下文,如果太长的话会增加效果。考虑到你有多个 agent, 如果你不注意的话,那你的成本可能会成倍的增加。现在我们有整个 ai agent 的 团队为我们工作了,可是新问题又来了, 我们不知道谁在干什么工作,不知道谁卡住了,不知道谁在等我们,不知道后面有多少定时任务,也不知道哪些任务消耗了多少 tock。 为了解决这个问题呢,我开源了自用的一个 ai openclaw 控制中心,那么也有很多的小伙伴在帮助我在做贡献,一起把这个项目做的更好。那这里呢,我也想把这个项目介绍给你,你可以直接拿来用来监控你整个 openclaw 的 消耗和工作情况。 好的,我们开始 后啊,你不需要你手动安装,最好就是让 openclaw 帮你安装,可以往下拉,我给大家准备了这样一个特别大的 prompt, 根据你的环境,根据你的网关,根据你用的模型跟你的 agent, 根据你的情况来接入整个的控制中心,为你所用。这个过程不是一蹴而就的,每个人的环境都不一样,我们用的模型也不一样,但是呢,你可以让 open cloud 慢慢的把这个软件调整到你最想要呈现的状态,尤其是展现你最想要看到的信息。 首先第一个页面是总览,总览我只想说一个,就是这个健康分,大家可以看到现在是一百分,它由四个维度决定, 分别是审阅队列,就是有没有任务就卡住了,需要你人工审批才能继续进行。运行异常就是异常停滞执行,就是他在无效执行,他没有更新,他没有产出,但他一直在消耗着资源。 预算风险就是有预算有没有达到当前的百分之八十是扣分制,大概是每一项有一个问题就扣十八分,看到目前我没有问题。那么除此之外呢,其他的所有的信息在总栏里面都来自于我们左边栏啊,这些 信息的一些汇总。下一个是个特别实用的页面,就是看我们具体的用量,这里呢可以分为今天或者是累计的用量来看。对于我来说,因为我是订阅制嘛,所以具体的 talk 用量或者是估价对我来说都不重要,重要的就是有没有达到五小时和一星期的上限,那这里呢也可以看到。 其次就是很重要的是我们需要看到到底是哪些类型的任务在消耗我们大部分的 talkin, 就 这时候啊,可以看到这个统计对于我来说是 call 定时的任务消耗了大部分 talkin。 其次是在 disco 里面对话给他的任务, 那么由于定时任务消耗了最大的 talkin, 那 么定时任务又有很多,到底哪一些任务消耗了更多的统计?对于我来说,消耗最多的就是这个在 x 上搜索情报的这样一个任务, 因为它每三个小时就要出发,就要去操作浏览器,在我的账号里面浏览相关信息,然后再汇总给我,所以它确实是消耗最多的, 那么你可以看到整个的所有消耗的任务,然后你可以根据它的用量进行一些优化,哪一些可以去掉,那么哪一些呢?是需要保留或者是继续再把它减轻的?那么下一个页面就是 agent 页面,里面就有所有的你的 agent 当前的状态,有没有工作,然后最近的产出,有没有排班儿 等等等等。那么关于我的呃 a 证团队,每一个员工的工作去干什么呢?我在上个视频都说了,感兴趣的朋友大家可以去看一下,然后设置自己的 ai agent 的 团队。 那么这里还有一点我想说,就是往下拉,大家可以看到每一个 agent 它用的是什么模型,以及它的工作目录是怎么样的,还有它的权限是怎么样。下一个功能就是我们可以查看和修改任何 agent 的 记忆。 记忆呢,一共分为两种啊,一个是长期记忆,一个就是我们对话县城的对话记忆。我们还以 monkey 为例,那么这里 memory md 就是 猴子的长期记忆,看到这里我可以看到啊,然后这里我们也可以修改它的记忆, 那么你任何的下面带 session 开头的就是对话记忆了,也可以查看和修改。每个 agent 都有自己的人设,自己的性格,自己的语气,自己的任务, 那么这些呢,也可以查看和修改,这就是我们点击这个文档页面,我们还是以 monkey 为例啊,之前讲多 agent 团队的时候,我们讲过 agent 点 m d 就 定义了这个 agent 的 任务,这里呢,我们可以查看他的任务,然后呢,如果有不到的地方,我们可以直接进行修改,同理呢,你也可以修改其他的 markdown 文件,比方说心跳啊, tools 等等等。 最后一个功能就是看任务了,尤其是定时任务或者是心跳任务。这里我们点开我们的任务界面左边的半截,我们可以看到一共有九个有效的定时或者心跳任务,其中三个已经在今天还要继续完成,而六个已经完成了,明天会接着继续。那么右边的半截可以看到我们所有的心跳任务。 好呢,这就是我自己为自己的 openclaw 做的控制面板了,希望你呢,以它为起点,改变出你自己的风格,加入你自己想要的信息,或者是改变整个的排版。如果你看到这里了,那你绝对不可能是 openclaw 的 小白了,我鼓励你使用 openclaw, 在 你的业务中,让它帮你创造真正的价值。 这个视频啊,是一个终点,也是一个起点。后面我们会以此为基础讲更加进阶的内容,包括更加高级的记忆系统,包括二十四小时成期自动化带监控的系统等等等。 open call 有 很多话要说,有很多事要做,我们下期再见。
粉丝2.4万获赞10.1万

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

到这里小龙虾就成功诞生了, 我相信你最近都被 open cloud 给霸屏了,那么我们也来一期龙虾成长记,我将用一台新的电脑和大家一起从零开始围着龙虾长大,喜欢的可以点个关注,我们持续更新。 首先我们安装 node js, 这是小龙虾的底座,搜索 node js, 找到这个英文开头的官网,选择 get node js, 这里选择对应的系统,这里我选择 mac 之后下载, 下载好后我们打开进行安装就可以了。 我们打开终端,输入 note 杠 v, 看能不能输出版本号,现在底座就安装好了。 我们来到 opencloud 官网,这里我们复制 npm 安装命令,打开终端粘贴命令回车 小问题这里我们看一下。是什么报错,看不懂还是问 java? ok, 就是 一个写入权限的问题,只需要我们在部署命令前面加上 s、 u、 d、 o 之后输入开机密码就可以了。 输入开机密码,这里是不显示的,输入好后回车键就可以了,非常好。成功部署, 输入 open cloud 空格杠 v, 验证一下部署,看到版本号就是部署成功了,我们输入这行命令进行龙虾的配置, 这里的操作就是键盘方向键和回车以及空格键选择 yes, 回车选择第一个回车。来到模型配置,这里就以 minimax 来作为演示, 我们打开 minimax 的 大模型官网,这里有个 talkin 计划,在这里我们选择合适的订阅计划就可以。之后来到账户管理,这里也有一个 talkin 计划, 这里是获取密钥的位置,复制一下密钥之后回到刚才的终端,选中 minimax 模型回车,选中第一个粘贴 api key 回车 空格键,选择一个模型回车,这个是聊天频道的配置,这个我们之后让小龙虾去配置,就先跳过这个也跳过 这个是安装自带的一些 skill, 可以 全部安装上,虽然不一定能用得上, 下面这些可以参考我的来设置。 最后就是打开龙虾聊天框的方式,这里就是用 web ui 打开吧,把窗口拖过来, 我们随便说一句, hi 到这里小龙虾就成功诞生了。 这里再问我们给小龙虾定义的性格以及名字,这些我就直接粘贴之前用的这个小龙虾性格和设定。以上就是本期的全部内容,如果喜欢的话记得关注我们,后面会持续出相关内容,祝你顺利!

把微信进入 opencloud, 就 能随时随地让小龙虾给你干活。打开微信,依次点击我设置插件,进入 cloudbot 详情页,复制这串命令。电脑上还没安装 opencloud, 可以 参考前面这期教程,完成小龙虾的本地部署。 接着打开电脑,开始菜单搜索,并以管理员身份运行 power shell, 把刚才复制的安装命令粘贴进来。如果遇到无法安装的问题,多半是没有启动 openclaw 网关服务,只需输入 openclaw getaway start, 系统会弹出一个新的运行窗口,把它最小化,然后再次把安装命令粘贴进来。等待插件安装完成后,系统会自动生成一个二维码,使用微信扫码即可完成绑定。

今天我要给各位养虾人推出一个重磅的炸弹,就是傻瓜式的去布置多个龙虾。 那怎么去布置呢?我相信很多人对于养龙虾想要布置多个龙虾这件事情,已经在网上看了喝各种各样的教程了,各种大神分享,但这些大神他们都是技术大牛啊,对他们来说,那些把这个代码考到这边,然后怎么弄怎么弄, 这些都是很复杂的事情,对他们来说是超级简单的呀,但对我们这种小白来说,真的是操作门槛特别高。那怎么办呢?教你一个办法,就是让龙虾自己学会去布置多个紫龙虾。怎么去弄呢? 我相信大家应该已经知道了,布置紫龙虾这件事情在官方上面是有一个文档的,你把这个文档的链接直接原封不动的考给他,然后告诉他你去学会文档里面的所有内容,而且接下来我想要让你去帮我去布置多个龙虾。紫龙虾, 这个紫龙虾的名字叫什么?这个名字你自己去取啊,然后这个紫龙虾他主要是帮我去干什么,这个干什么的,这个你也是要去给他定义的好,完了之后呢,你还要去飞书上面去多建一个这个机器人, 那你原来那个机器人肯定是不能去呃,去调用两个这个这个龙虾的啊,你一定要是一个飞速机器人对应一个龙虾,那你原来的这个建的第一个机器人呢?他是跟你配对了,你的主龙虾就是全线最高这个龙虾。那现在你要再多建几个飞速机器人, 那你建完飞速机器人之后,不是会出现一个凭证吗?对不对?这凭证就是你的 id 和你的 id 的 一个密码,然后你把这个这两两个东西全部都丢给龙虾,然后告诉他,这个是我新建立的呃,机器人,你帮我去自动地去配置好我的紫龙虾。 好,那么接下来过一段时间之后,神奇的事情就发生了,他会真的会自动的帮你完全的把这个龙虾配置好。当然有的人可能会卡在他这个界面一直不动啊,有可能是被限流了或者怎么样,你可以再去问一下他,你帮我配置好了吗?那么过一段时间他会告诉你他配置好了,配置好了之后他还会告诉你,你还要操作一步就是, 呃,他要让你去配对,这个时候你要去你的飞书里面去跟你新建立的这个机器人聊天,你要跟他说你你好。然后这个时候,呃,你应该很熟悉了吗?他会出来一个配对的一个信息,你把这个配对的信息直接丢给你的龙虾, 然后跟他说你帮我自动配对, ok, 他 就真的可以帮你自动配对了。那如果你也卡在了这个配对的过程中,你就去继续问他,你说你帮我配对好了吗? 这个时候他会回答你配对好了,然后你再去你的飞书里面的紫机器人紫龙虾里面去跟他聊天的时候,你说你好的时候,他就会跟你回复,啊,你好呀,我是你的什么什么什么龙虾啊?我擅长怎么怎么样,我去干什么 啊?这个时候就已经成功了,你会发现没有,这整个过程中那些复杂的你不擅长的事情全部都由龙虾完成的。而你只需要做这么几件事情,一, 你要去建立飞书的这个呃机器人,对吧?因为这个呃龙虾他是没有权限的,你要去飞书里面去做,对吧?然后第二你要去给他取个名字,对吧?第三你要去给他去设定这个紫龙虾,他是要干什么,对不对?好, 这几件事情我相信对大家来说都是没有门槛的。好,完了之后啊,你还要去再做一件事情,你要去确认一下,因为有可能他第一次创建紫龙虾的时候,他没有去分配好 不同的记忆文档。什么意思呢?就是说有可能你的煮龙虾跟你的紫龙虾是共用一套记忆系统的,这个时候你要跟反复跟你的龙虾确认,你说 我现在是需要我的紫龙虾跟我的煮龙虾是存不同的记忆的,是拥有完全独立记忆的,以后你们俩的记忆不要互相串,但是权限最高的在于煮龙虾以后煮龙虾可以给紫龙虾开权限, 哎,这样子的话,你接下来以后他再去做这个紫龙其他的紫龙虾的时候,他就会记住你给他做的这个要求。当然很多人可能不需要做这部分啊,这个这个事情啊,因为有可能他第一次创建龙虾,他就已经跟你 已经分配好了不同的独立记忆了。之前的结奖里面我就已经跟你们讲过了,只有我这种小白,我从零到一自己摸索出来的人,我才最懂你们的痛点,你们就是很多东西你不知道怎么操作吗?对不对?那接下来我还会有一个系列关注我,我会持续的分享关于我这种小白是怎么样一步步从零到一养龙虾的?

今天我们来聊一下如何更换 opencloak 的 大模型,我们在安装完 opencloak 之后,选择配置了那个 opencloak 大 模型,有可能没有选择配置,那么现在如果我们要更换大模型的话,应该怎么来操作?好,我们先看一下当前我们的大模型是什么样子的,我这里的话,那个 opencloak 的 网关是没有随那个计算机启动来启动的, 那么我先来把那个网关给它启动起来,我这里的话通过网页来进行访问我的那个 openclaw。 好, 先打开那个 power shell。 好, 我先来启动网关。 openclaw gate way run 好, 到这里的话,我们的网关启动起来了,那么我们打开浏览器来访问我们的 openclaw。 好,我们的 wifi 口已经打开了,那么我们可以看到那个上面这里我默认的那个大模型的话是 deepsea 的, 那么这里的话是我之前配置过的那个大模型。如果现在我要新增那个其他大模型,或者是更改成其他大模型的话,那么我们也是可以来进行配置的。好,我们先把这个窗口给它最小化。 好,这里的话我们暂时不动它,我们重新打开一个 power show。 好,这里的话我们通过命令来更改那个大模型。 open close config。 好, 敲回车, 好,打开以后看到这个 mod, 这里那么显示的是 deep sec, 那 么当前我们的那个大模型就是这一个,那么接下来的话,我们就开始配置那个新的大模型,那么这里有两个选项,一个的话是那个 local 就是 本地的,然后另外一个是远程的,那么我们配置那个本地的就可以了。敲回车, 好,这里的话我们选择那个 mod, 这里就是上面这个是工作器,然后这个是 mod, 然后我们选择 mod 这里就行了。好,敲回车。 到这一步的话,就跟我们安装那个 openclock 配置的时候的那个选项是一样的了,那么我们这里的话就选择自己要 呃新增或者是改动的那一个大模型就行了,那么这里的话它列出来那个很多那个大模型,如果没有那个的话,我们选择这一项 custom provide, 这里就是自定义的进行配置就行了,那么我这里的话配置那个 kimi, 就是 我已经有那个 tipsick 了,我这里的话要配置这个 kimi 的 这一个大模型,那么我们敲回车, 好,这里的话就根据那个实际的情况,我这里是在那个就是点 c a 上面注册的,那么我们点这个就可以了,那么它的 t 的 话,我刚刚已经注册好了,那么我这里直接拷贝进来就可以了,我直接拷贝进来就是这一个。 好,点一下鼠标右键这个配置的话,跟我们在安装那个 openclo 的 时候的配置是一样的,我们敲回车就可以了。 好,那么它这里的话就有那个就是大模型的选项,就是下面有两项,一项是那个我新增的这个 kimi 二点五的这一个,然后下面的那个是那个 deepsea, 如果我们不显示 deepsea 的 话,我们把那个 关刀往下面移,然后我们敲一下空格,就他那个加号取消了,就表示不要那个大模型了,如果每一项都想保存的话,那么我们就保持它是一个加号的,这样就可以了,那么如果说不要的话,我们就把它取消,就是把那个加号取消就可以了,这个切换的话是通过空格进来进行切换的。好,把它选中 这里的话,我两个都保持就可以了。好,敲回车。好,这个我们往上移一点,如果还要继续那个配置大模型的话,我们选择那个 model 这里如果是不配置的话,我们就选那个 continue, 然后敲回车。好,那么到这里我们就配置完了,我们重启一下网关, open close get away restart。 好, 我们重启一下网关。 好,我们的网关重启好了,那么我们打开那个浏览器,然后我们刷新一下。 好,我们刷新好了,那么我们点一下这里,那么我们的那个 kimi 那 个大模型就已经加载进来了,它是默认的,我们要其他模型的话,我们就选择就行了,就是我们要哪一个模型来进行那个 以那个 openclaw 连接的话,我们选择对应的就行了,那么这个就是在那个 openclaw 里面,我们怎么来更改那个大模型的一个方法。

这几天烧了一个多亿的抽空,我的小龙虾从左边进化成了右边,这样养虾体验真的大幅提升。如果你刚装上欧文壳,强烈推荐和我一样开启这五个设置,搭配这四条快捷指令,让你的龙虾更听话更好用,还能省下一大笔抽空费用。 在设置之前,推荐大家把对话插件一定要切换到非主流官方插件,这样小龙虾能做的事情更多,直接发个小龙虾链接,让他自己给你安装切换就可以了。 前三个要开启的设置是流逝回复、耗时和状态展示,直接发给小龙虾这段指令欧文克勒默认是不开启流逝回复的,导致我们要等小龙虾输出完所有的内容才能看到消息,等待时间很长,而开启之后就能像我们平时和 ai 的 对话一样,看到实时输出。 接下来要开启的两个设置是思考过程和工具调用,默认这两项都是关闭的,我个人觉得这两项还是很重要的,如果模型执行任务出错了,我们通过看他的思考过程也掉了哪些工具,能帮助我们更好的去纠正他的行为,不然有的时候模型骗了我们都不知道开启方式,就是发送给模型这两段指令即可。 先给大家介绍一下这个快捷命令,这是 open call 官方内置的聊天命令,每一条背后都是提前设定好的程序,直接控制小龙虾的行为,不会调用 ai 大 模型而消耗 token。 第一个是 stop, 这是我用的最多的指令,因为小龙虾在执行复杂任务的时候,它偶尔就会卡死,很长时间我们都等不到它的回复,但实际上一直在后台燃烧我们的 token。 这时候如果你发消息叫他停下,你会发现他不会停。这是因为 openclock 有 消息队列的机制,我们的上一个消息没处理完,新消息就会在那排队等着,所以这时候就要用到这个命令,输入 stop, 然后强制停止他的推理,就可以继续跟他对话,把他给纠正回来。这个非常重要,如果你不会 stop 的 话,你的账单可能就爆炸了。 第二个是 status, 能查看小龙虾当前的各种参数,我经常用来去看 context 来判断现在上下文的长度。因为现在很多的大模型虽然号称上下文是两百 k, 但实际上用起来到一百五十 k 以后,模型就变得很笨,而且回复很慢了。所以我们不需要用到两百 k, 我 会差不多在 context 一 百多 k 的 时候,就搭配另外一个指令 compact 来主 动压缩上下文,它会让 ai 对 上下文做总结摘要,不仅节省了成本,又不会丢失关键信息。这个我也用的很多,因为小龙虾用起来上下文增长真的很快。第四个是 new, 我们要给龙虾一个新的任务的时候,可以用这个指令直接开启一个新对话,这样就没有之前的上下文干扰了。但我个人其实更喜欢用 compact 来压缩这个看大家的使用习 惯。为了方便使用这几个快捷指令,我把它们固定在了我的聊天界面,直接去飞书开放平台,在机器人自定义菜单这里添加这几个快捷键,展示形式选择悬浮响应动作选择发送文字消息,设置完成后修改并发布就可以了。那这期视频就到这里,所有指令我都放在了视频下方,希望能对你有帮助,也可以分享干货,我们下期见。

一分钟教你 open 科二本地话部署 open 科二怎么安装到电脑!最新方法来了,让你告别慢慢错,新手小白也能分分钟轻松养龙虾!话不多说,直接安排。首先我们打开视频右下角分享,左滑选择分享, 然后打开手机搜一搜,再搜一搜,搜索办公软件大师这个界面下滑,找到后选择进入,在文字栏输入关键词 open core 并发送,最后复制蓝字部分在电脑上打开就可以下载了。接下来是 open core 怎么部署到电脑的具体方法,这里加载完成,进入后选择立即部署 这个界面,稍等片刻,接着我们自动安装,然后等待加载好后进入文件夹里,打开 open com 安装包,选择合适的位置开始安装,等待完成后进入软件,在下方框里输入好, 接着下一步,在弹窗中选择确定。进入新的窗口后,这个位置有详细的安装教程,任何不懂的地方都可以查看教程解决。下面我接着演示 这里点击第一个安装大模型这个界面可以看到里面有六云大模型合集,质朴青年 deepsea、 火山 mini max 以及千问等等。这里就以 deepsea 为例给大家演示一下。我们选择这里的访问按钮, 进入新的页面后选择登录这里,我们填入内容后开始登录。进入后我们在右侧下滑找到这个选项,接着选择新建,填写好描述后选择提交。接着我们将鼠标挪动到这个位置,选择复制,将复制好的内容粘贴到刚刚的这个框内,完成后确定。 接着稍等加载,出现这个弹窗后选择确定。接着我们只需启动服务,启动成功后,上方的状态会显示正在运行,这时我们点击打开龙虾,进入后就能开始使用 open core 了。怎么样?这个简单靠谱的 open core 本地化部署方法你学会了吗?

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

opencall 不是 那种再来一个聊天框的 ai 工具,而是一个运行在本地设备的个人 ai 助手网关。它的核心逻辑是用一个中心网关把常用的消息服务直接连接到 ai calling agents。 简单来说,它不是让你去适配 ai, 而是把 ai 养进你最习惯的消息生态里,让它在后台替你办事,而不是单纯的开个窗口聊天。 对于第一次上手的人,最推荐的安装方式是执行 alama launch openclaw 这条命令最关键的地方在于它把整个流程全部自动化了,从环境安装、安全提示到模型选择,甚至连网关守护进程和搜索插件都帮你配置好了。这是目前最不容易翻车的路径, 能让你直接跳过复杂的环境配置,进入使用阶段。如果你更倾向于标准的安装流程,可以使用官方提供的安装脚本,直接在终端执行 curl 命令即可完成部署。这适合那些希望快速安装但又想遵循官方标准路径的用户。 如果你需要完全掌控安装过程,可以走手动安装路线。首先通过 mpm 局安装最新版 openclo, 然后执行 armo 的 命令安装守护进程。 这里要注意环境要求,推荐使用 node 二十四版本,二十二点一四以上也可以。系统方面,虽然三大平台都支持,但 windows 用户强烈建议在 wsl 二环境下运行,这样稳定性更高。 最后一定要跑一遍 version doctor 和 gateway status 这三个验证命令,确保网关状态正常,避免后续配置时出现莫名其妙的报错。安装完成后,首先执行 opencloud channels login 完成身份验证, 接着运行 openclock gateway, 并指定端口幺八七八九来正式启动网关。启动后,你可以通过浏览器访问一二七点零点零点一端口幺八七八九进入本地管理仪表板,所有的核心配置都存储在用户根目录下的 openclock 及 java 文件中。到这一步,你面对的就不再是一个简单的本地模型, 而是一个能够接管多种消息入口的 ai 网关。这里必须强调 opencloud 的 安全逻辑,它采用的是单用户信任模型,而不是那种多人共用的共享总线设计。这意味着它假设使用者是唯一可信的人。如果你把一个带有工具权限的 agent 开放给多个互不信任的用户, 任何一个人都能在权限范围内影响这个 agent 的 行为。为了避免这种情况,最稳妥的办法是在操作系统、用户主机或者网关层面做物理隔离,确保每个人拥有独立的运行环境。 接下来是关于插件的严重警告。 openclaw 的 插件是以 in process 方式加载的,这意味着插件运行时的权限和 openclaw 主进程完全一样。简单来说,安装一个不明插件就相当于把一段未知代码直接接到了你的网关大脑里, 它能做你系统里所有 openclaw 能做的操作,所以千万不要随意尝试陌生插件。建议在配置文件中使用 bug 四段,把可信的插件 id 盯死,只允许运行白名单内的代码。 最后,在性能配置上有两个关键点,第一,本地模型的上下文窗口至少要设为六十四 k, 否则在处理复杂的消息线程时, ai 会很快忘记之前的对话内容。 第二,如果你想让 ai 具备联网搜索能力,除了安装 web search 插件外,还必须先执行 olama sign in 完成认证。只有满足了足够的上下文和正确的认证,这个网关才能真正稳定地获取实时信息并维持长对话。 为了让新手能稳步上手,建议把部署分成几个阶段,第一天,先用 alamo watch opencloak 把基础环境跑通。第二天,不要急着接太多平台,先通过 configure 命令连接一个你最常用的消息渠道,确保链路畅通。 第三天,进入权限收束阶段,你需要修改 opencloak json 文件,设置 allow from 次段和 main 规则, 防止网关被无关人员随意触发。第四天,执行深度安全审计,运行 security audit deep 命令检查潜在漏洞。如果发现问题,直接加上 fix 参数进行自动修复。只有完成了审计,这个 ai 助手才算真正安全。 如果你处于共享私信或者共享收件箱的复杂场景,需要特别注意绘画隔离,这时需要配置 session csv 参数,将其设置为 per channel peer 或者 per account peer, 这样可以确保 ai 在 处理不同用户的消息时,绘画记录是完全隔离的,不会出现信息穿线的情况。


登录网址,网址在评论区八十八米一年比较划算,不够后面还可以升级。然后就是购买,一直点点默认配置基本不用动, 自带龙虾镜像,别自己选错了。 下一步扫码支付,等待服务器加载,点击配置,依次进行模型。通道技能的选择, 这里选择你要连接的通道,根据提示配置即可。 最后可以在这里安装技能,点击这里可以到龙虾技能库复制域名尾缀粘贴回去搜索就可以安装了。粘贴在这里搜索, 安装成功,点击这里,这个会进入一个网页端的龙虾,如果不想配置通道也可以这么用,里面有一些组合好的技能选择,就自动安装了, 测试已经完成了。

一分钟教你拥有多个龙虾!你看了别人有好多龙虾,因为他们搞了很多的耳蜗壳螺。不是大多数情况下就一个耳蜗壳螺,关键在两个词, multi agent 和 sub agent。 先说 multi agent 它是什么?就是你真的多了一个龙虾账号。每个龙虾都有自己的工作目录,自己的配置,甚至可以绑定自己的飞速机器人。怎么创建终端?一个新的指令加一个新的 agent, 剩下基本一路回车就行。 创建完以后呢,你就会看到配置里多了一个 a g 的 列表,网页里面也多了一个新的龙虾。接下来这一步啊,很多人都会卡通讯,如果你想要不同的龙虾分别对接不同的飞出机器人,核心呢,就三件事,第一个,给每个机器人一个独立身份,记住别重名。 第二步,把 a g 的 和机器人绑一起。第三步,测一下能不能单独对话。注意,官方目前不支持多个机器人在同一个群里相互聊。所以呢,别一开始就幻想十只龙虾群哦, 那 serving agent 呢?你可以把它理解成员工,它不是一个独立的龙虾账号,它是某只 multi agent 的 临时叫出来的临时工,开得快用得快,干完就收。一句话总结区别, multi agent 是 指的是独立的个体,适合长期分锅。比如说一个专门写代码,一个专门写文案 service 的,是一个临时员工,适合一次性的任务。比如说这次让他查资料,下次让他改文案。评论区留多龙虾,我把最小的创建流程加飞速绑定要点发你,你更想用多个龙虾做分工,还是想把一个龙虾的工作留跑通?

给大家简单科普一下,就是龙虾他一般包括几个东西,一个呢就是龙虾,他有一个这个 啊,他自己这个软件本身是免费的开源的,就是龙虾这个软件是不要钱的 啊,这个是第一个步骤,然后第二个呢,要用龙虾的话,你必须给他找一台服务器,你可以是本地自己的苹果电脑啊, windows 电脑都行,但是最好的本地电脑的话是那个 mac mini, 所以 为什么他卖脱销了?还有第二种方法,就是我们租云服务器 啊,那像目前的话,我租的是腾讯云的服务器,然后六十块钱一个月,然后第三个,这个很重要,第三个就是 要给那个龙虾配大脑,就是配智商,我们就把龙虾当成一个 ai 员工就好了。好,这个配好之后,第二第四个你要给跟龙虾建立一个沟通方式啊,它可以是非某书,可以是微某信 啊,然后呢,丁某丁啊,现在我们各位都已经接入那个龙虾了。好了,这这四个相加起来其实就等于一个完整的龙虾了啊,好吧,所以本身龙虾是免费的,但是呢,这两个步骤是要花钱啊,像这个的话,我目前是六十块钱一个月 啊,然后这个的话,目前大概是,呃,一千块钱一个月,这个因人而异了,有的人可能几十块钱一个月,有可能,有的人可能几千块钱,甚至上万块都有可能,他根据你的任务量以及你用的这个模型的这个难度来的, 对,花的越多就用的越多,花的就越多啊。然后这第一个啊,第二个呢,就是啊,我们讲一下那个龙虾跟豆包的区别,大家应该有印象吧, 就是豆包更像什么呢?更像一个临时工,就是豆包他的记忆是比较短的,可能就几天,你 把你跟他聊聊了一天两天之后,你会发现前面你跟他讲的事情啊,或者是上周跟他讲事情,他不记得了,这是因为他的这个记忆是比较短的,对,他大概就一周的记忆,对他如果太长的话会干嘛呢?会导致那个 就是他的算力偷啃,消耗非常多啊,那大厂为了节约成本,他是不可能去做这么大的这个存储的。对,毕竟是免费的啊。那龙虾第一个好处就是他是长期员工啊,他是永久记忆,越用越懂你, 这是龙虾的第一个大的优点。然后第二个就是豆包,它属于这种相对被动的,就是我们啊,让他动一下,提一个问题,他就回个答案给你 啊,他不会说主动的去问你,或者主动去干活。但是龙虾不一样,龙虾他可以主动干活,你比如说像我们每天要写日报,每天要去 啊,写笔记,这种时候龙虾就可以每天定时提醒你,或者是说你每天让龙虾去帮你去联网搜索一些这个你的行业那些信息,动态的信息,你的竞争对手的信息,这种每天要重复做的定时任务的话,龙虾就可以搞定。 对啊,然后呢,第三个是这个权限方面,就是豆包这种,他只能控制他豆包浏览器那端的, 但龙虾不一样,龙虾可以控制你的电脑,你的浏览器,还有你的这些文件。但是这里也带来一个风险,就是 他的权限太大了,他就有可能会数据丢失,哎,删除你的数据啊,或者是可能把一些你不想要的数据上传到。对啊,你的饮食数据上传到云端,所以他也是有好有坏,好处就是他权限更大,可能干更多活,但是坏处就是确实有些数据风险的问题 啊。然后豆包还有一个豆包,就是就是你单页面只能单页面干活吗?对不对?但龙虾他可以干嘛?他可以搞很多个龙虾在一起,然后呢?龙虾拉到群里面,然后还有把你的真人同事拉到群里面一起写作。这个我是觉得龙虾比较牛的地方 有鞋做工工的。对,然后另外一个说他技能啊,技能就是豆包上面的技能的话基本有豆包来啊,自己封装。那你龙虾的技能呢?你可以自己无限叠加啊,你在那个捞哎, 克拉哈上面可以装非常多的技能,有几千个啊。所以你可以理解为豆包是别人培养好的员工啊,你短期有事情时候聘用一下。然后呢?我们克拉是自己培养的啊,自己培养 啊,然后不见得说你的你培养就比他的好啊,我觉得绝大部分人培养的不如他。对,所以这也是我建议,如果是新手小白没有用过豆包,那些都还没用好的话,没有必要着急上龙虾啊, 这个大家理解了吗?理解了,敲敲六六六,我们就往下走。对,所以刚才总结了下那个龙虾有几个大的优点,就相对于豆包啊,第一个就是永久记忆。 那这种时候适用于什么场景呢?就是比如说你,你的这个任务是要长期持续的,你比如说我们做健康管理这种事情,你比如说你想要在一年时间内把你的这个体重可能减到一百五啊,一百四要长期监督的,或者是你有一个 啊,某个病吧,你要长期跟踪监督的,或者是你的心理的问题要长期跟跟踪的。那这个时候啊,龙虾就很好用,但是你如果只是平时不小心有一天感冒了啊,像我最近感冒发烧了这种的话就没有必要 啊,但是像我工作这种啊,一年的公司的经营就很有必要啊。第二个就是龙虾他是可以高度定制的,包括他的技能 啊,包括他的人物定位,就大家一定要把龙虾定义为是什么?定义为是 ai 员工,对属于自己的员工啊,就是把龙虾理解为 ai 员工,整个事情理解就轻松多了。那龙虾进来第一件事情其实是干嘛?我们是要写一个岗位说明书,告诉龙虾 你进来你的职责是什么,你的岗位是什么啊?你要帮我完成什么事情?对,你能做什么?等一下我们再讲一下那个龙虾,就是龙虾装好之后下步要怎么去培养龙虾的事情 啊?对这龙虾第二个优势,然后第三个优势就是龙虾是可以拓展技能的,你比如说他原来没有办法联网搜索信息,没有办法帮你做网页这种,他都是可以去拓展去学的 啊,根据你的需要自己去去弄,所以相当于是个组装的 ai 员工啊,然后豆包是别人已经装好给你的成品拿来就用 啊。第四个就是它有这种主动干活的这个功能啊,第五个就是可以人机协做,好吧 啊,这里我们就快点过一下,然后龙虾的话有有几个风险,就是我们不能只说好处不说坏处,对吧? 对,第一个就是,哎,他费用还是比较高的,每个月都有费用,对你你用起来至少每个月一百块钱都是打底的。嗯,然后呢?用高了就不上线了,但是我觉得如果你大量用的话,一个月至少还是要一千到三千。 然后这里来自于两大块费用啊,一个是这个服务器,就是你理解为是房租嘛?对,等于给员员工租房子啊。第二个是抖量的,就是你给他配那个 ai 刷立投肯的,然后这一块占了百分之九十五,这块百分之五。 然后龙虾第二个风险什么呢?就是还是有一些数据隐私的问题,比如说他不小心误删了,误删了,或者是他听你的指令听错了,听错了,他把你的那个数据删了,那就很麻烦。所以我们为什么说新手 一定要注意,干嘛一定要注意数据安全?对啊,不要轻易把你本地的这个文件授权给他。第二个是有些关键的资料提前做好备份 啊。第三个呢,就是技术门槛比较高啊,我看有没有那个咱们直播间有没有用过那个龙虾的,然后用龙虾之后发现龙虾挂了,怎么喊都没有回应了, 有吗?然后怎么都救不活,有吗?有,扣一下五五,对,有吗?我跟大家讲我用龙虾,我后来发现我说的最多重复的一句话是,你好在吗?在吗?在吗?然后他都不回复,龙虾老是我,那龙虾老是挂它有两个原因,最主要的原因还是那个 api 不 稳定, 因为 a t i 为了省钱走了那些中转站,然后不稳定它老是断。第二个是有时候那个服务器啊,也会也会挂,然后就会导致它那个停,对吧? 你看教大家怎么去抓龙虾,抓龙虾其实非常简单,难的其实是干活,对,就要去如何去训练它 啊?啊?对,刚才讲了几个费用啊?一个是这个租房费,也就是服务器,你要么去买 mac mini 四千块钱,要么就是租云服务器,几十块一个月啊,然后这个大大大模型这个费用就很高了,几十到几千都可能,安装就很简单。等一下我们可以直接给大家实操一下 啊。 ok 啊,我们讲一下就是怎么去用好龙虾 就用好龙虾。其实我们第一个就是有一个思维定义,叫做什么呢?你要把龙虾当做一个 ai 员工,新入职的员工啊,新入职的员工,那第一件事情其实我觉得是要给龙虾做一个介绍,岗位说明书, 岗位说明书你要告,告诉就是你不要想着一一只龙虾帮你干所有的事情,这样会有个很大的问题,就是龙虾他会很晕。第二个是那个上下纹太长,你的蒜粒消耗非常大。 第三个是上下文太多,会太杂的话会干扰他啊,所以最好是一只虾装港装虾。嗯,第一个是港务说明书,你比如说你是让他做文案呢 啊?还是说让他去做这个 ceo 助理,对吧? 第二个要给他干嘛?公司情况,对,告诉他你目前是什么情况。第二个是公司情况或者个人情况介绍,就是新员工进来,他不可能一开始就干活吧?你要互相了解对吧?他要知道他的上级是谁,他的 这个公司这个整体情况目标什么的,对,了解公司的组织架构。对啊,然后第三个呢 啊给他吃掉了,第三个你要跟他确定好这个流程就是他日常做的这些事情的流程。呃,一会也会讲一下豆包啊啊,然后第四个就是干嘛就是要给他装技能了,装技能 啊,然后第五个是要持续迭代,持续学习啊,持续学习迭代啊,龙虾的好处就是它可以持续迭,持续学习迭代,然后呢数据越纯会越多,然后他就越懂你, 越理解你啊,所以龙虾其实就是把它当成员工就好了啊。再看大家理解吗?理解敲敲六六六。好吧,大家知道怎么装龙虾吗?哦对我还给大家讲一个很重要的东西,我给大家讲一个非常重要的东西,就是为什么龙虾大家会觉得很难, 因为龙虾在这里它属于第五级,就是其实龙虾本质上它它的属性属于什么?它属于智能体, 大家理解吗?大家知道这种题吗?知道敲一,不知道敲零就是要用好龙虾。其实有几道坎要过,第一道坎就是 你熟不熟练应用大模型,比如说像豆包啊,比如说像那个 deep sea 啊,对吧?这是第一个普通的对话,然后第二个 你懂不懂写提示词?对,懂不懂跟他一起跟他对话,然后这个在进阶就是你会不会用提示词去搭建这种提示词的智能体啊?这三个都还算简单一点,然后再进一步呢,走到工作流智能体 啊,那这里到时候就要搭配上,在这里头其实这是裤已经是搭搭建上了,然后到这里时候还要搭配这个 skill 这些的,然后最后才到这里,然后很多朋友觉得很难的原因是什么呢? 有两个,有两个要素,我觉得第一个是很多人可能还在这个阶段直接跳到这里了, 所以跳的时候你会感觉非常吃力,对啊,这是第一个,第一个坎,所以这里我觉得应该是 ai 基础的问题。然后第二个坎呢,很多人可能没有带过员工或者带过新同事 啊,所以他没有这样的概念,他就会比较难,所以这是为什么龙虾会觉得很难啊?然后我自己的几个养虾经验啊,给大家讲一下。我自己养虾的, 我我养了五只虾,然后呢,一个是 ceo 虾,一个是健康虾,还有一个 ip 虾,一个出出虾,一个 guo 虾,然后健康虾呢,主要是管理我这个身体跟心理的健康 啊。 ceo 虾呢,是帮我管理公司的,给我出谋划策,算是我的那个 ceo 教练吧。然后 ip 虾是帮我去写文案的,监监测我那个做 ip 的, 然后出出虾是辅助我写书的,还有个焗油虾,做焗油的,然后目前啊,我龙虾他们一天花四十多块钱,我用的不多,因为很多,坦白说哪怕是我自己,我用龙虾都不多,我因为很多任务,我发现没有必要用龙虾,我很多任务,我可以用那个豆包啊,用 minis, 用这个 club 都可以。 然后我我自己总结了一下,就是龙虾对我最大的帮助,什么呢?第一个我在飞书上面可以直接用啊,特别是我搭配语音输入法非常好。第二个长期项目用龙虾确实是对的, 你比如说像我要我们要经营公司,对吧?那这个是要持续长期的,是输入信息的啊, 那这种事情龙虾是非常好,包括每天的工作复盘,每个月每周的这些。第三个是龙虾会主动提醒啊,比如说每天晚上提醒我去写周报,每天早上提醒我今天的重点事情是什么啊?有个像有个多了一个电子妈妈催,那坏处呢?就是我发现了一个坏处, 就是龙虾。坦白说,龙虾你如果搭配的是国内的模型,还不如不用。对,还不如直接用豆包,真的不如不用。我,我已经用过了,用了这个智普 kimi mini max 啊,然后呢? cloud codex, 最好用的还是海外这个 cloud。 然后第二个是那个,就是 gpt 五点四,只有用这些才够聪明,坦白说, 否则很多时候真的不如用那个豆包这些了啊。另外一个还有一个很大的问题,就是如果没有技术基础的人用龙虾的话啊,出了故障你都不知道怎么修,你都不知道你龙虾怎么死的。对,不懂编程的话就不知道哪里出错,真的真的 啊啊,所以我建议大家啊,就是我,虽然我们虽然有龙虾客,但是我不会盲目推荐大家去买啊,所以我觉得百分之九十的事情是不需要用龙虾的。 真的,大家记住这句话,百分之九十的事情是不需要用龙虾的啊,因为贵啊,效率和能力也没提升多少, 所以建议新手呢,先用好别的 ai 再用龙虾啊。但是呢,龙虾有必要学习了解一下,就是你没见过没吃过猪肉,但是得见过猪跑,我觉得是这个意思,就是你要看一看最先进的智能体他长什么样子, 万一哪一天你的任务普通的 ai 解决不了的时候,这个时候呢,咱们就可以用那个龙虾了。你比如说你想要做一年的这个,呃,身体的管理,公司的管理, 对吧?或者心态的管理,或者是某个项目他周期比较长的,你不希望说每次跟 ai 交流的时候都要反复的给他强调这些背景信息的, 那这个时候龙虾就很有价了。所以我真的跟大家说真心话,就是龙虾不要 着急学,可以学,不反对学,就是刚才说了,你可以看看最先进的他长什么样子,你花一点小钱试错,我觉得是没问题,但是不建议你现在发太多精力, 花太多精力去沉到里面去啊,然后给大家讲一下怎么装好啊?装其实很简单啊,像我自己,我是在腾讯云上面买的,我给大家看一下几只虾可以装到一起的。这个没关系啊,大家看啊,第一步的就我们进到这个,大家看在这个藤某云上面 啊,在这里啊,藤某云上面,然后进来之后就是腾讯云上面,然后呢 ai 智能体下面选龙虾就好了,龙虾完然后下面呢?地址的话,这里随便选吧。 哇,涨价了,呵,有意思啊,他涨价了,可能龙虾太火了,原来我们买的是这个,六十块钱,现在涨了吧,这是怎么七十二块钱了啊?大家可以买这个,我觉得买这个好一点,就是玩一下,准备这个预算七十二块钱啊,买完啊,你点购买 啊?大家可以截图一下啊,然后这个碗装好之后呢?会怎么样?装好之后你进来就这里就有了 啊,大家看,对,这个等于龙虾的房子,对,这就是龙虾的房子。你,你叫做工位也行,他的办公位。好, ok, 那 在这里装完之后呢?下一步干嘛呢?你在这里啊,在这里给它配模型,就是配大脑, 你比如说像这里,你可以跟过去看啊,在这里的话,它有很多模型可以接你,像这个 mini max 啊,然后 kimi 啊,智普啊啊,国内这三家好一点 啊,然后你如果想接海外的,你就得选自定义模型,然后输进去,然后你看,我我,我有那个 code 啊,还有这个 cloud 的 啊,目前我用的是这个 gpt, 五点四啊,所以这里就可以配配大脑了 啊,然后第二个呢?配通道啊,配通道的话,像我一般会用飞书,因为我的数据基本都是沉淀在飞书的。 对,这个是跟龙虾沟通的渠道啊,我的知识库啊,那个全都在飞书上面。然后呢也可以配那个微某信啊,这样就可以直接聊了啊,这样配好的话,你你在上面就可以用了。你比如说给大家看看我的龙虾吧,大家看, 刚才看到吧,刚才给大家说的有几只虾,你看一二三四五啊,然后最近我还在沟通这只虾呢,沟通这只虾,我准备出一本书嘛,出一本书,然后那个让虾帮我写东西呢, 这个是啊,出书虾专门负责出这个书的文案啊,出那个框架,然后呢出论文,然后自己再去审核。然后第二个是这个 ip 虾, ip 虾给大家看啊,比如说,哎,我要做那个 gu 的 选择题,一下子,然后它就给我列出接近一百个选择题,然后都是这种说人话的选择题 啊,大家可以看一下,然后呢还可以帮我写这些,写这些内容啊, 然后跟大家讲一下 ip 虾, ip 虾这只虾就是应该有比较典型的意义,就这只虾是怎么炼的 这只虾啊?第一个就是岗位上面,其实我就给他想的很清楚了,他就是一个啊,短视频 文案,携手,先给龙虾定岗啊,文案啊,携手,好,这他第一个事情岗位定好,然后第二个事情我给他丢了两个知识库, 知识库,这里有两个知识库,一个是什么呢?一个是我的风格库,就是我以前做的短视频,我比如说我拍了几百条,我把这几百条的文案发出来,我们叫做文案风格库, 让龙虾熟悉自自己啊,对啊,风格库。然后第二个是什么?是这个行业知识库, 因因为我让他帮我写那个 g o 的 东西,但他如果对 g o 一 窍不通的话,或者是他获得信息是错误的话,那他写出来东西就不对了啊,不能睁眼说瞎话嘛。好了, ok, 那 这个搞完之后,下一步是什么呢? 下一步啊,他他就是给他定流程,就比如说通常 我应该叫,应该叫做训练他技能吧,训练他两个技能,一个技能其实就是写选择题的技能。 第二个是文案的技能,我就基于这些东西去跟他聊,然后确定好风格之后,让他把这个风格固定下来,他以后就知道怎么写了啊。然后我还会再给他配一个技能叫搜索,就是可以实时搜索联网信息 啊,所以你看这只虾基本就这么用,但是这里用的好处就什么呢?它每次写出来东西就越来越像你,而且它会持续叠带。然后另外还有很重要的是,我可以把这只虾 打包成一个,一个文档,一个数学,就叫做技能,大家知道什么里把它打包成一个 skill, 然后呢?一个技能包给我的同事用,同事用 就是我同事不用再去那么复杂的训练了。对啊,他直接拿我这个去用,然后呢?他把他的风格酷改一下就好了啊,这个大家理解了吗?理解,敲敲六六六给大家看一下啊,等于说把这个技能分享出去, 让同事就可以直接龙虾就可以直接用了。对啊,然后我再看一下啊,我还有一个 ceo 虾 啊,来个 c u 虾。但是其实我也有很多困惑跟大家说,我用龙虾说有有很很大的烦恼,第一,我最大的第一个烦恼,我把把烦恼写下来,就是我自己真实遇到的一些坑。 第一个烦恼就是那个 api 不 稳定, 这第一个烦恼,第二个烦恼就是 龙虾有时候那个记忆还是会有些问题啊,你以为他记得,但他实际上不记得, 记忆出错了啊,这个其实也跟 api 不 稳定有关系啊,这个跟 api 有 点关系,但是还有另外一个问题,就是你如果没跟龙虾去规定好你的记忆的存储方式,就比如说你电脑里面的文件怎么归类整理的 啊?龙虾不知道这些锁影关系的话,他有时候确实找不到你的信息,就是这个信息明明有也没有啊。第三个是什么呢?第三个是龙虾乱删东西, 然后这个事情你是不知道在哪一个指令里面可能会出现的啊,就比如说你以以为他存好一个东西,他不会动了,但是可能在未来某天他突然找不到这东西了,你不知道龙虾在哪个时刻干的 啊,也有可能是我们的指令下错了,也可能是他理解错了,但也有可能是 ai 的 幻觉导致的啊,这是误伤了。所以在这里我的建议什么呢?就是重要的东西我们自己要做一个备份, 然后比较推荐大家备份到飞书上面去,这样龙虾忘了你自己还不会忘啊。然后第四个啊,第四个是我最早遇到的坑,就是我最早也是抱了很大期望,就想说一只龙虾去管所有的事情啊,全能龙虾, 但是我发现根本跑不通,没必要啊,你跟他说 a, 他 以为你在聊 b 的 事情,忘了,信息量太大了,你就一直瞎干好一个事情就好了, 所以还是得让龙虾定岗,分对专家专岗,我觉得这是比较简单的好吧啊,然后跟大家聊一下,看他有什么有什么,大家有问题可以打在公屏上看下,大家有什么疑问啊。

龙虾部署难?看不懂?别急,最近我发现一个叫 easycloud 的 工具,基于 opencloud 的 框架搭建,更方便更好用,不废话, 教你成功部署这个爆火的龙虾!首先,我们打开 easycloud 的 官网,点击下载,不用任何编程基础,等待安装包下载完成即可。然后点击安装包进行安装,全程中文引导点下一步就完事了。 这一步帮大家省掉了最起码一个小时的配置时间,不管你是 windows 还是 mac, 几分钟就能搞定本地环境。 安装完成后,我们直接双击软件图标,出现这个使用界面就代表着部署完成了,不用任何代码,几分钟就能完成整个本地部署。本地部署完成,龙虾可以与手机进行互联,只需要点击软件右上角的手机,远程选择你所需要的办公软件, 按照指示用对应的软件手机端扫码即可完成手机与电脑互联。以飞书为例,我们扫码连接,显示连接成功后,回到飞书,打开工作台,点击添加常用,找到我们创建的机器人,就可以给他发消息了。连接好后,我们还需要给龙虾定义一个人格, 我们可以给龙虾起一个名字,并设定他的身份。在定义人格的时候,我们要给他讲清楚几个关键点。第一, 一定要给龙虾设定一个名字,并规定他的说话风格。比如你可以对他说,你叫大白,是一个精通代码知识的电脑专家,你要用精简干练的语气回答我的问题,这样他就能记住并按照你的要求回答了。第二,要告诉龙虾你是谁, 怎么称呼你,比如告诉他可以叫你 eason, 是 龙虾的老板,龙虾就能知道你们之间的关系。最重要的第三点,要告诉他哪些事情能做,哪些事情不能做。一定要规定好工作的权限界限,不然可能会造成损失。比如你可以允许他定时安排帖子的小题制作,但是一定要明确的告诉他,未经过 同意不许擅自发布内容,规定他的工作范围,尽可能规避风险。比如我这里给我的龙虾起名三只龙虾,告诉他你是一个新媒体运营工作者。按照以上方式进行其余的人格设定,可以看到他会自动更新自己的身份信息,完成人格设定。 这个时候龙虾就可以投入使用,帮我们完成工作了。综合下来看,一字扣更简单,更适配我们日常的办公环境。赶紧点赞收藏领养自己的龙虾吧!

openclaw 的 更新速度是很快的,可能一到两天就会发一个版本,那么前面我发的在 windows, linux 还有 macos 里面安装那个 openclaw 的 时候,它的设置的话跟现在的新版本有一些差别, 那么我们现在先来安装一下新版本看一下。首先的话,我们要确保自己的电脑上已经安装了 note g s n p m。 如果不会安装的话,看一下前面的视频, 前面的视频我已经聊了,在 windows, linux 还有 mac os 里面安装那个 openclo b c 的 软件。好,打开那个 power shell, power shell 的 话,我们以那个管理员的身份打开, 那么我直接点开就行了,因为我这里的话是通过那个 administrator 来进行安装的,所以我打开的话就是管理员的方式,如果不是的话,那么我们就是在那个上面点鼠标右键, 然后我们再点击鼠标右键,然后选择以管理员的身份运行就可以了。这里的话我的登录用户是 administrator, 那 么我打开后默认就是管理员了。那么这里的话,我们看一下 npm 跟那个 note gs 安装了没有。 好,那么这里我已经安装了,安装的话我们打开那个官方网站看一下它是如何来安装的。 opencloud 的 官方网站是 opencloud, 点 ai。 好,打开了,那么我们往下面拉一点,来到这里就是 quickstart 这里,那么我们是通过那个 npm 的 方式来进行安装。点开后我们看到安装的那个面链有两个,第一个的话是安装那个 opencll, 第二个面链的话是来设置那个 opencll 的。 好,我们打开那个 power shell。 好, 我们来安装一下 npm i i 的 话是 instore 的 缩写,那么可以用缩写也可以不用,我这里的话就不用缩写了, instore 杠 g, 杠 g 的 话表示那个前局安装。接下来的话是 openclo, 这里的话我们要注意一下,就是前面我在聊那个 windows, linux 还有 macos 里面安装那个 openclo 的 时候,安装的是那个二零二六三点二四之前的版本, 那么他从那个二零二六三点二八之后,那么他的配置就不一样了。这里的话我们就来安装那个二零二六三点二八之后的版本,但是呢他发布的那个三点三一,还有那个四点一四点二的那个版本都有问题,那么我们这里的话直接安装那个二零二六三点二八的版本就可以了, 那么安装指定版本的话,我们是在后面加上艾特,加上那个具体的版本艾特二零二六三点二八,对版本有疑问的可以看一下上期视频。我单独聊了一下那个 opencloud 的 版本的选择。好,我们直接敲回车, 好多人到这一步的话速度会很慢,那么我们可以看一下就是那个 npm 的 镜像印有没有设置过,如果没有设置过的话,我们翻一下前面的视频,有专门的那个说明如何设置那个镜像印。 好,我们的 openclo 已经安装完成了,接下来的话我们来配置一下 openclo, 那 么我们看一下那个第二条指令。好,我们根据那个官方的那个指令来进行配置 openclo, openclo on board 好, 敲回车, 到这里的话,我们就开始来配置那个 openclaw, 那 么这里是一个类似用户协议的一个东西,那么我们通过左右键的话,把它选择到 yes 这里,然后我们敲回车。安装模式的话,我们选择 quick start, 然后这里的话是选择那个大模型,因为之前讲的是那个亲吻,亲吻的话,那个后面的版本里面就没有提供了,那么我们这里的话就选择 deep sec 就 可以了。 deepstack 的 那个 api k 是 如何申请的?那么我在前面是单独录了一期视频的,有需要的可以翻一下前面的视频看一下。好,我把那个 api k 给它拷贝过来,这里的话我已经申请过了,我放在桌面上面,我把它拷贝过来, 那么是这一个,我把它拷贝过来复制,然后这里的话那个复制完了以后,我们直接在那个 deepstack 上面敲回车。好,那么这里的话我们就直接点鼠标右键,那么我们复制的那个 key 就 过来了。好,敲回车, 好,我们这里的话是选择那个模型,那么用默认的这个就可以了,就第一个就可以了。好,敲回车,这里的话是选择集成的应用,那么我们暂时不设置,先跳过后面再来进行配置,选择 skip for no。 好, 敲回车。 好,那这里的话是选择那个搜索的服务商,那么我们也是暂时跳过,选择 skip for now, skip us, 我 们暂时也不配置,我们选择 now, 先跳过这一步,询问是否开启 hux, 那 么我们暂时不开启,就是在那个 skip for now 上面敲一下空格,然后再敲回车。 好,现在已经在安装网关了。好,我们可以把这个给它顶到前面来。 好,新版本的话,它安装完那个网关以后,那么直接就跳出那个,就是跳到这个界面来了。我们在老版本里面安装的话,是还有一个选择,就是你是通过那个呃,就是浏览器的方式来打开,还是通过命令行的方式来打开那个 openclo, 那么新版本的话是没有这个选项了,那么他直接就跳到那个命令行这里来了。那么我们现在要怎么使用呢?那么第一种方法的话,就是我们用浏览器的方式。好,我们先打开浏览器。好,我们点开这里,那么他默认的地址是幺二七点零点零点一,然后端口号是幺八七八九。好,我们来试一下,那么这里已经自动显示出来了。好,我们敲回车, 好,到这里的话,他其实报错了,那么我们是进不去的,进不去的话我们先返回到那个,就是刚刚我们那个输入的那个 policy 这里,然后我们看到这里有一串这一个地址,那我把它拷贝过来,我们选中以后按一下 ctrl c, 然后不管他,然后我们把它复制到这里来。 好,后面我把那个 token 给它拷贝下来,然后把这里删除一下,就是那个端口号后面这一串删除一下,然后把那个 token 拷贝到这里来,然后我们点一下连接好,那么它就进来了,那么这个是在那个网页里面来打开那个 opencloud, 那 么新版本里面的话,它就是默认在某网页里面来打开。 安装完了以后,它是没有让我们选择是通过那个命令行,是通过网页来进行那个访问的,我们来看一下老版本安装完以后它显示的是什么样子的?好,我们先把这个给它最小化, 我截了一个图,之前安装过那个就是二零二六三点二四的那个版本,那么前面的版本的话,它是会跳出一个窗口来让我们显示的,好,我们看一下这里 是这个地方,好,这里就是他让我们选择就是是通过那个命令行还是通过那个网页的方式来访问,那么新版本里面的话他就没有了,他默认就 跳出来了,然后我们只有通过网页来访问,那么我们通过命令行也是可以访问的,我们先看一下网页,然后我们再来看命令行的方式,我们先打开那个网页,我们看一下那个,他现在已经进到那个就是 open 里面来了,那么我们先给他做一个简单的对话,我们可以问一下你叫什么名字,或者是我们可以让他 用那个中文跟我们对话。 好,我们先改一下这个对话的那个就是语言。 好,那么他已经改过来了,改过来的话呢,我们就继续,比如说可以给他起一个名字, 好,我们给它起一个名字。好,到这里的话,我们就在 opencloud 里面做了一个简单的应用,那么我们现在来看一下,就是我们要怎么进到那个命令行里面去,因为它默认安装完了以后,那么它这里就 到那个命令行了,就没有任何提示,那么我们就可以通过那个就是网页来进行访问,如果你不想输入那个就是本地访问地址的话,就直接把这一串拷贝过来,在浏览器里面打开就可以进行访问了,那么这是一种访问方法,那么接下来的话,我们来看一下命令行里面如何来访问这一个 openclo。 好,命令行的话就是我们通过 openclaw 的 指令来进行访问, openclaw 好, tui 就是 我们要进到那个命令行的方式,那么就后面加上 tui 就 可以了,好,敲回车, 好,那么我们打开了这个就是在命令行来进行访问那个 openclaw, 那 么我们之前对话过的内容,它都给我加载过来, 后面可以根据自己的需要来选择,就是要在那个命令行里面来跟那个 openclaw 对 话,还是在那个网页里面来对话,那么到时候根据自己的需要来进行选择了,那么我们就是网关这里是要启动起来的,就是我们在用网页的话,要确保这个网关是启动起来的, 如果我们使用命令行的话,就是直接进到那个里面来,然后我们通过那个 openclaw, 然后加上这个 t u i 的 话,就可以在命令行来跟那个 openclaw 进行对话了,那么这个就是那个 openclaw 新版本里面的一个改动, 那么它从二零二六点三点二八以后,那么就默认就是没有让你来选择,就是你是通过命令行还是通过网页来访问,那么我们实际在配置的时候注意一下就可以了。 如果它没有命令行的方式的话,那么我们安装完了以后,通过这一个命令就是 open curl t u i 来进行访问,就是我们可以进到命令行里面来,那么如果是那个你喜欢用网页的话,那么我们就用网页的方式直接访问就行了,就是安装完了以后,我们在这里会有一串地址,直接一整串的拷贝过来就可以了,就不用自己来输入, 又要来配置那个什么 token 那 些,就不用这么麻烦,直接把这一串地址拉过来,我们试一下, 好,然后把它关闭掉,然后重新打开浏览器。好,我们来访问一下,好,把那串拷贝过来访问一下, 好,那是不是就进来了?这个就是在使用的时候需要注意的一个小的问题,由于 opencore 的 版本更新速度比较快,如果后面还有什么配置上有改动的话,那么后面我会发具体的视频来和大家聊一下。

今天啊,一个命令,我要让大家所有人的龙虾在每次执行任务的时候,任务的准确率都接近百分之百,怎么做到?就是在你的每一个命令的末尾都给他加一句话是什么?你先复述一遍你的理解 就是让你的龙虾复述一遍了,你想一下,你在公司里面,你的老板给你布置一个任务,或者你的上司给你布置一个任务时候,是不是也会问你说你复述一下,呃,你是怎么理解这个任务的?那你复述完了之后,他就会告诉你啊,你理解的这个任务里面哪些哪些是有偏差的,对不对? 那你跟你的龙虾之间也可以执行这样的一个命令啊,对不对?可能绝大部分人不相信我说的这个接近百分之百啊,那那么我接下来我就给大家上干货了,我直接把我跟 ai 龙虾的这个聊天记录分享给你们,给你们看一下啊,我是这么跟他说的,我说以后的这些稿件也在我的 mac mini 电脑的本地啊,开物库文件夹下面的 ai 博主文件夹里也存一份,要求层级清晰,并且每年要建一个以当年为年份的文件夹,这个文件夹的下面还要建以当月为月份的文件夹的名字啊,这个事情就是让他方便解锁啊,好,然后最终呢把,呃,文件的这个文稿呢,存在这个月份的文件夹里面, 然后我后面就给他加了句话,你先复述一遍你的理解,神奇的事情发生了。好,接下来你看啊,他是这样跟我回复的,他说 复述一下我的理解,你看它有一个本地的存储路径的一个结构图,哦,结构图都出来了,然后你可以清晰的看得到它有没有理解正确你的意思,然后它的规则也跟你用文字给你复述了一遍。 哇塞,当时我看完了之后,我觉得它真的是百分百理解了。好,然后我就跟他说非常正确,但我想要优化一下,我说,呃,这个年份的文件夹呢?你要以年份加 ai 搞件的形式来命名。月份的文件夹你要以月份加 ai 搞件的方式来命名。 我这个目的就是让他在我的每一个那个文件夹的名字前面都要加上一个我这个文件夹是干什么的?方便我以后去解锁,因为我怕我以后我还除了有 ai 以外,我可能还要分享其他的知识。 那这两个东西他都是这个年份这个月份的,那就会搞混,对不对?好,我也让他再复述了一遍他的理解,哎,他的理解就对了,他在我所有的文件夹名字的前面都呃,后面都加了一个 ai 文稿的这个名字。好,这个时候我就跟他说,我说非常正确,现在立即执行好,他执行,执行完了之后, 好,他给我存了,存了之后我看了一下,他在在文件夹里面呢,他会有一些斜杠,当时是因为我理解错了,因为他在呃,在存文件夹的时候,命名文件夹的时候呢?我以为他这个斜杠啊,他只是一个分层级的一个东西,不会出现在文件夹的名字里面,但他出现了怎么办呢? 我就跟他说了,我看到了,但是我不希望你出现斜杠,你的文件夹的名字里面全都是斜杠,你把这些斜杠和空格都给我删掉,然后你要把优化版和原和原稿要分成两个不同的文件夹进行整理 好。这个时候呢,他,呃,他就跟我说他看到了啊,他他他就跟我说他搞定了,然后我然后我再去看了一遍,确实他就真的是按照我说的这个方式已经跟我存好了,然后我跟他说非常棒,并且记住这个流程,重点来了,重点来了,我说并且跟我封装成一个 scales 以后,你就自动的帮我在 mac mini 里面进行整理和存档。哎,接下来他就真的去帮我封装成了一个 scales。 大家有没有觉得我今天分享东西很干的,而且是可以让你傻瓜式的操作的,如果你认可的话,给我点个关注,因为我这个龙虾的这个心得是持续不断的有一个系列的,而且我在将来使用的过程中可能还会发现更加重磅级的一些心得。

八条命令打造你的超级龙虾先点赞后观看 你的龙虾装好了之后,先设置这三条命令,让他请帮我开启以下内容,第一, 流逝回复。二、开启耗时。三、开启状态显示他的所有想法,耗时他的状态,然后全部展现给你,你会知道他怎么思考的。 第二,打造龙虾人设,你给他起个名字叫超级龙虾,可以给他起个名字,小名,超超。他的口号,超超出发,使命必达。 这里面我设定了所有人的理想目标,实现财富自由,这也是我的梦想。告诉他你的 语气和风格严谨,深思熟虑,告诉他的主人叫什么,我叫华仔。这第二, 超超上线,使命必达,他已经设置好。三、创建本地持续化数据库,从现在开始记录我所有的偏好习惯,常用指令永不丢失。自动增量学习 持续化数据库已经就位,增量学习机制,每次对话学习新内容自动写入数据库,历史记录永不删除,直至新增,定期整合到你的档案当中。第一个记录已经创建。 四、开启贾维斯模式,主动提醒,主动总结,主动优化任务,不啰嗦,高执行力, 贾维斯模式已经激活。五、开启后台常驻进程,开机自动启动,崩溃自动重启,二十四小时持续运行。 六、每天自动总结我们的对话,提取我的偏好和禁忌,形成我的专属个人模型, 专属个人模型已经创建。 七、禁止清除记忆,禁止重置配置,所有历史永久保存看 最高优先级铁律已经形成,绝对禁止,不可违背,禁止清除记忆,禁止重新配置,历史永久保存已经落实到位。 八、自动优化响应逻辑越来越贴合我的说话风格,主动预判我的下一步操作,让他 预判你的预判,让他形成你的肚子里的蛔虫,形成你的第二大脑。