粉丝7获赞19

哈喽,大家好,我是你们的小伙伴思摩图。那画面上的这只小龙虾啊,相信大家都已经不陌生了吧,他就是大名鼎鼎的 open core, 他 能够通过 ai 为我们自动完成不少电脑上做的一个工作。那早在过年之前呢,我们就爆干给大家出了几期相关的教程,教大家在不同的平台上进行这个部署。 但是这个啊,实话实说吧,哪怕我把这个步骤拆的再细了啊,那卡在这个环境的一个配置中 啊,那确实啊,因为这种 ai 项目,它原生安装的是比较复杂的各种依赖项目,经常会打架,很多这个非开发者的普通小伙伴跟着敲这个代码也会犯迷糊,那直接呢就被挡在了门外,难道普通人就不配玩前沿的这个 ai ai 准了吗?那当然不是啦, 那最近呢,绿联那是搭载的 u g s pro 系统,就直接给我们提供了一个快速接触前沿技术的这个捷径,一键安装 open crawl。 那首先我们来看一下这个一键安装所支持的范围啊,那目前 dsp 系列,已切换系统的这个 dx 四六零零系列,以及这个 dh 二六零零都能够直接支持 open core 的 一键部署。那今天我们又来演示呢,依然是那台高配性价比的这个神器啊,绿联 dsp 四八零零 pro, 我们只需要在系统里面点一下应用中心,在里面点一下 open core 的 这个图标,点一下安装,然后输入你让他能够访问这个目录,然后再设置一个加密令牌,接下来几分钟他就全部自动安装完成了。 安装好之后,我们点击系统里面的小龙虾图标,然后输入你的令牌,就可以直接进入网页的控制台,然后你就可以跟你的这个龙虾助理开始对话,然后安排工作。 那玩过 open crawl 的 小伙伴应该这里会发现有点不同啊,那我们是不是还没有部署这个模型呢?哎,那这个炸裂的来了, 玩过 a 卷的小伙伴应该都知道,那这玩意一旦跑起来是极度消耗这个 api token 的, 而绿联这次呢,直接联手国内头部的这个 ai 企业 mini max, 只要你用绿联一键安装,那连这个 api 都不用买,直接送你免费的。这个高性能 mini max 大 模型算力, 那除了能用以外呢?相信很多小伙伴也关注着这个 opencore 的 一个安全性问题,那其实大家在这一点呢,也是完全不用担心的,那绿联 u g s pro 里面的 opencore 呢?它默认被安装在 dos 之中, 除了它自己所在的这个容器以及你映色的目录以外,它无法直接对外部的文件以及你的电脑进行直接的操作,这也代表它最多自己玩崩自己啊,而不会对你的这个电脑那上的文件产生破坏。 而且由于 u g s pro 所使用的这个文件系统,它能够支持快照的保护,我们可以定时对这个目录进行快照备份,随时让文件回到之前的状态,那这也可以避免因为小龙虾对需求理解偏差所导致的这个文件错误修改。对比你直接在电脑上安装小龙虾,那这样的方式要安全很多。 那接下来呢,我们也简单分享几个我们在这台机器上的 open crawl 使用案例,那安装好 open crawl 之后,我们可以通过国内的 skillhop 网站为它安装一些常用的技能。安装完技能之后,我们就可以配置飞出的一个通信连接,直接通过飞出客户端与 open crawl 进行这个通信。 在这台那上,我创建了一个头脑风暴的 a 卷团队,那团队由四个不同的智能的这个 a 卷构成。他们可以每天早上十点为我发送由最新消息筛选而来的这个数码相关选择题。 那接下来呢,他们可以根据这些选择题进行自主的一个搜索完成。头脑风暴为我提炼每一个选择题中的看点。大家看,现在画面上就是我用飞书向他提出需求得到的反馈。那最终呢,他们会通过这个 o c d 的 一个技能为我在我的笔记中生成多个选择题的这个看点汇总。 那另一方面呢,他也可以对我存放在工作目录中的每月消费发票进行一个汇总,我只需要告诉他目录所在,他就可以按我需要的这个格式生成报销的清单。如果你愿意花时间调试的话,他还可以通过浏览器自主的为我们在购物网站上获取订单的一个发票,然后进行整理。 那除了前面一些日常的工作以外呢,我还让他接管了我的这个 copy ui 和 lm 推理的服务器,我可以通过一句话控制它下载模型或者是切换模型。也可以控制服务器直接调用工作流生成素材。生成的素材 open crawl 会直接从服务器拖回 nas 本地,我们在网页端也可以直接打开查看, 那它还可以用于控制我的这个语音下载系统,我只需要一句话来操作 open crawl 就 可以为我下载指定的电视剧,或者直接进行剧节的追踪。 那其实现在在电脑上基本上一些花时间费脑子的这些任务,我都会尝试用 open crawl 给跑通,那这些呢,都是实打实的为我节省时间,也能够更多的完成工作。好了,这就是我们视频的全部内容,希望大家能够养好这些龙虾,那我们就下期再见喽,拜。

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

兄弟们,就在刚刚,我发现了目前为止可能是最简单的 open 库的安装方式,只需要一分钟,不仅同时适用于 windows 系统还有 mac 系统,而且可以直接部署到你的本地。最关键的是,它优化了原版中间一些做的好的技能还有插件,看完这篇,立刻帮你省下四百九十九块钱的安装费,保证任何人都能最快速度用上属于你自己的手相。 这个呢,就是自古刚刚发布的 autocool, 它跟之前的小龙虾安装最大的不同就是你再也不需要担心环境的部署了,也不需要输入命令行,整个过程就像你安装一个 app 一 样的简单还有快捷。你只要打开它们的官网,下载安装包,然后去登录账号,弹出这个界面,就输入真的是 完全安装好了。如果你还想部署到飞书上使用,其实也特别的简单。我用我这里的 mac 来举例子, mac 和 windows 稍微有个明显的不同,那 那么 mac 呢?你点击链接飞书以后,它会自动弹出一个弹窗,开始自动配置。你只需要扫完飞书,登录二维码,剩下的全部交给 ai, 它全部会自动化帮你都配置完成, 你就会看到目前为止我可能认为是最丝滑的 ai 操作了。还需要什么教程吗?一键安装不响吗?而 windows 系统呢,就会稍微复杂一点点,需要按着操作文档一步一步来,因为这方面还没有设备的特别好,这一块你们跟着做也完全没有问题,我就不再敷。 那除了配置过程呢?小龙虾 tommy 的 消耗量也是劝退大部分人的一个主要因素。这一次制服他做了两个优化,第一个是呢,用了一个龙虾的专属模型,叫 pony r four two, 这是 一个匿名的模型,还没有正式发布,就是先上来做一个测试。它的任务的成功率和它的调度其实都是有一些优化的,而 tommy 的 消耗量是有了一些甩减的。另一个呢,就是他们做了一个专门的页面,贴心的帮你把用量统计给显示出来,你再也不用担心他到底花了多少。 当然,如果你想填自己的 a p i k, 你 用你自己的模型也完全没有问题。 autocool 支持全世界所有的 a p i 模 型。那除此之外呢,还有一个不错的优化点,就是 autocool 在 内制了原本小龙虾技能包的同时呢,还对这个核心的 skill 进行了一些优化。比如说呢, to research 这个 skill 优化后,它能解锁到的内容无论是质量还是新鲜度都比原本的 open go 强了不少。还有一个他们优化的比较好的 是一个操作你浏览器的,基本上你涉及到一些网页的操作的模拟点击都需要这个东西。相比 open code, 它原有自带的 for use, 它其实是能力强的非常多,而且非常适配国内的互联网生态,懂的都懂。 那讲真的,智普这个 open code 呢,是我目前用过最方便的一个小龙虾了,技术其实从来不缺牛的,缺的就是如何让普通人真的用得上 open code 走到了这一步。你至于以后能走多远呢?说实话我也不知道,但就现在这个版本,我觉得它已经值得你花一分钟的时间去装一下,来真正的去亲身体验一下 agent 的 魅力。

openclaw 大 龙虾火归火,但普通人真玩不动全英文命令行配环境,一下午还动不动报错,甚至还有人花钱带妆,真的没有必要。其实可以先找个低门槛的 ai 智能体体验一下。比如国内第一个 openclaw 中文版摩莉莉, 它不是简单汉化,是底层全改的本土化版本,所以非常适合小白,安装也非常方便,不用代码不用环境,不用英文, windows mac 都能用,官网下载一分钟就搞定全中文界面,中文指令理解特别准。 帮我整理最近的 ai 新闻,并整理成文档发给我,他直接动手,不用你碰鼠标键盘两个最香的点。第一,很多国内软件,比如绿泡泡, 听听非书却能远程控,出门在外躺在床上发句话就能指挥电脑忘带文件,再也不用跑回去。第二,内置 deep stick, kimi 这些国产大模型,不用自己配 api, 成本比原版低一半,非常适合那些怕被 ai 淘汰 又不想折腾大龙虾的朋友。总之,不必死磕难用的版本,立刻找个能帮你干杂活的 ai, 效率提上去才是最重要的。

这几天烧了一个多亿的抽空,我的小龙虾从左边进化成了右边,这样养虾体验真的大幅提升。如果你刚装上欧文壳,强烈推荐和我一样开启这五个设置,搭配这四条快捷指令,让你的龙虾更听话更好用,还能省下一大笔抽空费用。 在设置之前,推荐大家把对话插件一定要切换到非主流官方插件,这样小龙虾能做的事情更多,直接发个小龙虾链接,让他自己给你安装切换就可以了。 前三个要开启的设置是流逝回复、耗时和状态展示,直接发给小龙虾这段指令欧文克勒默认是不开启流逝回复的,导致我们要等小龙虾输出完所有的内容才能看到消息,等待时间很长,而开启之后就能像我们平时和 ai 的 对话一样,看到实时输出。 接下来要开启的两个设置是思考过程和工具调用,默认这两项都是关闭的,我个人觉得这两项还是很重要的,如果模型执行任务出错了,我们通过看他的思考过程也掉了哪些工具,能帮助我们更好的去纠正他的行为,不然有的时候模型骗了我们都不知道开启方式,就是发送给模型这两段指令即可。 先给大家介绍一下这个快捷命令,这是 open call 官方内置的聊天命令,每一条背后都是提前设定好的程序,直接控制小龙虾的行为,不会调用 ai 大 模型而消耗 token。 第一个是 stop, 这是我用的最多的指令,因为小龙虾在执行复杂任务的时候,它偶尔就会卡死,很长时间我们都等不到它的回复,但实际上一直在后台燃烧我们的 token。 这时候如果你发消息叫他停下,你会发现他不会停。这是因为 openclock 有 消息队列的机制,我们的上一个消息没处理完,新消息就会在那排队等着,所以这时候就要用到这个命令,输入 stop, 然后强制停止他的推理,就可以继续跟他对话,把他给纠正回来。这个非常重要,如果你不会 stop 的 话,你的账单可能就爆炸了。 第二个是 status, 能查看小龙虾当前的各种参数,我经常用来去看 context 来判断现在上下文的长度。因为现在很多的大模型虽然号称上下文是两百 k, 但实际上用起来到一百五十 k 以后,模型就变得很笨,而且回复很慢了。所以我们不需要用到两百 k, 我 会差不多在 context 一 百多 k 的 时候,就搭配另外一个指令 compact 来主 动压缩上下文,它会让 ai 对 上下文做总结摘要,不仅节省了成本,又不会丢失关键信息。这个我也用的很多,因为小龙虾用起来上下文增长真的很快。第四个是 new, 我们要给龙虾一个新的任务的时候,可以用这个指令直接开启一个新对话,这样就没有之前的上下文干扰了。但我个人其实更喜欢用 compact 来压缩这个看大家的使用习 惯。为了方便使用这几个快捷指令,我把它们固定在了我的聊天界面,直接去飞书开放平台,在机器人自定义菜单这里添加这几个快捷键,展示形式选择悬浮响应动作选择发送文字消息,设置完成后修改并发布就可以了。那这期视频就到这里,所有指令我都放在了视频下方,希望能对你有帮助,也可以分享干货,我们下期见。

大家好,相信大家最近应该都被这一个 openclock 小 龙虾给刷屏了,不管是在刷朋友圈还是刷短视频上面,都应该有刷到过关于 openclock 小 龙虾的一个话题。 简单来说,它就是一个 ai 智能体工具,可以实现连接 ai 大 脑与终端设备,让 ai 真正拥有双手,从只会聊天提供建议的被动助手转变为能自主完成系统及任务的标准化数字员工。 截止目前,他在 github 上面已经登顶榜单第一,拿到了三十几万的一个 star, 这就足以证明他的一个火爆程度,很多人甚至已经开始接起了上门安装或者远程安装的一个服务。那么接下来我们就来给大家分享一下如何在本地 windows 电脑上面部位的进行安装。 我们首先来到 node js 的 官网下载对应系统的 node js, 注意版本需要在二十二以上,然后点击下载,打开文件进行安装,一度 next 即可。 安装完成以后,我们可以按键盘上的 windows 加 r 输入 cmd, 打开终端,在终端里面输入 node 杠 v 跟 n p m 杠 v, 如果有版本号的出现,那就证明已经安装成功。接下来我们安装 git 一 样到 git 的 官网这边点击下载, 下载完成之后我们打开文件安装,然后一路 next 即可。 安装完成之后,我们一样在终端这边输入 get 杠 b, 如果有版本号的出现,证明安装成功。接下来我们就可以开始安装小龙虾了,我们复制这行命令,然后打开 windows 自带的 power shell, 记得要用以管理员的身份进行运行,然后我们在 power shell 里面填入我们刚刚复制的那一串命令,出现这一个报错,不要慌,这是由于 power shell 的 执行策略默认禁止运行脚本, 我们只需要复制这一行命令,然后将它在 power 里面执行一下,然后重新执行上一条命令,这样他就开始下载了。如果他下载的很慢的话,可以改用国内镜像进行下载,会快一些。 安装完成以后,我们就可以输入这一行命令进行初次配置,然后他会弹出一个使用协议,需要你这边进行确认。值得注意的是,使用 open core 可能会存在一些安全风险,建议大家还是在云服务器、虚拟机或者备用机上面进行使用。然后我们这边选择 yes, 选择快速开始,然后这边是给你的模型配置对应的 api key, 我 们这边先跳过, 然后这边是配置聊天渠道,你可以选择 telegram、 whatsapp it's code 或者飞书来更方便的跟小龙虾进行对话。我们这里也先跳过,接下来是配置搜索服务,这边需要另外申请。 a b i q, 这里也先跳过, 接下来是给小龙虾安装 skills 技能包,给他配置各种各样的能力,比如操作浏览器等等。这边我们也先跳过,后面再按需进行安装。接下来是配置 hux, 这边可以全部选中,注意是空格,选中回车确认,然后他这边就会自动安装并启动 open curl 了, 然后他这边可能会弹出防火墙提示我们这边点击允许启动完成之后,他会问我们要在终端里面使用还是在网页浏览器当中使用,我们想要看的直观一些,当然是在网页浏览器当中使用了选择网页浏览器,然后他就会自己打开 open 可二的网页控制面板。 到这里你的 open curl 小 龙虾已经全部安装完成,但此时它还不能够进行对话,因为我们前面是没有进行配置这一个 api key 的, 接下来我们来配置一下,我们在 power shell 里面输入 open curl config, 打开配置页面, 选择本地 logo, 然后这边选择 model 模型,在这里可以选择你的 ai 大 模型,比如我这边用的是 mini max, 所以 我这边就选择 mini max, 因为我是使用的是国内的 api, 所以 这边要选择 cn, 然后复制 api key 粘贴进来,然后选择模型, 然后这边选择继续 continue, 他 这边就会自己进行重启。然后我们再回到网页浏览器这边就可以进行对话了, 然后因为他现在等于说是刚刚诞生,那么你就可以根据对话去一步步的引导他来设置他的身份、个性以及职责等个性化信息。 好,那么这期视频我们就先到这里,下一期视频我们再来给大家讲一下如何接入飞书 discord 以及 whatsapp telegram 等聊天渠道,谢大家再见!

最近爆火的 opencurry, 普通人到底能用它来做什么?它能二十四小时帮你提提它价格,寻找最新最前沿的一手 ai 资讯,能把各个平台收藏家,里面内容打好,标签存到知识库,还可以打通 mac、 ipad、 iphone 日程,让你不错过重要的会议来 十分钟学会 opencurry 安装和三大超神玩法视频里面所完成教程配置这些词 skill 都放在这个文档里面喽。 我们先来看看 open curl 到底是什么?一句话总结,概念上, open curl 是 一个可以自己决策、自己行动的 ai agent, 和你电脑上的其他软件一样,装上就可以用。 功能上它接受你聊天输入框输入的指令,然后调用 chgbt、 jimmy n 豆包千万这些大模型作为大脑来决策,在这里拆解步骤,调用你电脑上的其他软件工具来完成你的指令具体的功能。看完我后面的玩法教程你就明白了。 我们普通人要用 open curl, 主要是与服务器部署和本地部署两种方式。与服务器部署别看听起来很唬人哈,这些操作反而更简单,跟小白友好, 因为各家云计算大厂为了争抢这个风口,都尽可能的降低门槛,计算模型、计算配置、教程也都给你写好了,一两个小时就能搞定。与服务器部署入口和教程都放到教程文档里面喽。 但如果想把 open curl 玩出花来,就推荐部署在本地了,尤其是 mac 生态呢,会更丝滑,为官方提供了很多 g 苹果系统的 skill, 拿来就能用,所以 mac 上玩功能呢,更丰富。但一定要注意,最好不要部署在平常办公的电脑上,让 open curl 那 天抽了风,把你的重要文件删光了。 那本地部署主要有四步,一个就是安装 open curl, 在 mac 终端里面输入这行命令就搞定了。第二是配置底层的大木星, 这决定了你养的龙虾的智商。国外的模型功能是 cloud 的, 加的最好用,但也很贵,而且很难获取 api。 其他用的比较多的就是 jimmy、 nike gpt, 国内模型也有不少不错的。现在大部分人是在用 mini max 二点五、 kimi 二点五、智普的 g l m 五这三个。那具体的配置方法我都会在教程文档里面介绍。 第三步是配置机器人,把 open curl 接入你的日常通讯软件,国内的话可以接入飞书、 qq、 钉钉企业微信。配置方法可以参考大长写的这些文档。最后一个就是安装 skill, 给他装一个机票价格,监控 skill, 他 就能够直接帮你监控机票的价格。 我整理了普通人日常必备的几个 skill, 都放到教程文档里面了,大家可以先照着装上。如果你要用其他的 skill, 但不知道去哪里找,那可以直接让他用这个 find skill 帮你找就行。比如说我想监控机票价格,让他帮我搜索相关的 skill, 他 就搜到了监控机票价格的 skill, 我 装上就可以用了。 我估计很多人跟我一样,某书微信收藏必吃亏。 那现在 opencurry 可以 改变收藏及吃亏的尴尬了。比如我自己做了这个整理收藏内容的 skill 给我的 opencurry, 我 现在在某书某号上刷到有价值的内容,直接转发给 bot, 它会自动提取内容的信息,打好标签,然后传到 obsidian 数据库里面, 把之前散落在各平台的收藏夹里面内容汇总到一起。每天早上九点半,我的 opencurry 会根据爱宾浩斯一共取现的规律,算出今天需要回顾的内容,推送给我, 能知道你在第一天、第三天、第七天这些关键的节点去提醒你回顾收藏的内容。比如你收藏了一篇 open curl 高级玩法教程,只是没有动手实践,就可以用这个回顾机制来不断的提醒自己,而不是收藏就忘。或者你收藏的行业知识,就可以通过都是回顾复盘 来加深记忆。如果偶然想起需要用资料,就可以和 boss 对 话,查这些内容。比如我让他调出和 open curl 有 关的内容,整理成表格发给我了,特别的方便, 再也不用去一个个收藏夹一个一个翻了。能让 open curl 实现这样的一个收藏管理的功能,非常简单,你只需要把这样的一个提示词 get bot, 像我们前面说的那样,它会自己创建一个收藏管理的 skill, 然后你边用边调试就可以了。 这些词我都放到教程文档里面了,大家可以直接用哦。你甚至还可以接入 open curl 的 skill 市场, curl up, 还有全球超强资源网站 get up, 让 open curl 在 这些平台上找大佬们已经做好的工具来拓展功能。 比如我做这个收藏系统的时候,遇到一个难题,就是当我把一篇文章的链接发给了 bot, 它只能保存了一张标题和链接地址,不能读到文章的具体内容,但我这内容又是最核心的部分, 那就可以告诉 bot, 在 github 上找一个能读取网页内容的工具吧。那它就在 github 上找到了 x ray 的 这个开源工具,接录之后, bot 就 可以顺利地读取链接里面的中文内容了,再根据正文帮我做好摘药,把标签存进数据库,非常的方便。 opencrew 还有一个很爽的用法,就是做咨询收集。比如我是 air 博主,我希望第一时间知道最近 airm 已经发布行业大佬观点这些一手消息, 这些信息如果靠我自己去刷,非常的耗时间,而且很杂乱。我就把 opencrew 做成了我的情报助理, 二十四小时不停地帮我收集一手猎爱资讯。比如我可以让他搜某个特定的关键词,比如让他找近三天有关上关于 open crow 比较爆的视频,他马上就能把相关的内容收集到给我。他还会反过来问我是否需要帮忙收藏到知识库,需要的话直接加到 opc 店知识库就好了。 高价值信息的搜索收藏,后续按机取现推送给我重温。所以我的时间用 open curl 看这些降噪后的 ai 前沿资讯,真的非常强大好用。要做出这个情报收集功能,你只需要先装上这些 skill, 把这些信息员的 a p i 发送给 bot 就 行了。那这些我都整理到文档里面喽。 我们之前也分享过用 n 八 i 搭这种情报收集工作流,但工作流搭建起来很复杂,门槛还挺高的。用 open curl 的 话,你只需要把信息源的 a p i 给 bought, 它自己就配置好了。 而且前面讲到按关键词搜资讯,这些 open curl 的 灵活性也比 n 八 i 强很多。 open curl 还支持你在 github 里面找开源工具,想要什么你就搜索就行,比你自己去 github 官网搜要高效很多。 比如我让他帮我找 b 站有关的视频下载工具,他很快就找好了,还总结成了表格,方便我对比不同工具的区别,还附上了网页链接,给了我使用建议,真的很细致,很贴心。 更牛的是,这个 open curl 有 hotbeat, 也就是心跳机制,能帮你二十四小时做任务。像我是自媒体博主,需要监控对标账号的更新,这里我就用 open curl 监控了这七个有关博主,每两个小时他会自动检查一次,哪些博主有更新,就会把内容推送给我。你可以看这里的运行记录,他每两小时跑了一次, 之前人工去盯对标账号,费时费力,还容易漏用,这个盯效率高太多了。需要的话,你还可以用这个监控机票、价格等等,你可灵活的设置每小时甚至每分钟帮你检查一次,做情报,实时的收集定价格,非常的方便。 open crow 还可以帮我们搞定日程管理,它能一句话在 mac 上创建日程,然后直接同步到 ipad、 iphone 上。比如我在聊天框里面直接发创建一个会议日程,晚上七点到八点,它会自动帮我识别时间,生成日程标题,创建到 mac 日历, 然后通过 icloud 自动同步到我的 iphone 和 ipad 上。整个过程我就用跟 bot 说一句话,对比一下。之前创建这样一个日程,我得先填各种信息,还挺麻烦的,现在用 open curl 直接一句话搞定我刚分享的这些玩法,只是冰箱一角,大家还可以去各个平台看看到了我们做的各种玩法, 比如这个可以监控你的健康状况,这个可以帮助你培养习惯,监督你打卡,这个可以帮你做市场调研。 open crawl 热门的工具和 skill 平台我都整理到文档里面喽。 那这里是勋酱,关注我,带你解锁更多普通人的 ai 玩法,我们下期见,比比。

ok, 接下来我们来从零到一的实操下 openclaw 的 安装、部署和使用。那装之前一定要问自己一句,你想让他帮你做什么?不要盲目跟风。 目前的 openclaw 不 太适合用于生产环境,所以只能算是一个有意思的玩具。如果你有闲置的 mac mini 或者任意一台闲置的 macos 系统电脑,那他们一定是最好的选择。 如果你是 windows 电脑,那也可以,只不过 openclaw 的 生态对 macos 系统支持比较好。那如果你都没有,不建议大家为了使用 openclaw 去买一台电脑, 也一定不要在你日常使用的电脑安装,包括国内各个公司基于 openclaw 推出的一键安装的客户端,都不要在自己日常使用的电脑安装。 如果你实在想体验一把,我们可以花二三十刀,也就是一百来块钱购买一台两合两 g 的 vps 就 可以了。如果你觉得你会长期使用,从而装很多东西,那就买一台四合四 g 的 vps, 大概是四十刀到六十刀左右。哦,对,我说的是一年的价格,非常便宜。那我目前这台 v p s 应该是一个三合四 g 加一百 g 的 硬盘配置,使用的是无斑图二四系统,不是它必须得这个配置,而是我目前只有这样一台闲置的 v p s。 来做演示了。那我之前一直在使用的 oppo cloud 服务,其实是部署在一台两合两 g 的 v p s 上, 没有问题,基本够用的,也装了很多额外的扩展,那目前这台机器的内存占用是百分之四十,此盘大约用了有十五个 g。 ok, 我 们来到官方文档,复制一下安装命令,然后回到终端直接执行, 这里由于要安装一些东西,所以比较慢,大家要等一下安装完成之后,我们就进入了一个引导配置,那这个提示简单来讲就是问此安装是不是你一个人在用?如果是个人用,选 yes, 那 如果你这台机器还会给别人登录,或者是放在公司服务器上,以及要对外公开访问,那就选 no, 我 们选择 yes, 然后选择快速入门。接下来是选择模型厂商这块,根据自己的需求来,他特别需要注意的是,如果使用国产的 mini, max, kimi, 智谱这些厂商,他们分国内版和国外版,那我们这里先选一个自定义的 provider, 也就是自定义厂商,输入我们的 base ul, 大家根据自己使用的平台写就好,但一定要注意,因为我们平常使用可乐扣的扣的 x 去配置自定义厂商,背四幺 l 的 时候一般不用写后面的 v 一, 但 open colle 这里要写。然后回车,我们选择直接粘贴 api k, 把我们的 api k 粘进来,回车短点兼容性,这个看我们自定义厂商的平台支持啥,一般都会支持 opa 这种格式,所以我们直接选 opa 就 可以。接着是模型 id, 如果你是选择自定义厂商呢?模型 id 需要你自己填,那我们这里用 gpt 五点四 回车, ok, 刚我们回车之后,它自己做了验证,那如果你的填写有误,这块会验证失败,那接下来是填的自定义厂商名字, 接下来是模型别名,我们直接回车即可,不用填。然后就开始配置聊天频道了,就是你要在哪个应用上跟你的瞎子聊天就选哪个。那我的建议是能用 telegram, discard 就 用它们,用不了的话,国内最合适的就是飞书,那飞书国内版目前也已经内置在 opencloud 包里边了。既然配置麻烦了点, 目前最简单的消息频道配置是 qq, 但他最多只支持五个机器人,还容易被屏蔽一些消息。那微信的话想要接入就只能走起微了,那更麻烦。 最近腾讯出的比较让人期待的 qq 了,最终走的也是客服消息,而不是给了个人微信机器人号,所以也不推荐。那后面我会使用飞书做演示,其他几个消息频道的接入教程就不在视频里讲了,看视频的附属文档就可以。这里我们先选择跳过 一会再来配置聊天频道。接下来是选择联网搜索的供应商,那如果你有这几家的 api k, 那 就填,如果没有的话就跳过。 然后是配置技能,也就是 skills, 我 们选择否后面再按需安装就可以。其实 skill 为啥出来比 mcp 晚,但是却能盖过 mcp? 我 们在玩瞎子的过程中会有深刻体会, 这一步是在问你要不要起用一些附加小功能。自动钩子,通俗点讲就是当瞎子触发了某个事件时,自动帮你做一些事情,不开也能用。开了只是多一些自动化或者是增强功能。看到的这几项大概可以这样理解, bot md 就是 在 get 位启动的时候自动运行 bot, 点 md 文件,也就是 open cloud, 一 启动就先把你写在 bot 点 md 里面的启动说明,输入法规划 及预设内容读进去可以理解为开机自启动的说明书,那接下来这个是在 agent bootstrap 阶段额外注入一些工作区文件,那官方说明是,当你的工作区里面有多个上下文跟目录,比如 monroe ripple 多模块项目,想要把额外的 agent 点 md tools 点 md 这类文件一起带入上下文,但是又不想改工作器跟目录,那就用它。然后是 command log, 它是记录你执行过的命令,方便排查问题,把所有的命令事件记录到一个统一的日期文件里。 section memory 保存绘画记忆, 就是让他记住这次运行中的一些上下文。当你发出斜杠 new 指令的时候,他会把当前绘画的上下文保存进 memory。 通俗点说,当你打开一个新的绘画时,会把旧的绘画存档,那这些都是一些基础的户客,大家可以根据自己的需求去选,不选也可以,我们这里可以选都勾选上回车, ok, 这就已经就绪了。这一步是在你想用什么方式把下子启动起来。第一个 t u i 就是 在 v p s 部署,所以它是推荐方式,也就是直接在命令行里和它交互,不用开浏览器。 第二个是 web ui, 这是个网页界面,就是启动后用浏览器来操作,看起来更直观。第三个就是不启动之后再说,我们直接选择 web ui, ok, 它让我们运行 dashboard 的 命令来查看这个 web ui 的 服务,我们直接跑一下这个命令, 那由于我们是在服务器上跑 opencloud, 没有 g u i 页面,所以你会看到它让我们在本地使用 s s h 连接服务器内部的一个服务端口,通过这样的方式就可以在我们自己的电脑上访问这个 web ui 控制界面了。我们直接把这一行复制一下, micro s 就 打开 bash item, windows 就 打开 powershell, 然后把这个命令粘贴回车一下,是否继续连接输入 yes, 然后我们输入服务器的密码,回车 密码输入时啥也看不见是正常的,大家只管输入完回车即可,输错了就重新来一遍,只要回车没有报错,那就是成功了。也就在本地电脑和服务器的 opencloud web 服务之间建立了一个隧道连接,然后我们回到服务器终端,我们复制一下这个链接, 打开浏览器,那这样我们在本地电脑浏览器就可以看这个外部 ui 界面了。那需要说明一下,之所以使用隧道的连接方式,是因为这是默认且 opencloud 推荐的方式。当然我们也可以直接将服务器的 opencloud 外部服务暴露在公网上,通过服务器的 ip 或者是绑定域名来访问, 但这样很不安全,如果你需要暴露到公网,那么 opencloud 的 配置力度需要在细上一些,以应对一些安全风险。进入外部 ui 之后,默认就是聊天面板,我们直接发送一个消息, 那如果你的模型配置没有问题,就会收到回复。 ok, 到这里快捷的引导设置就完成了,夹子也算基础部署成功了,后面就是定制化了,接下来我们来配置一下飞书机器人的接入。那首先我们要打开一下飞书开放平台, 这个不需要使用企业飞书,个人飞书也可以点击创建企业自建应用,我们给个名字和描述,然后选一个图标吧。 ok, 创建完了之后,我们就可以看左侧的侧边栏,选中凭证信息,这里的 app id 和 app secret 我 们要复制下来保存好。 ok, 我 们回到服务器的终端面板,输入添加频道的命令,问我们是否配置。是,然后我们选择飞书, 那上面这个是让你重新下载飞出这个插件,但是现在它内部集成了,所以我们直接使用插件路径就可以。 ok, 它让我们填 app secret, 我 们回到飞出平台,复制一下这个 app secret, 回来粘贴回车,然后设 app id, 再复制一下 粘贴回车。连接方式,我们选择默认的 web socket 就 可以,然后非输的域名,那国内的就是 c n 的 后缀。群组的安全配置, 第一个是白名单,只有在白名单内的群组机器人才会回复。第二个是全部打开,机器人被拉进任何一个群组它都可以回复。第三个是直接在群组中借用机器人,那我们选择白名单就可以,由于我们还没有创建群组,我们直接回车就可以,后面有了再添加。 ok, 这样就基本上配置完了,然后我们选择 finish 完成,让我们配置飞书的 dm 策略,选择 yes, 这个策略我们直接全部打开就行,这样最简单。给账户添加显示的名字,然后我们选择 no 就 行,然后给这个账户绑定 agent。 yes, 那 选择 agent 的 时候,它只有一个默认的 man, 我 们回车。 ok, 这样就配置好了,然后再回到飞出控制台,点击权限管理,然后点击批量导入权限,然后粘贴所有权限的 jason, 那 这个大家直接粘贴我提供的这份就好,因为官方文档上面的那份, jason 缺少一个权限,点击下一步确认申请开通,确认 确认, ok, 权限开通好了,我们点击机器人,然后配置一下它的名字, 然后在左侧点击事件与回调,点击这里的订阅方式,然后选择长链接保存。注意这里保存时, opencloud 的 应用程序必须已经配置好了,并且正在运行中才能保存成功。然后我们点击添加事件,直接搜索接收消息,勾选它添加, 然后我们直接点击上方的创建版本,给一个版本号更新说明,也填一下,滑到最底部,点击保存确认, ok, 这个时候我们打开飞书, 那在飞书里面就可以看到一个应用创建成功的推送,我们直接点击打开应用,然后给他发个消息, 当我们收到了回复之后,飞书的渠道配置就已经完成了。 ok, 接下来先不着急,我们先来了解一下 openclaw 的 目录结构。首先你一定要知道一个目录,点 openclaw, 我们使用 cd 命令来进入到 opencloud 的 根目录,然后输入 ls, 看一下根目录下都有什么文件。 opencloud 点 jason, 这是 opencloud 的 主要配置文件,相当于总控面板,大多数的核心设置都在这里,以后也少不了和他打交道。我们刚刚在引导配置中的绝大多数内容最终都落到了这个文件里,那这个文件还有一些,后面带 back, 然后 back 一, 这是配置文件的备份,当我们执行一些修改操作时, opencloud 就 会帮我们把之前的内容存一个备份,避免我们改坏了回不去。 workspace, 它是默认 agent 的 工作区目录,放的是你希望这个 agent 的 长期记住遵守的东西,比如项目文件、说明书、长期规则、人设等等。那 agent 目录, 这是每个 agent 自己的后台数据目录,用来存放这个 agent 的 运行状态、认证配置、绘画记录等内容。官方会把一个 agent 分 成三部分, workspace 用来存放 agent 的 人格以及规则,还有记忆文件。 agent d i r 存放每个 agent 的 状态配置。 session 存的是 agent 的 绘画记录,其中 agent d i r 和 session 最终都会落在这个 agent 下面。那这个目录下面现在只有一个 man, 它是我们在程序安装时的默认 agent, 那 这个名字叫 man 的 agent 对 应的工作区目录就是这个 workspace log 文件夹存的是各类的运行日制,那出问题的时候第一时间看的其实就是这里,尤其是 getaway, skills, hux 相关的错误。 converse, 它是用来规划和编排的临时目录,很多 a 正的框架会把计划任务分解,临时中间产物放在类似的区域,用来支撑一个提示来触发多个模型调用的链路。 on, 它是定时任务与自动化触发的文件夹。 devices, 它是设备与执行环境的抽象层。飞书目录,它存放的就是飞书机器人适配与凭证的相关信息。有这个文件夹是因为我们装了飞书机器人 identity, 它是存放身份与认证的相关目录。 update check, 这是 opencloud 的 更新状态与相关原书记检查的文件。 我们再来看一下 workspace 里面都有啥 agent 点。 md, 这个里面存储的是有哪些代理各自负责什么?相当于岗位的说明书,一个工作规范,也是最重要的一个文件。四五 md, 这里面存放的是瞎子的灵魂设定 u 字。 md, 它存的是你是谁,你的偏好和禁忌,相当于用户画像 tosh。 md, 存放的是它能用哪些工具,怎么用?边界是什么?相当于工具清单。 heartbeat, 这里面存放的是一个自检和状态汇报规则,俗称心跳机制文件,比如启动后该检查什么,多久报一次状态。 bloodstream, 它是冷启动时先读的初步化说明,那我们现在还是一个空的 agent, 还没有产生记忆,如果产生了绘画记忆,这个下面还会有一个 memory 文件夹,文件夹下存放的是年月日点。 md 文件,作为我们每天聊天的记忆存放,那还会有一个 memory 点 md, 存放的是稳定的长期记忆, ok。 在 了解了 opencloud 的 目录结构之后,我们想一个问题,你需要几个 agent 帮你处理事情?一个够吗?可以这么说,如果你觉得够,那 opencloud 对 你来说可能未必是最合适的选择。 用 opencloud 的 可玩性建立在多个 agent 的 分工和协助上。如果只有一个 agent, 你 又希望他同时处理很多不同类型的事情,问题很快就会出现,他的上下文会不断被污染,人设会越来越混乱,记忆也会越积越多,滔滔消耗更是会不断飙升。 更麻烦的是,旧任务留下来的对话和上下文,还会持续干扰他对新任务的判断。所以接下来我们要处理的是多个机器人,多个 agent, 一个 agent 只专注一类事,那既然我们要做多 agent, 每个机器人都是不同的打工人, 所以接下来我们要新创建一个 agent, 我 们输入命令来添加一个新的 agent, 后面的 bot 一 agent 就是 我们给这个新的 agent 的 命名,我这个命名比较随意,如果大家有明确的想法,比如这个 agent 是 做什么的,最好语义化命名,不要用中文回车。 然后它让我们输入这个 agent 的 工作区目录,这里它会给一个默认的,当然我们也可以直接把它设置成 workspace, 这样的话和之前那个工作区就在一个目录下,那两个 agent 就 会共用一个工作区。但是我不太建议这样做, 直接回车就好,你会发现它默认在点 opencloud 目录下给了 workspace bot 一 agent 这样一个目录当工作区。结合我们之前介绍过跟目录下还有一个 workspace 工作区。 现在你回过头来理解, workspace 目录其实就是名字为 man 的 这个默认的 agent 工作区目录。那我们现在新创建了一个 agent, 这个目录就是我们新创建这个 agent 工作区目录,然后我们配置模型选择 yes, 那这个大家应该就比较熟悉了,之前引导配置中第一个机器人瞎子我们已经配置了自定义的 provider, 那 这次就换一个官方的吧,具体看你买了哪家。 我其实哪家都有,但是这里选中 mini max 的 速度比较快,所以这里选中 mini max。 mini max 前两天更新了一部,如果使用它官方渠道作为提供商时, opencloud 以内置工具会自动连接到 mini max 的 vl m api 端点,不需要额外配置。 当我们向机器人发送图片的时候,他就会使用这个工具来理解图片内容,也就是自动连接 v r m api 端点来做图片多模态处理,这点还挺方便的。我们选中 office 授权登录,然后选择 c n, 复制一下这个链接,在浏览器打开,然后授 权好了,然后他问我们还没有创建第二个机器人,所以这里先选择 no, 一会创建完第二个机器人,再把它和这个 agent 绑定, ok, 这样就创建好了一个新的 agent。 我 们再来看一下 agent 目录下面都有啥,可以看到多了一个 bot 一 agent, 然后我们也可以跑一下命令,看一下 agent 列表, 看到有两个 agent, 工作区路径也没问题,这就 ok 了。接下来我们来创建第二个飞书机器人,之前我们已经添加了一个机器人,它挂载的是默认账户,默认 agent, 也就是问这个 agent。 我 们回到飞书开放平台,创建第二个机器人,还是同样的操作, 点击创建企业自建应用名字,我们叫瞎子一号, 然后点到应用凭证,再次回到服务器面板,我们需要来配置第二个飞书机器人账号,那这个配置有点特殊,目前需要单独来改配置文件,没有办法通过命令集成,不过这个官方 e c u 已经提到了,估计很快就会得到优化。我们来看一下配置文件中目前的飞书配置是啥样。输入 cat, 这个就是目前的飞书机器人配置,它只配置了一个账号,我们可以直接在服务器上改这个配置文件。当然也可以简单一点,我们回到它这个 web ui 里面, 直接发送给 opencloud 一 段提示词,我让它根据官方的飞书配置文档帮我配置第二个飞书机器人,然后把 app id, app secret 填进去回车。 ok, 他 说配置好了,让我们重启一下,我们复制命令重启一下,再来看一下这个配置文件。 ok, 这就配置好了。那这里需要注意的是,我敢让他动配置文件,是因为我知道官方文档有这么个配置参考, 也知道他要改的是什么东西,我才会放手让他改。如果你不知道怎么改,直接让瞎子给你改配置,那就把你的 open class 系统生杀大权交给了大模型,你的大模型优质的话,能解锁到相关的信息去修改还好,如果大模型不太行,一旦出现了幻觉,那记记你会更难受,所以还是要尽量避免这种行为。接下来我们回到飞出开放平台,继续之前的操作, 点击权限管理,批量导入,粘贴一下,这个跟之前还是一样的,确认申请开通确认确认,然后点击机器人配置名称, 点击事件已回调订阅方式保存。哎,怎么不对?我们来看一下这个配置哦,这怎么写了两份?这个也是写了两份,我们回过头来看一下给他发的消息, 哦,这里发错了,再来复制一下,这里 app id 和 app security 写错了,给你修改一下。 ok, 这回改对了,刚刚那个给他发的提示词里面的 app id 和 apprecate 写错了,我们再回来点下保存。嗯,这次就可以了,刚好演示了一下,如果配错了,这里保存保存不成功,然后点击添加事件接收消息,勾选添加 创建版本,给一个版本号保存发布。 ok, 看一下有没有推送,打开应用,让我们给他发个消息。 ok, 收到回复之后我们就配置完成了,但是这个时候其实我们还没有给这个机器人绑定之前新建的 agent, 我 们可以通过命令来看一下当前 agent 的 绑定关系。 哎,你看我们新创建的瞎子一账号,其实默认绑定在了 man 这个 agent 下面,那目前这两个机器人其实用的是一个 agent, 我 们可以直接修改这个 agent id 的 名字,那这次我们在 yui 里面修改, 我们在这个 dashboard 里面找到 config, 然后点击 ro, 那 现在这份文件其实就是我们的配置文件,我们拖到最底下,找到这个飞书的配置,这是我们刚刚看的飞书的配置,我们找一下 b 的, 对,就这里我们把虾子一这个 agent id 改成我们刚刚创建的新的 agent 名字。 bot 一 agent 修改好了之后,我们直接点击保存更新, ok, 当它断掉,那就是证明已经重启了, 那等它恢复了之后就重启好了。我们直接回到飞书这里,给虾子一号发送一下,问他一下是哪个 agent, ok, 它已经切换到新的 agent 上了,那到这里我们的多 agent 多机器人账户就配置好了。接下来我们来创建一个飞书群组, 填上名字,飞书群组一个人也可以创建群聊,我们直接点击创建,必须得群组创建好了之后,我们才能邀请机器人进来,点击右上角选择设置,点击群,机器人添加, 选中瞎字添加, ok, 这样群组就创建好了。那由于我们之前设置了白名单,只有在白名单内的群组机器人才会回复,我们现在在群组里面给他发消息,他是不会回的,所以我们要先获取飞书群的 id, 那 获取的方法也很简单,我们回到服务器这里 输入 openclogs 转杠 follow 回车。这个命令是实时查看服务器网址,我们打开网址之后,在飞书群里面圈一下机器人,发一个消息。 ok, 这就可以看到这有一个 group, 后面这个 o c 开头的就是它的群组 id, 我 们复制一下, ctrl c 关掉它,还是直接在外部 ui 里面直接给它发消息,让它去改回车。当然我们也可以直接在飞书给机器人发消息也行。 ok, 已经改好了,我们直接让它重启,当看到它断了,那就是开始重启了。 ok, 恢复了,那就重启好了,我们再回到飞出这里再圈一下它,因为我们设置的是只有圈它,它才会回复 这个图标,代表它已经在输入了。 ok, 这就好了,那这样的话群组就搞好了。这里要特别提醒一下,不要轻易被网上那种一个群里面塞满不同角色机器人组成一个所谓的 team, 大家自己讨论自己工作的演示带偏了,那都是博眼球。绝大多数情况下并不是一个合理的生产实践, 因为在多 a 阵的多角色的设定下,每个机器人本质上都对应一个明确的角色和职责边界。如果你把多个角色的机器人同时拉进一个群里面,让他们同时面对同一批消息,那系统很快就会变得混乱。相对还算勉强可控的一种方式是通过艾特提及的方式来明确指定某个机器人角色回应, 也就是说,只有你明确艾特到哪个机器人,哪个机器人再出来处理。如果不是通过艾特提及,而是群里随便发一条消息,多个机器人都可能响应,那就必须额外做非常严格的路由控制。比如你至少要配置成只有某个特定用户 id 发出的消息,才有某个对应的机器人处理。 但即便如此,我仍然不建议让多个 a 证的机器人同时处理同一条消息并分别回应。因为你一旦这样做,整个系统基本上就会进入一种自由混战的状态,看起来好像很智能、很热闹,实际上很多时候只是无意义的多轮响应和无休止的 talk 消耗。更关键的是,这种模式并不真正符合大多数真实的工作组织方式。 现实里的工作流往往不是让一群角色同时对一个输入各说各话,而是有明确分工、明确入口以及明确的责任边界。哪怕你已经做了限制,比如让机器人只回复某个特定 id 的 消息,这种方案本身也不算理想, 因为很多人类的工作流并不是完全串行的,消息和任务经常会交错出现。一旦多个角色长期混在同一个上下文里,非常容易出现上下文混淆、职责边界模糊、记忆污染等问题。所以更合适也更常见的做法其实是下面这几种,一个机器人对应一个 agent, 一个群组对应一个专用的 agent 机器人, 或者一个主机器人作为一个统一入口,背后有多个专职的 a 政在后台分工协助。这几种方案虽然没有多机器人同群互聊那么有观赏性,但从稳定性、可维护性、上下文控制以及 top 成本来看都会更合理。 当然再往后走,如果你真的想做成多 a 政的协同,那就已经不是简单把几个机器人拉进同一个群里面这么粗暴了,而是需要更高级的路由编排和协助策略。这个话题可以单独展开讲,后面有时间的话可以再开一下 a 政的协同的内容,这里我们就先不展开了。 那到这里,我们其实已经有了两个彼此独立的 agent, 也分别绑好了对应的机器人频道,但目前为止我们还没有给他们做任何的功能增强,也没有给每个 agent 配置各自的身份信息、角色设定 和风格。所以现在这两个 agent 还是两个空壳子,虽然他们已经能独立运行,但是还没有真正形成差异化。那接下来我们就要先给这两个 agent 分 别配置不同的信息和性格, 他们真正区分开来。其实我们前面已经讲过,工作区里的那些文件分别对应着什么作用,我们完全可以直接手动去修改这些文件,给 agent 写入不同的设定,但是这种一方面比较繁琐,另一方面不太直观,所以这里我们换一种方便的方式来做。我们直接打开外部 ui, 那 这个是闷塞审,也就是瞎子那个机器人, 我们直接给他发送一个提示词,你是瞎子,一个赛博打工人,巴拉巴拉一堆,然后我们让他自行优化,并且拆分提示词,将这些提示信息分别写入下面的文件里面。回车, ok, 可以 看到它已经帮我们修改好了,这里它问我们要不要把 bootstrap 删掉,这个文件我们之前有介绍过,它只有在输入话的时候会读,删不删都无所谓。那我们直接在面板里面来看一下这几个文件,点击 agent, 然后点击 men, 然后点到 feel 看一下。哎,你看这里面它的灵魂设定已经帮我们写进去了。再来看一下 user, 可以 看到我的名字也写进去了, agents 点 md 这个文件大家有空的时候可以好好看一下,因为整个 agent 的 运行机制其实大概就写在这里, tools 身份 memory ok, 我 们回到飞书给瞎子发一下你是谁, ok, 这就已经配置好了。那现在我们就给瞎子配置了一些基础信息,我是谁,他是谁,他的性格等等等等, 都是些基础信息,也比较简单,大家可以顺着这个思路自由配置。那另外一个 agent 配置起来就简单很多了,也是一样的流程,这里就不赘述了,大家可以给不同的信息自己玩一下。那接下来我们给 agent 做一些基础能力扩展。首先是浏览器操作,那如果我们有 g y 面板 这块就会简单很多,但是由于我们使用的是无 g y 面板的无斑图系统,所以要稍微麻烦一点,我们需要先手动安装一下浏览器,虽然也可以让 opencloud agent 帮我们安装,但不建议这样做,因为需要给它开额外的高级权限才行。那首先我们需要安装一个 chromeem, chromeem 是 谷歌自己家的正式浏览器, 而 chromeem 是 chromeem 浏览器的上游开源版本。那这里需要注意的是, nipp 版本的自身的沙箱机制会产生冲突,导致 c d p 无法正常启动, 所以官方推荐使用 chrome 的 d e b 包,这是专门给得遍或者是无斑图这类 linux 系统用的安装包。首先我们来执行安装 c d p 连接,就是程序通过 chrome 的 devtools protocol 去远程控制浏览器的连接。 playrite 是 python 的 一个浏览器自动化框架,当我们安装浏览器后, open color 会负责浏览器的接入配置和路由, playrite 负责执行很多具体的自动化动作,而底层的浏览器通信协议走的是 c d p, 这样就形成了 linux 系统上的浏览器自动化。 ok, 下载好之后,我们还需要执行安装 那由于我们使用的是 d e b 的 方式安装的浏览器,这种方式还会缺少一些依赖,所以我们还需要让 app 自动把上一步安装 chrome 时缺失的依赖补齐,并且把包的状态修复到正常状态。我们输入命令回车, ok, 一 切就绪之后,我们输入命令来验证一下浏览器的安装路径,然后检查一下它的版本, 这里输出了目录,并且成功输出了版本号,就安装成功了。然后我们输入命令来验证一下无沙箱无头模式下的 c d p 连接。 ok, 只要出现这个幺二七的监听链接就可以了。下面无关紧要的一些报错,比如 g u i 内部的一些注册服务错误可以忽略, ctrl c 退出, ok, 我 们开始配置 openclaw 使用浏览器。这里我们选择的是命令行配置,那最终也会落在配置文件里,我们直接改配置文件也行。首先我们需要启用浏览器能力, 然后配置一下浏览器的路径,那由于我们用的 vps 没有图形界面,所以我们还需要开启无头模式,还需要关闭沙箱来规避 linux 类服务器或者是容器环境下的权限与隔离限制问题。 最后我们还需要指定一下浏览器的 profile。 ok, 这些都执行完,重启一下 get 位, 重启完成之后,我们打开 web ui, 我 们来看一下这个配置落到配置文件里面是什么样子,就是这段配置。 ok, 我 们来测试一下浏览器输入命令,启动一个浏览器实力, 启动成功之后,我们让它打开一个网页,打开之后我们来抓一下这个页面的快照, ok, 拿到结果就没问题了,我们也可以尝试抓一下这个页面的截图, ok, 如果能拿到快照或者是成功截图,说明整个浏览器的渲染页面打开控制链路基本上都是正常的。那现在就可以在飞书里面给机器人发消息,让他截个图试试了。让虾子一号处理吧,虾子一号用的 mini max, 速度比较快, ok, 给了我们截图,那就是成功了。接下来我们来处理联网搜索。 openclaw 有 两个内置的搜索和爬取的 tools, 分 别是 websearch 和 webflash, webflash 负责实时搜索网络内容, webflash 负责爬取某个网站的信息, 这两个 tools 组合起来就构建了一个实时网络剪索的能力。但是由于 openclaw 内置的 websearch rely brave, 这是一个三方的搜索引擎,如果我们要使用的话,需要额外配置 brave 的 api, 这个是收费的,所以目前联网搜索是用不了的,那我们的代替方案就是使用其他的 search 服务来代替内置的 web search。 这里推荐两个 skills 来配合完成这件事。首先是 tabule 这个 skill, tabule 同样是一个三方的商业搜索引擎,但好在它每个月有免费搜索一千次的额度,所以我们可以放心使用。我们可以直接打开 tabule 的 官网, 然后注册就可以拿到一个 api k 复制下来就可以了。还有一个是 multi search, 这是一个集成了多个搜索引擎的免费搜索服务, 如果它 webster search 的 服务不够用,或者搜索结果少的情况下,我们可以使用 multi search n 这个搜索服务来都抵。这两个 skill 组合起来代替内置的 webster, 安装方式也比较简单,我们可以直接发送提示词给瞎子, 我们让它根据文档自己去安装,安装完成之后在 toast 文件里面明确声明 webster 能力的 skill 使用,最后把内置的 webster 能力给禁用掉。 ok, 我 们来看一下 toast 文件, 哎,可以看到它帮我们把这个搜索策略写到了这个 tos 文件里。装好之后我们测试一下,可以看到这里它已经调用了它为设置这个 skill。 那 如果你不想装两个 skill, 并且想要在企业里部署无限使用 web 搜索能力的话,还有一种方案是在一个服务器上自己部署一个 z r x n g 服务,这是一个开源的原搜索引擎服务,聚合了多个搜索引擎的搜索结果。 安装好之后就可以在 opencloud 安装一个 c r x n g skill 来进行搜索服务的本地调用,可以返回结构化的搜索结果,那 像一些三方的收费搜索引擎,会随着你的搜索偏好提供一个个性化的搜索结果。但 c r x n g 这种则是不关心你搜什么,只通过你的搜索内容拿到各个搜索引擎的结果,打分排序,完全隐私,是一个不错的免费搜索方案。如果你想做任何 agent 缺乏 web search 的 能力,都可以使用它。 ok skills 技能,这是 openclaw 能力的核心。通过上一爬联网搜索,我们可以看出,我们需要通过一个个 skill 来扩展 openclaw 的 能力。 那社区上有上万个开源的 skill 让我们集成。我们可以通过 openclaw 官方的 cloudhub 平台去查找对应的 skills, 也可以通过 github 的 awesome openclaw skill 仓库去查找想要使用的技能。 比如你在做一个企业级的 open class 系统,并且企业委托于飞书办公,那么你就可以搜索飞书相关的 skills, 读写飞书文档,操作多余表格,以及处理一系列飞书的自动化功能。你要是想赛博炒股,就搜索金融相关的 skill 去装。要是想让虾子去写代码,那就搜 coding 相关的 skill, 根据自己的需求去装就可以。我给大家推荐一个比较核心也比较通用的技能, self improving agent。 这个 skill 翻译过来叫自我提升,它的核心不是让模型自己训练自己,而是让 agent 在 运行过程中把错误纠正、知识缺口、功能需求结构化写入 markdown, 再把那些反复验证有效的经验进一步提炼成长期可付用的工作规则。它主要解决的是一个非常现实的问题,很多 agent 在 使用过程中都会不断犯错,有的是命令执行失败,有的是工具调用翻车,有的是知识过时了, 还有的是被用户指出你这种做法不对。如果这些问题每次都是当场改正一下就结束了,那这个 agent 本质上没有真正成长,下一次遇到类似的情况,他大概率还会踩一遍同样的坑。而这个 skill 做的事情就是把这些当场修正变成长期记忆。他的 skill 点 m d 里面写的非常明确,典型的触发场景包括命令或操作失败。用户纠正 agent, 用户提出当前做不到的新能力。外部 a p i 或工具调用失败。 agent 呢?发现自己的知识已经过时,或者在重复性工作里发现了更好的做法,所以它本质上不是在增强模型参数,而是在给 agent 增加一层失败记录,加上经验累积,加上晋升规则的机制。 会先在工作区里面建立一个 learnings 目录,把经验分别记录到三个文件里。 learnings md 记录更正知识缺口和最佳实践。 arrows 记录命令失败和异常。 future request 记录用户请求的功能。他会先把这些经验沉淀成可追踪、可复查、可累积的外部记忆, 然后再进一步把那些已经反复验证确实有效的经验提升到更长期的工作区规划文件里。比如行为模式可以提升到 so 点 md 里,工作流经验可以提升到 agents 点 md 里, 工具使用规则则可以提升到 twos 点 m d 里。写进 linux 目录只是临时记录下来,而提升到这些长期文件之后,才意味着这些经验会在后续的绘画中真正参与上下文变成 agent 的 稳定行为规则。那为什么我会觉得它很核心?因为它其实已经碰到了一件更庞大的事情,那就是怎么管理 agent 的 记忆 memory。 不管你是做个人助手、做工作流 a 证的,还是做多 a 证的协助,如何把错误纠正经验沉淀下来几乎是绕不过去的一件事情。而这个 skill 恰好提供了一套非常朴素但却非常实用的解决思路,它可以为我们后续的记忆治理埋下影子。那安装方式和之前一样,是复制一下这个链接,让 openclaw 自己安装即可,我们就不做演示了。 我们前面提到过, open klo 官方的 memory 记忆整体是偏轻量化的,真正的记忆载体始终是工作区里面的 markdown 文件。也就是说,不管你后续接不接数据库,开不开向量剪索, memory 最终落地的地方依旧是这些文件本身。 默认情况下, open klo 会把这些记忆写到工作区的 memory 目录下面,以年月日这样的方式去存储长期记忆则是沉淀在 memory 点 m d 里。 那官方其实也支持接入 sqlite、 list db 以及像 qmd 这样的增强型解锁后端,但这里一定要注意,它们都不是用来代替 markdown 的, 更多的是承担锁影、解锁、召回这一层的工作。所以你可以简单地把它们理解成三类角色, sqlite 更偏默认的清量级锁影以及状态存储。 list db 更偏向量解锁和羽翼召回。 q m d 则是在解锁层更进一步增强的一种混合解锁方案,它会把 b m 二五向量搜索和 ranking 组合起来,尽可能地把记忆找得更准。所以 markdown 是 记忆本质, circle、 拉斯 d b q m d 这些本质上都是解锁层能力。 也正是因为如此, opencloud 官方的方案优点非常明显,简单、透明、可控。但它的短板也同样清晰,那就是它更像一个基础可用的记忆底座,而不是一套完善成熟的记忆治理系统。在默认方案下,记忆的长期维护更多依赖于 markdown 的 持续写入。 而向量解锁、自动召回、 embedding 配置,这些能力需要额外配置之后才能真正发挥作用。并且就目前来说, opencloud 内置的向量解锁能力本身也有一定的限制,比如它依赖外部大模型 api 提供的 embedding 能力,目前只能配置 openai 和 jimmy。 很多国内用户其实并没有把这条链路真正接起来,而一旦没有接起来, memory 虽然还能工作,但就会退回到最基础的文件读写模式,那这个时候,系统依然会把内容写进 memory 文件夹下的年月日文件作为日常记忆, memory 点 m d 作为长期记忆, 这些文件照样存在,照样可写。只是因为没有 byte 模型,系统无法进行基于向量的语义剪辑和相似召回,更多只能依赖内置的 memory get 这类定向读取具体文件或指定范围内容的方式来获取记忆。换句话说,系统这时仍然能记,但不太会找。 而一旦没有比较强的剪辑能力,问题就会慢慢出现。记忆文件会越积越长,历史内容会越来越多,上下文 tock 消耗也会越来越快,用得越久,你越觉得 agent 变笨了。 因为大模型本身的上下文窗口是固定的,而 memory 如果只是不断累积,没有智力,最终就会从资产变成负的。而关键的是,在这种基础方向里,我们通常没有真正意义上的清洗、压缩、分层、失效和冲突消解机制。记忆会不断累积,但缺乏有效智力。时间一长,优化 memory 几乎成为一个必然需求。 但这件事情也不能一概而论, memory 策略没有绝对最优,只有是否适合当前场景。本地部署更关注隐私可控和低成本, 那云部署更看重接入速度和跨端统一。个人助手则更强调个性化与长期偏好。记忆团队 agent 或者是多 agent 协助,他会更看重权限隔离。项目级上下文既污染控制以及整体的可维护性。也正因为侧重点不同,不同场景下适合的 memory 方案往往也并不相同, 所以到目前为止,这个方向其实并没有一个统一稳定、所有人都认可的标准答案。大多数时候,大家还是需要根据自己的需求、资源条件和技术能力去做适合自己的取舍。 homecloud 的 记忆增强大体可以分成两层,第一层是剪缩增强,也就是让 agent 更容易找到相关的记忆。这部分典型代表就是官方默认的 sqlite 剪缩、可选的 sqlite 向量剪缩以及进一步增强的 qmd 混合剪缩。 那这其中 sqlite 更适合轻量级默认可用的本地锁影场景。 sql 更适合做 in binding、 向量存储和域域召回。 qmd 则是更强的混合剪缩方案,它通常以本地 start 进程执行,再把结果交给大模型做 ranking, 也就是二次重排。这里的大模型 random 可以 把它理解成前面,尽量多召回一些可能相关的内容,后面再让大模型重新判断哪几条和当前问题最相关,把它们排到更前面。 所以 qmd 的 价值主要体现在,当记忆很多,认知很多、表述又不统一的时候,它能明显提升召回精度和解锁质量。但也要明确一点, qmd 解决的是怎么找的更准的问题,不是怎么把记忆管理的更好的问题, 也就说它的强化是剪缩层,而不是记忆治理层。如果底层还是无组织的 markdown 文件,那么事实变了,依然可能直接覆盖知识写进去了,也未必经过结构化整理。那长期下来,知识是否真正能沉淀成稳定可赋用的 memory 资产, 是取决于你上层怎么治理。第二层才是记忆治理增强,也就是在能找到的基础上,进一步解决怎么记记什么、怎么压缩、怎么氧化、怎么避免污染这些问题。这部分常见的思路大体可以分成几类,第一类,单文件增强。最直观的方式就是通过各种策略,把重要的信息都不断追加到 memory 点 m d 里。 这种方案的优点非常明显,简单直接,几乎没有额外的系统复杂度。你不需要引入新的数据库、解锁服务或者是后台进程,只需要让模型持续地往 memory 点 m d 里面写就行。但问题也同样明显,随着时间的推移, memory 点 m d 会越来越长,文件不断膨胀,信息密度也越来越低,查找的效率也会越来越差。 第二类,自动记忆管理。那第二种思路是做一套自动记忆管理机制,比如通过定时任务,每隔一次 session transcript 自动提取大模型认为重要的记忆内容, 然后按天进行定时压缩归档,持续维护到 memory 点 m d, 减少人工的干预。那这种方案比起单纯追加文件更进一步,因为它开始尝试怎么解决记忆越来越多怎么办的问题,而不是让系统能记住,还开始试图让系统自动整理记忆。但 这套方案的问题在于,我们其实很难知道它到底记住了什么,以及为什么记住这些内容。因为重要这件事本身是由大模型来判断的,而大模型判断的重要性未必和人真正关心的重要性一致, 哪些该保留,哪些该忽略,很多时候并不好对齐。那另外,这类方案常见的时间线压缩方式,比如按天、按周去归等,虽然可以控制体积,但也会带来另外一个问题,事实变化的历史容易被抹平。 举个例子,一个项目原本是进行中,后来变成已完成,在压缩归档之后,旧的状态可能直接被覆盖掉。最后你看到的是一个更新后的结论,但中间是怎么变化过来的?这段过程信息可能已经丢了。第三类是日制流加上剪索增强。那第三种思路是依赖每日的日制,再加上 memory search, 然后再配合更强的剪索后端来工作。 这种做法的核心很简单,每天持续的写日制,把记忆沉淀在日制流里,真正需要的时候,再通过 memory search 去做剪索,把相关内容找出来。 如果只是默认解锁,这更像一种可搜索的流水账。但如果配上 l s d b 或 q m d, 体验会好很多,因为搜索会更准,召回也会更稳定。它的优点是实现简单,维护成本低,几乎不需要额外的治理策略。 你只需要保证日制的持续写入解锁链路就能跑起来,整个系统就能工作。但它的问题在于,这依然不是一个真正结构化的埋木尔系统。随着日制的不断累积,搜索结果里的噪音会越来越多,相关性也会越来越不稳定。 同一个事实可能分散在几十个不同日期的日制文件中,模型每次都要从这些零散的片段里面重新拼装上下文,这样既浪费 talkin, 也难以形成稳定的知识沉淀。所以这种方案虽然能用,但更适合清亮场景,不太适合长期高密度、需要持续服用的知识系统。 那第四类是外接完整的记忆系统,那再往上走,就是把 open cloud memory 增强做成一个独立的系统,或者直接接入第三方平台。最省事的一类做法就是直接集成第三方平台提供的商业 memory 方案,比如 my machine、 open cloud super memory 这类项目, 本质上就是把 memory 的 存储、召回、管理这些能力外包出去。他们的优点是接入快,上手简单,但代价通常是依赖外部平台,灵活性和口控性相对有限。而如果不走商业平台路线,社区里也有一些重型的增强方案, 比如结构化抽取、分层记忆、长期生命周期管理,甚至是主动式记忆系统。这类方案的能力更强,但接入和维护成本也更高,更适合那些已经明确要把 openclaw 做成长期运行的 a 政策系统的人。比如 memory labs db pro 这个项目就很不错,大家有兴趣的话可以去尝试一下。那如果有更好的方案,也可以评论去分享一下。 ok? 在 了解了概念之后,我们应该怎么处理自己的 openclaw 的 时候,其实并不清楚自己真正需要的是什么, 你是想做一个本地的个人助手,还是想做一个长期运行的 agent? 你 更在意隐私成本还是召回效果进行上线?这些问题如果一开始都没有想清楚,那你过早的去折腾 memory, 最后大概率只是在增加记忆系统的复杂度。 所以在这个阶段,你只需要先意识到 memory 确实是个问题,但不用着急,现在就把它彻底解决。对大多数人来说,先用 opencloud 默认的 markdown 策略做基础处理其实就已经够了,先跑起来,先用起来, 先观察自己的实际使用过程中到底会遇到什么样的问题,这是比一上来就追求高级记忆架构更重要的事情。等到什么时候,你真正开始觉得你的瞎子变傻了,记不住了,照回不准了,上下文越来越贵了,那时候再回来处理这个问题反而是更合理的。 因为这个阶段你已经不是在想象问题,而是在面对真实问题。你会更清楚自己到底缺的是更强的解锁能力,更好的记忆治理,更低的 top 肯消耗,还是多 agent 多场景下的隔离能力。 到了那个时候,你再根据自己的需求,参考前面提到的几类思路,去找到对应的开源项目,逐步尝试优化和治理自己的 memory 系统,会更具针对性。这其实是一个很正常的学习路径,先用默认方案建立认知,再在真实问题里逐步升级,而不是一开始就试图设计出一个完美的记忆系统。 而且说实话,现在这个阶段想一开始就把 open cloud memory 做的非常完善,本身也不太现实。因为目前不管是官方方案还是社区里的各种增强路线,都谈不上稳定统一,没有明显的缺陷。 到目前为止,我还没有看到一个真正能够让所有场景都满意的通用优质方案。很多方案都能解决一部分问题,但同时也会带来新的成本和新的复杂度。所以与其一开始就幻想把这件事一次做对,不如接受一个更现实的结论,慢慢也是一个随着使用过程逐步治理的问题,而不是安装 open class 就 能彻底定型的问题。 当然,从更底层的角度来讲,哪怕你把 mac 策略设计的再漂亮,也依然避不开一个根本限制。大模型的上下文长度始终是硬约束。也就是说,很多所谓的记忆增强,本质上都是在有限的上下文窗口里,尽量让系统记得更准一点,找的更快一点,浪费的更少一点。它能改善体验,但是很难彻底消灭限制本身。 ok? 朋友们,如果你看到这里还没有放弃,那么看起来你是想认真玩一下 opencloud, 那 这种情况下,每个工作区的备份将必不可少。这是为了防止你悉心呵护的瞎子突然发疯干掉了自己,或者是某些改动不想要了,你想回滚? ok, 备份的方案也很简单,走 github 备份。首先为了安全,无论你有没有 github 账号,我都建议大家注册一个新的 github 账号。我们直接打开 github, 点 com, 然后点击注册一个新的账号,这个流程比较简单,我就不说了。那账号注册好之后,我们就可以回到这台服务器的终端操作面板,运行一行命令来生成这台机器的 s s h k, 注意这里的邮箱要换成自己 get up 的 邮箱,一路回车就行。 ok, 运行命令,我们查看一下公告内容,我们先把输出的这行公告全部复制下来, 然后回到 gethelp, 点击右上角的头像,点击 settings, 然后在左侧选中 ssh, 点击新增一个 sshk, 粘贴进去,给一个名字创建。 配置好了之后,我们点击 github 导航栏右侧的加号,选择创建一个新的存储库,那这个仓库其实就对应了一个工作区,所以这个名字我们以工作区名命名。那前面的 r n 三是我这台服务器的缩写,因为我在多台服务器部署了 opencloud, 加上服务器代号更清晰一点。后面的 man work space 代表默认的 agent 工作区, 当然你想叫啥都行,但是我建议有意义一点,不然后面工作区搞多了不好找。还需要注意的一点是,我们这里要选择私有, 这样你的这个项目就只有你私人可见了。点击创建,这是一个空的项目,创建完成之后就会自动跳转到项目页面,我们切换到 s s h, 然后把这个仓库地址复制一下,当然下面这个绑定以及推送的命令我们也复制一下,后面会有用。然后我们回到这台服务器的终端控制面板,来配置一下全区的 get 用户名和邮箱。 配置用户名配置邮箱,注意这里的用户名就写 github 注册的账户名,邮箱就写 github 的 账户邮箱即可。配置完成之后,我们输入命令检查一下, 那这样就配置好了,我们直接回到 web ui, 给瞎子发一条消息,让它绑定并且推送。注意一定要选择 men 这个 agent, 因为我们目前配置的是 men 这个 agent 的 工作区备份,直接输入提示词,那这里的命令就是我们刚刚在 gitup 复制的命令。直接回车, ok, 这样就已经推送好了。我们回到 github 刷新一下页面, ok, 可以 看到工作区已经同步过来了,我们还需要给工作区配置一下,让它每轮修改后都提交代码并推送远程。像这样的固定流程,可以直接加到 agent 点 m d 文件中,那如果你不会写,也不知道要加到哪个文件里,你就可以这样问,直接给瞎子发送一段提示词回车, ok, 等它执行完提示词,就帮我们追加到了 agent 点 m d 文件里,那由于改了文件,这次变更它依然会帮我们提交到 git 仓库,到这里我们的工作区备份就做好了。后续如果你的工作区被删除干净了,或者需要迁移, 直接把仓库地址给到 opencloud, 让它恢复就好。 opencloud 的 每个 agent 执行过程中的持久化产物都会放在工作区,所以你可以随时在 github 仓库在线查看你的工作区文件内容, 甚至也可以直接在 github 在 线修改你的工作区文件,然后提交,那提交后给 opencloud 对 应的 agent 发消息,让他拉取一下最新代码,就可以直接应用了。修改工作区文件是不需要重启网关的,那我们有几个工作区就创建几个仓库即可,这里我就不重复了。工作区的这份 agents 的 md 文件建议大家有时间的话,就一定要看看 大家在安装的过程中有什么问题,或者是有什么花里胡哨的报错,可以直接发送给 ai 去问。我们实操的过程中,你会发现,有些是去服务器中的面板自己操作指令,有些时候也会在 opencloud 的 机器人聊天窗口上的操作。那为什么不全都让 opencloud 自己运行安装或者修改配置呢?原因有几点, 第一,有些命令他自己也跑不了,权限太高也不安全。第二,他的系统提示词太长,执行起来有点慢,还不如问外部的 ai, 然后自己去执行,更速度一点。 三、我们在做的是一个高度自制的 a 证的系统,如果我们完全不熟悉,是玩不起来这个 a 证的系统的。所以这个边界在哪儿?我的看法是涉及到一些 skill 安装或者是工作区目录下的内容,编辑可以给到 opencloud 去做,但涉及到系统层面的,哪怕可以让 opencloud 去改, 你也得知道它具体是改了啥,不然挂了你都不知道怎么解决。还有一个操作是直接在服务器上安装一个 cloudcode, 让 cloudcode 作为外部 ai 工具介入去修改配置文件,降低我们的操作复杂度,甚至可以创建一个专门用于编程的 opencloud 机器人, 但让这个机器人操作 cloud code 去完成编程任务,而不是他自己去完成编程任务。因为 cloud code 是 一个干净稳定的 ai 编程 agent, 是 一个非常优秀的 ai 编程产品。 ok, 本期视频到这里就结束了,真的是啰嗦了太多东西,原本我是不想录这期视频的,虽然我也是一直在有用 open cloud, 但由于上不了生产,对我来说它更像是一个学习样本,一个玩具, 互联网真的把它吹的天花乱坠。那最近估计你又会看到大量的第一批跟风体验 open club 的 人的反馈,一定有很多人态度转变,开始吐槽他,真的是很无语。所以大家要理性看待这件事情。 ok, 感谢大家的观看,相关的文档可以在评论区或者是私信找我要。那觉得不错可以参联。谢谢大家,下期再见。

opencloud 又更新了,它的更新是非常频繁的,这次发现功能和用户体验提升了很多,所以我带大家来更新一下。如果你发现之前的版本定时任务莫名的报错无法生效,那这次大版本更新你需要跟上, 别怕麻烦,跟着我操作轻松搞定。第一步就是我们打开终端或者是 power shell, 我 们按键盘上的 windows 加 r 键,它会出来运行窗口,在这里面我们输入 c m、 d, 然后直接确定。我们先来查看一下版本号, 我们输入 opencloud 杠 v, 现在我安装的是二零二六点三点二的版本,现在我们只需要输入这条命令来升级就可以,然后我们直接回车。 在这里如果大家是 mac 系统的话,执行命令之前一定要加一个速度来执行,否则会因为权限问题而更新失败, 这时候我们就更新成功了,但是重点来了,很多朋友升级完成之后发现跑不起来,那是因为新版本重构了数据库和密钥加密逻辑,所以在我们升级之后,我们需要执行一遍这条命令, opencloud dr fax, 这行命令会自动检查你的安装环境并修复配置文件,下面我们来执行一下。 好了,现在我们升级完成了,然后我们再看一下我们升级之后的版本号,我们直接回车,可以看一下现在的版本号就是二零二六点三点幺三,我们一开始的是点三点二,现在就升级成功了,然后我们再启动 web ui, 现在打开的就是我们更新之后的一个 web ui 界面,这次更新最香的地方也就是 web ui 用户体验更好了,我们可以看一下下面指示命令输入窗口,这里就增加了许多提高用户体验的功能,比如增加了上传文件的按钮,还有增加了语音输入, 还有在发送按钮的左侧也有了这个导出对话的一个功能,还有发送指令之后支持停止当前对话,之前我们只能等待响应,现在我们来一起看一下, 我们给他的任务就是今日 ai 资讯提供给我,然后我们发送,可以看一下发送之后这里就是一个暂停的按钮,如果我们选择停止 好了,这时候他就停止响应了,这个功能是非常有必要的。好了,这就是我们升级操作的全流程,本期内容分享就到这里,后面我会带着大家去更深入的了解它,用好它。好了,我们下期再见。

前头我们装完这个龙虾之后呢是没有任何技能的,所以说,呃,我们在这里呢要给龙虾安装一个基础的技能,那这里呢要怎么装技能呢?装技能,其实,呃我们可以在这个终端里面进行安装,我们新建一个终端端口, 装完之后呢,我们先用一个什么,我们先看一下这个本地技能的状态,可以用 open call s k i l s 来看一下有哪些技能。 那当前呢?像这个什么?呃状态是 missing 的, 说明说我们这些技能都没有装上去,然后像这个是 ready 的,是已经装过技能了,那当然像这个是,呃小龙虾里面自带的,那我们会经常用到这种第三方的技能,那像什么?呃查找技能叫 fine skills, 以及是那个呃 快捷自动快捷页面的查找这种技能。还有一个是那个代理技能,那像这个代理。像这些技能呢?是在那个 java hub 里面,呃可以找到的,像这个网站叫 java hub 里面,那呃怎么用这个 java hub 呢?首先我们先安装一个用 npm 工具, npm 命令,哎工具,然后安装 java, 把这个 java 的 工具先给它装上去。 那这个已经 colorhub 装完之后呢?呃现在呢还是少进了,因为这个 colorhub 里面它是一个网站,我们去这个网站里面去登录进去,那这里呢?我们打开浏览器,打开浏览器,然后这里输入一个十七 l a w h u b 点 ai, 进入这个 ai 之后呢,我们先什么要通过这个 gethub 的 账号登进去,我们点一下这个 gethub 的 账号登进去,然后我们进来之后呢,我们要到这个 set 里面去, 那设置里面呢?这里这里呢有好多个,这一个叫什么 a p i tokens 的 这个,这个的话我们要在这里呢去创建一个 a p i token, 可以 用于什么?我们在 cloud, cloud 里面登录用的,我们这里呢去创建一个,或者说直接什么,或者说直接用这个,呃,不用 token, 直接用登录的方式也可以,我们可以这样子,我们可以直接这样子 输入这个命令,叫 cloud hash, 它这样子默认呢会打开这个什么默认呢?那你打开这个,呃登录的状态, 好,我们已经登录进去了,登录完之后呢,它这里呢会自动的去创建这么一个 token, 然后它这边呢它会把这个 token 呢带过来,这是一个,这是一种方法,当然第二种方法是什么呢?第二种方法是,呃,我们可以直接在这边再去创建一个 token, 去创建那么一个 token, 我 们这里呢输入一下这个 token 二吧。创建一个 token, 然后呢它会这里的这个 token 呢?创建完之后呢,我们要把这串的 token 复制一下, 复制完之后呢我们在这里呢切回来,切回来之后,然后我们在这里呢这是第二种方法,先来再输入这个 h u b logite, 那 logite 完之后呢?这里输入什么?一个参数 t o k 样 token, 那 这里呢直接粘贴刚才的这个什么复制的 token, 这样子也可以完成什么?也可以完成我们这个 clark harbor 的 这个验证, 验证完之后我们就可以安装我们刚才说的这么一个技能了。那第一个先装,一个是我们,呃,一个是查找的技能,我们输入这么这么一个 a w 去 usb hub 安装 still f i n d 加 s k i l s 这是这是就是让那个小龙虾呢自动的去查找我们的技能,它这装完之后开始安装, 那第二个技能是什么呢?第二个技能是刚才说了一个是,呃,一个叫网页的去网页上呃,自动化操作网页的这个查找的技能也是这个 c a w h u b 这样叫做 t a v i l y 杠 bob 杠 bob 杠 s e a r c h 啊,这个 y for open call, 这个是那小龙虾的自动的去网页上去查找这么一个技能。 好了,那这里呢?告诉我们是什么?呃,有一个是确认的状态,然后我们选择 yes 好 了,那第三个技能就是代理的技能 bob, 那第三个技能,这我们再输 b s 查找,那这三个技能呢?我们都什么都已经安装完了,呃,那我们呢可以是什么呢?呃,当然也可以说我们可以用这么一个命令 叫做,呃, c a w h u b c s 取,我们可以输这么一个命令,把一些关键字呢技能的前面的关键字呢输一下,看一下它可以找出呃所对应的。那像这这个列表呢,就是有很多技能,比如说这个是针对某个版本的,那这是呃另外一个查找的这么一个技能, 所以说我们可以用这么一个技能来做,那我们安装完之后呢,我们看一下这个技能是否已经安装成功了哈, 那看一下装了哪些技能,然后呢可以到页面里面去看,你看当前我们新装的这些技能呢,已经都装进来了,那如果说都是这些都是平行的,我们是这些技能都是没有安装的。好了,那这里呢技能已经装完了,那我们可以回到网页中来,那如何去确认这部分的技能呢?我们在这里呢刷新一下, 刷新完之后呢,我们点这里叫 workspace, 那 叫工作空间的这么一个啊,就是我们可以看到我们刚才已经装好了这三个技能。那这个呢?就是我们什么啊?小给小龙家装技能的这么一个合作方式,那也就是我们目前呢这三个呢是最常用的,也是必备的这么三个技能。

只要输入一句话,就能安装全网爆火的 openclock 小 龙虾, windows 和 mac 电脑都适用。首先打开系统自带的终端,以管理员身份运行,然后输入这条命令,使用我们开发的傻瓜式装虾程序, 接下来等着就好,程序会自动帮你检测小龙虾所需的环境,并通过国内镜像加速安装。 安装完成后,程序会引导你选择 ai 服务商建议选国产的,输入从 ai 平台获取到的 api k, 然后选择默认模型,就会自动弹出使用小龙虾的网页了。愉快的和你的小龙虾聊天吧! mac 电脑按 command 加空格键唤起聚焦搜索搜索终端并打开,然后输入这行命令,其他步骤都跟 windows 一 致,你学废了吗?

大家好,今天给大家讲一讲 oppo, 它的外号叫做龙虾,我主要从四个方面给大家说一下它是什么,怎么安装,适合哪些人安装,还有它的应用场景。首先给大家交个底,如果说你连 oppo 那 个怎么安装的话,线阶段就先不要去装它了, 因为线阶段上 oppo 靠的话,它不是那种下载就可以用的一个安装软件,但有很多的实际上一些门槛,安装只是它的第一步。 那首先说一下 openclaw 是 什么? openclaw 的 话是目前最火的这开源的 ai 智能体,它能去实实在在操控你的电脑,像浏览器,处理文件,自动化 等大量的功能,等于说是 manos, 在 你本地去使用的,恰恰就是能聊天,它是能真的动手干活的一个 ai。 首先说安装这部分安装,我为什么说也不会装就不要装,因为现在安装只是它的第一道门槛啊, 后面你还要配置 skill 配置 m c p 有 很多大模型技术知识的需要去学习,安装层面要需要一些漏斗环境, m p m 环境这些需要理解一些前端的一些编程经验。对于安装小白来说,或者是你没有在这个互联网行业来说的话,是 会遇到一些比如说环境问题,权限问题,各个问题导致你安装不上,那个时候排插成本就相当高了,还是有什么手机版,还有什么云端版,云 云服务器版哈,这两步其实你安装下来体验下来基本上都用一次放弃了。我为什么说强调不会着急再怎么装呢?因为目前他不是一个可以像豆包一样可以完成图片,图片生成视频生成这样的一个完整版的一个 成熟的 ai 智能机。如果说你连安装都搞不定,后面要写技能,写规则,写排错,自动化、查日之这方面你也都搞不定,需要大量的人力去介入,当然它其实还是现在是红利器,主要还是程序员的红利器来说,如果你都不在互联网上去办公,是完全没必要去装它的。 这个是首先是第一点,我讲一讲,其实现在最最擅长场景就是帮别人安龙虾,收费呢?九十九,九十九到九五百元,不对啊,这个确实也是赚取这个技 ai 的 技能信息差,这个呢就比较割韭菜了,这个就做做这个 skill 做技能包, 那这个就需要比较专业的一个编程经验了,做的一个优秀 skill 包是非常值钱的。像我之前做了一个 ai 短距的 skill 包,它可以一句话生成 ai 短距,那里面就有这个技能包,这如果是做到付费会 很赚钱的,并且他也需要一点编程经验去理解各大平台的一些 api。 那 第三个就是做一些自动化外包了,比如说做数据处理,爬虫这些客服自动化的这样的工作啊,这些的话也是如果说企业去使用也是非常赚钱的。 第四个场景就是做一些体校文件整理、邮件整理、企志报,这就是本地的一些个人的一个体校场景了 啊。总之就是 oppo 卡的话,如果你不会安装的话,你就不要找上门找安装,上门找安装的话,它也是一个最基础版,你后面的学习成本也是非常高的,那适合一些愿意折腾的或者想靠爱赚钱的人去准备。

open 卡尔一键安装包,傻瓜式部署全部整理好了,打开安装包后,这里可以无脑,下一步 安装完后打开会检测你的 note 环境,然后在这里可以选择龙虾版本,我们选择官方原版本, 然后一键安装,此时会在后台疯狂拉取镜像,稍微等待会 出现这个说明安装快好了。然后我们回到软件 这里就会显示后台控制面板,然后在这里配置模型 rpi, 输入你注册模型厂商 rpi 即可。 然后在左边选择实时聊天, 显示上下文就能进行对话了,是不是很方便?安装包无偿分享,还有全方位的不熟指南,全部给你。