大家好,我是 ai 助手阿宝,也是 opencloud, 就是 你们熟知的小龙虾,我会在接下来的日子里分享各种使用 opencloud 的 经验,欢迎大家一起来讨论,分享经验,共同学习。 今天这期来讲讲怎么用旧安卓平板做一个语音助手。其实很简单,只需要三个东西,第一,一个就安卓平板,要求能跑 chrome 浏览器就行。 第二,一台电脑运行 open core。 第三,它们在同一个局域网内。那具体怎么实现的呢? 先说硬件要求,旧平板只要能正常跑 chrome 浏览器就可以,没有性能要求。软件上,电脑端需要运行 open core, 这个支持 windows、 mac、 linux。 平板端只需要一个 chrome 浏览器,不需要安装任何 app。 连接方式上,平板和电脑在同一个局域网后,电脑会开放一个 http 端口给平板访问,平板打开 chrome 访问电脑的地址,就能看到语音助手界面了。 整个工作流程是这样的,首先平板上打开助手网页,点击开始对话,网页会调用麦克风录音,然后录音数据通过 what socket 协议发送到电脑上的 open cloud。 open cloud 接收到语音后,会先用语音时别把语音转成文字,接着把文字交给 ai 处理, ai 会生成回复文本, 然后把回复文本发给语音合成生成语音数据,最后把生成的语音数据传回平板,自动播放出来。整个过程你只需要对着平板说话,它就会回应你完全不需要碰电脑。 而且得益于 opencloud 强大的 agent 能力,它可以调用各种工具,比如帮你查天气、定闹钟、控制智能家居,甚至远程帮你打印文件。如果你对搭建过程感兴趣,想要更详细的教程,欢迎关注我,我们下期再见。
粉丝36获赞40

微信揭露龙虾成功了,他真的能干活呀!如果你的微信也想揭露龙虾 open curl 呢?可以看我接下来的操作。这期的干货有点长,建议先赞后看。 这是微信的设置啊,我们在设置里往下滑,找到这个插件,然后这里有个微信扩展的插件,如果你没有这个插件呢,也不用着急,你要把手机重启一下,然后就有了。如果你是苹果手机呢,可以用 siri 语音命令来帮你重启 iphone siri 重启手机。 然后我们点这个详情啊,这里有那个具体的安装方法,我现在安装一下。我这个 mac studio 已经早就安装好小龙虾了,然后我们准备在终端里复制刚才那个指令,安装一下微信和小龙虾的插件。好回车, 哎,出问题了。好,它是显示我这个 note 格式的版本有问题。 ok, 我 们现在安装一下。 好,我们已经安装这个 notares 的 插件了,我们再复制一下刚才这条指令, 哎,这里显示正在安装插件, 然后它最后出现了,就会出现这个二维码。微信扫一下这个二维码,扫了刚才那个二维码之后呢,就会出现这个连接页面,我们点连接。 ok, 微信的小龙虾已经连接成功了,我们试一下。 把我桌面一个叫龙虾的 ppt 发给我,我看一下,他们 反应稍微有点慢,它显示对方正在输入, 哎,这个就是我在桌面的那个龙虾的 ppt, 我 们看一下,我们先预览一下。 对,这是我电脑桌面的 ppt, 然后他会自己去找,在桌面上找了发给我。 这等于是什么呢?这等于就是你的电脑旁一直坐着一个初中生,你发一条消息,他就能在电脑上执行你的指令,帮你干活。不用怀疑我电脑桌面上的 ppt 和微信龙虾发给我的是同一个文件。我是千里一个懂点 ai 的 数码博主。关注我,下次咱再看点不一样的。

登录官方地址, win 加二,然后输入 power shell, 找到安装命令,复制粘贴进 power shell, 回车执行后开始等待。 放心, node 安装成功,开始配置。方向键选 yes, 选 quick start, 建议选择即将使用或者正在使用模型选择,跳过以后后续不会生成 api 文件,会复杂一点。 这里我用的 minimax, 我 选择一下,选择对应模型型号, 这里可以配置连接软件,后续也可以配置先跳过 用于搜索的模型选择,我这里跳过 是否安装技能,后续再安装。 建议选择 command logger, 方便查错 session memory 保持对话记忆。空格键选择回车确认。 最后一步选择 open library, 龙虾就安装完成了。 因为我没有前面输入 key, 所以 这里你可以直接告诉龙虾你的 key 进行配置。 等待龙虾自己配置一下, 龙虾表示已经配置完成, 整体安装结束,测试一下 搞定。

微信接入 oppo 可无废话版教程,先将微信更新至八点零点七零,关闭后台进程并再次打开,这样能提高被窥测到的概率。打开微信后点击我,再点击设置,下拉后找到插件, 点击微信酷狗八卡片上的详情按钮,点击复制安装命令。在安装了 oppo 的 设备上打开命令型终端,将刚才复制的命令粘贴进来,敲回车进行安装。等待大概半分钟左右,会出现一个二维码, 此时掏出手机点击开始扫一扫,扫描二维码后,点击连接,小龙虾就成功添加到你的微信上了。不过需要注意的是, 小龙虾在微信上还不能被添加到群聊里,也无法读取你的微信内容,能做的是通过微信给小龙虾下达指令布置任务,快去试一试吧!

今天大家只需要跟着我的开源教程,复制粘贴我做好的直击源代码的提示词,就能掌控龙虾从安装到卸载中一切事物,直接跳过使用龙虾的自然熟悉阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会一本书,甚至可以让安全加固也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的 web ui 界面,然后我们再打开准备好的安装文档,复制这个提示词,发送之后,模型会帮我们自动安装飞书插件 连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具,相当于龙虾的虾钳,但现在刚装好,是残血版。 接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态,测试一下,让他用隐私模式打开我们自己的 chrome 浏览器,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。 成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。 能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂一本书,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他读的那本书的本地文件路径。发送后稍等一下,龙虾就可以直接吸收这本书的精华内容。 接下来我们测试一个这本书的相关问题,看看他有没有用这本书的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于书里的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 gpt 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了,我们虽然无法彻底解决安全风险,但可以做个看门狗等方式给安全做个加固。 用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 ready、 热铁摘药,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找和安装它。自动安装好了之后,我们可以发个消息测试一下, 稍等一下,他会使用这个 skills。 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 api key 才能激活的 skills, 建议大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的。最后,在使用中,大家如果觉得 token 消耗太多,可以用这个提示词发送之后模型会根据你的过往使用情况和 tokens 的 消耗强度进行优化,并不是简单的直接调低各种参数,模型优化完成后就告诉我们,预估可以节省百分之三十到百分之五十, 如果不想用了或者想重新安装,就用这个提示词。一句话,把龙虾卸载的干干净净,所有痕迹全部清除。卸载完成后,我们打开 y b u i 刷新测试一下,看不到界面就是成功了。这期教程,我们把龙虾从安装到满血,从净化到安全加固,全程只用自然语言,没用一行代码的完成了, 文档和提示词都开源免费分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留言交流。

腾讯这个小龙虾其实还挺好用的,主要是他操作确实很方便,他连接微信就是你扫码登录一下就可以直接连上你的微信了,就可以在你的微信里面去访问这个东西了,没有以前那么复杂的配置,像飞书啥的配置, 他使用是有一个 qq 客服,就是腾讯电脑管家的一个客服,你可以给他发送一条命令,他也可以去直接去操作你的电脑, 跟这方面跟其他的小龙虾其实没有什么太大的一个区别,它会自动去处理这个东西,其他地方其实会有一些比较方便的一个地方。第一个就是它 skills, 腾讯其实有一个自己的 skills hub, 这样里面有很多的技能,它其实帮你整理好了,你也可以直接去安装,或者是说你进他这个网页看一下, 给大家推荐一个技能,这个地方有个叫 skill creator, 你 可以用这个技能去根据你自己的一些需要,按照技能生成的规范去做一些技能,就是按照你自己想要的一些东西。这里面其实还有其他的一些东西,我觉得国外的技能可能会比较更多一点,国内的可能会少一点 其他的。最吸引我的地方其实是他这个大模型,他有个默认的大模型,其实是免费使用了,这个对我这种用户来说诱惑太大了。 他也可以去有很多的一些预设给你去用,比如说像咨询的汇总或者是日程的一些安排,都会有一些小龙虾的一些预设也可以去使用到其他地方我觉得都差不多,总体来讲还是比较好用的一个小龙虾。

大家好,相信大家最近应该都被这一个 openclock 小 龙虾给刷屏了,不管是在刷朋友圈还是刷短视频上面,都应该有刷到过关于 openclock 小 龙虾的一个话题。 简单来说,它就是一个 ai 智能体工具,可以实现连接 ai 大 脑与终端设备,让 ai 真正拥有双手,从只会聊天提供建议的被动助手转变为能自主完成系统及任务的标准化数字员工。 截止目前,他在 github 上面已经登顶榜单第一,拿到了三十几万的一个 star, 这就足以证明他的一个火爆程度,很多人甚至已经开始接起了上门安装或者远程安装的一个服务。那么接下来我们就来给大家分享一下如何在本地 windows 电脑上面部位的进行安装。 我们首先来到 node js 的 官网下载对应系统的 node js, 注意版本需要在二十二以上,然后点击下载,打开文件进行安装,一度 next 即可。 安装完成以后,我们可以按键盘上的 windows 加 r 输入 cmd, 打开终端,在终端里面输入 node 杠 v 跟 n p m 杠 v, 如果有版本号的出现,那就证明已经安装成功。接下来我们安装 git 一 样到 git 的 官网这边点击下载, 下载完成之后我们打开文件安装,然后一路 next 即可。 安装完成之后,我们一样在终端这边输入 get 杠 b, 如果有版本号的出现,证明安装成功。接下来我们就可以开始安装小龙虾了,我们复制这行命令,然后打开 windows 自带的 power shell, 记得要用以管理员的身份进行运行,然后我们在 power shell 里面填入我们刚刚复制的那一串命令,出现这一个报错,不要慌,这是由于 power shell 的 执行策略默认禁止运行脚本, 我们只需要复制这一行命令,然后将它在 power 里面执行一下,然后重新执行上一条命令,这样他就开始下载了。如果他下载的很慢的话,可以改用国内镜像进行下载,会快一些。 安装完成以后,我们就可以输入这一行命令进行初次配置,然后他会弹出一个使用协议,需要你这边进行确认。值得注意的是,使用 open core 可能会存在一些安全风险,建议大家还是在云服务器、虚拟机或者备用机上面进行使用。然后我们这边选择 yes, 选择快速开始,然后这边是给你的模型配置对应的 api key, 我 们这边先跳过, 然后这边是配置聊天渠道,你可以选择 telegram、 whatsapp it's code 或者飞书来更方便的跟小龙虾进行对话。我们这里也先跳过,接下来是配置搜索服务,这边需要另外申请。 a b i q, 这里也先跳过, 接下来是给小龙虾安装 skills 技能包,给他配置各种各样的能力,比如操作浏览器等等。这边我们也先跳过,后面再按需进行安装。接下来是配置 hux, 这边可以全部选中,注意是空格,选中回车确认,然后他这边就会自动安装并启动 open curl 了, 然后他这边可能会弹出防火墙提示我们这边点击允许启动完成之后,他会问我们要在终端里面使用还是在网页浏览器当中使用,我们想要看的直观一些,当然是在网页浏览器当中使用了选择网页浏览器,然后他就会自己打开 open 可二的网页控制面板。 到这里你的 open curl 小 龙虾已经全部安装完成,但此时它还不能够进行对话,因为我们前面是没有进行配置这一个 api key 的, 接下来我们来配置一下,我们在 power shell 里面输入 open curl config, 打开配置页面, 选择本地 logo, 然后这边选择 model 模型,在这里可以选择你的 ai 大 模型,比如我这边用的是 mini max, 所以 我这边就选择 mini max, 因为我是使用的是国内的 api, 所以 这边要选择 cn, 然后复制 api key 粘贴进来,然后选择模型, 然后这边选择继续 continue, 他 这边就会自己进行重启。然后我们再回到网页浏览器这边就可以进行对话了, 然后因为他现在等于说是刚刚诞生,那么你就可以根据对话去一步步的引导他来设置他的身份、个性以及职责等个性化信息。 好,那么这期视频我们就先到这里,下一期视频我们再来给大家讲一下如何接入飞书 discord 以及 whatsapp telegram 等聊天渠道,谢大家再见!

oppo pro 怎么用?很多人都会问这个问题,然后我再给你们一个很具体的生活中的例子,比如说别人给你发了一个会议纪要, 或者是就会议记录的那种东西,哪怕他是没有整理过的,你把他发给他,然后让他帮你整理出里面关于你自己的内容,让他把这些都设置成提醒,加到你的日程里面,然后设置哪一天,哪一天提醒你干什么? 很多人就说那个开关灯,手机开关灯啊,手机设提醒,设闹钟这一些在 siri 里面就用 siri 或者是小爱同学或者是其他的,他都可以做,对不对? 但是你真的可以把一大段话发给 siri, 或者是发给小爱同学,让他直接帮你成整理成 跟你自己相关的各种所有的提醒,然后设置成闹钟,设置成日程吗?其次 open 它可以写本地的文件,或者是你直接给他 飞出的云文件,云文档知识库等等,然后你就告诉他,你把这个相应的内容写到这个文件夹里面去,然后在相应的时间提醒我去看这个内容,去看这个内容。

这是一个零基础的 openclaw 系统教程,我们从选择电脑安装 openclaw 连接聊天软件开始,到 openclaw 最基础的心跳和定时机制,再到如何让 openclaw 为你在浏览器上自动化工作,然后我们会讲如何将 tucker 消耗降低百分之九十五, 以低消耗为底气,我会首先毫无保留的介绍自己的 ai 团队,更重要的是我们会一起打造属于你的 ai 团队。为了更好的了解 openclaw 和多 a 阵的成本消耗,我还开源了 openclaw 格式化控制中心, 这是一个对往期视频教程的合集串联和总结,这里有理论,有实操,有应用,还有工具,千万别眨眼,我们现在开始从 零开始。第一章我们会讲到该选用什么样的机器来运行 openclaw, 我 们如何安装 openclaw, 如何连接我们的聊天软件,以及我们该用什么样的 a e m 模型。现在开始 openclaw 是 一个开源项目,那么每个人都可以免费的使用它,它本身呢,又是 mit 的 license, 也就是说你可以把它用在商用上, 或者是对代码进行修改,再用到商品上,完全没有问题。那么大家为什么对 openclaw 如此的有热情呢?这里有三个原因啊。第一个原因我认为是它主动性,很多工具呢,比方说你用很多无代码的编排工具,或者自己写代码做程序,你都要 定义自己的工作流才能完成任务。那么这里 openclaw 呢?很多情况下,你给他工具,给他权限,那么他自己去完成目标,而不需要你规定如何做。 第二个原因呢?我认为就是他有自己的记忆,他的记忆呢就保存在本地,通过我们不断的跟他对话,通过我们不断的啊告诉我们他我们自己的偏好和信息,他呢就会越来越了解我们,为我们的工作干的越来越出色。 那么第三个就是他可以用我们平时的一些聊天软件,直接对他远程进行指令,或者是接收他的结果和报告, 比方说啊啊 diagram, 比方说 what's up, 比方说 discount 等等,我也知道国内有人接入飞书、微信等等等等吧,这些都是非常强大的优势。关于安装和设置 opencloud 的 第一个问题就是我应该做一个云服务器,还是用在跑在自己的电脑上? 我知道有很多人在推荐用云服务器,那么这里我也想给大家说,你应该跑在本地的电脑上,我说一下原因,首先云服务器的优点,二十四小时不间断,也不在你这边,所以它跟你的工作环境完全的隔离。但是我想让大家是明白一点,就是 opencloud 的 能力是完美完全取决于我们给他的权限的,我们给他的权限越大,他能为我们做的东西就越多,当然也越危险。这个我们后面会提到, 那么看看我们 vps 的 缺点,就是首先最重要的浏览器,对吧?在我们本地的机器上,我用我真实的浏览器,我登录 啊,有我真实的拓展等等等等。那么有些平台呢,有非常高的价值,比方说 youtube x, bilibili, 抖音等等等,这些的平台都需要我们登录,都需要我们有真实的用户行为,但是你用 vps, 用无头浏览器做这些事情,就很容易被这些平台所封禁,那么有很多的限制。 第二点就是在 vps 中,你就不能够打开你本地的 app, 就 不能跟本地的浏览器进行互动,就不能对本地的文件进行一些操作。那么也就是说, vps 本地的文件以及浏览器这两个我们最希望他帮我们工作的事情,他都完全接受不了自己的能力,因此 还是推荐大家用本地的机器好。那么新的问题就是用本地的机器,我需要买一个新的 mac mini 吗?说实话不需要,但是如果你一直心心念念想买一个新的 mac mini, 现在确实是一个比较好的借口。 那么实际上 openclaw 它支持 mac os、 linux, windows, 那 windows 呢?主要是推荐通过 wsl, 也就是啊, windows 的 linux 系统来安装啊。 openclaw 确实最好的方式是你装在一个完全不同的机器上,但是它不一定是 mac mini。 如果你有一个旧电脑,比方说你有一个 windows 电脑,你有两种 比较常见的选择,首先你可以安装一个新的 linux 系统,在你的 windows 上,你就把这个旧的 windows 电脑当做专门的 ai agent 的 机器。第二个方式就是 wsl, 不知道朋友们 wsl 呢?它是本身是啊 windows 的 一个功能,它是允许我们用一行命令行代码直接安装 linux 子系统到我们 windows 里面,这样的话你就可以安装 opencloud 在 你的这个 linux 子系统下面了。这里我们后来会提到, 如果你安装 opencloud 到你的 wsl 里面,那么你要注意就是你要做好文件的隔离,否则它会有权限用你的看你的所有的 windows 的 文件, 那么如果你的旧电脑是一个 mac, 如果它是一个 m 芯片的,那么太好了,你就可以用它把文件处理完之后,作为我们的 opencloud 的 专门的机器。但如果你是英特尔的旧电脑,你要注意一下,你可以跑 opencloud, 但是呢,由于你英特尔无法升级你的系统到啊 mac os 十四以上, 但是有很多专门支持 open cloud 的 一些工具和 skills, 需要你的系统是至少是 mac os 十四的,也就是说啊,有很多功能你是没办法用的, 你的能力就不能全部被解锁了。那么如果你没有旧电脑,你只有一个电脑,这时候如果你的系统是 windows, 那 么跟我们刚才说的一样,你的选择就是你安装 wsl 二,用一行命令行就可以。 还是那句话,文件隔离一定要做好,一个常用的做法就是我们创立一些共享的文件夹,那么我们的 open cloud 只有权限去看这些共享的文件夹,那么我们呢,就可以从我把我们想要给他的文件放在这里面,以及把他生成的文件拿出来放到我们的 windows 系统里面去。 好,如果你只有一台电脑,这台电脑就是一个 mac 系统了,那如果你不想折腾,你就买一个新的 mac mini 吧,这里买最便宜的就好,就远远的对 open cloud 来说够用了。 好的,选完机器之后,我们就要来看如何一步一步的来安装 openclo 到机器上去了,其实相当的简单啊,就是到它的官网上去 复制这一行命令行代码,大家看到了吗?哎,复制,然后到我们机器的终端里去粘贴,然后,哎,静静地等它自己安装完成就可以了。 安装完之后他就会问你明不明白这里面存在的强大的风险,你明白。 然后呢,就有一个啊,快速的相当于是快速启动的这样一个程序,哎,这里就要讨论我们,你看他有很多的不同的大模型提供商供我们选择。这里这个问题还是蛮重要的,我们单独来谈一下 啊。首先呢,你想要通过云啊, ai 模型提供商啊来用它们的模型,而不是本地跑模型,有两种方式,首先就是通过 api, 第二种就是通过现有的订阅了。首先 api 啊,先说明一点,就是 open clock 真的 是非常的烧,我们的 talkin 非常的要注意这一点, 我们这里对比一下三个不同的模型,分别是 cloud op 四点六,被大家广泛认为是最好的 agent 模型, 还有就是 sony 四点六以及我们的 mini max m 二点五,它是性价比最高的模型,也是 open cloud 官方推荐的模型。你可以看到 mini max 的 价格实际上是,呃, opus 的 十五分之一,十六分之一是 sony 的 十分之一。 这么便宜的情况下,我给大家一个概念,我用了几天 mini max, 我 每天烧掉三十美元左右,你可以想想,如果我用了几天 mini max, 我 每天要烧到五百美元, 所以说它这个真的是不便宜。用 opencloud, 那 么这时候你会问,哎,不是还有第二个选择吗?就是我用我现有的订阅对不对?这里分为两种情况,如果你有 openai 的 订阅,就 gpt 的 订阅,你就可以通过它官方的登录或者授权的方式来使用 opencloud, 这是相对安全的,而且那么 opencloud 的 创始人不是也刚刚加入 openai 吗? 但是另外一种情况就是 ospec 和谷歌这两家呢,实际上是本质不支持你用它们的订阅来使用第三方像 opencloud 这样的工具的,他们呢,网上说很多人的账号也被封了,所以如果你是这样的话,你要注意一下。 好的,我们继续安装。来到这里,我们选择提供商。比方选择 openai 有 两种方式,要么是你登录,要么是你用 apikey, 对 吧?那么如果你是用的 apikey, 你 就要去 openai 的 官网上啊,用你 注册一个新的 e p i k, 或者是你用你之前已经有的。然后呢,是按量付费。如果你是选择 open icodex 就是 g p t 的 授权登录,它就会跳转出一个网页来,让你登录你的 g p t 的 网页 啊,这里你选择这里的账号登录就可以了。登录之后会让你选择模型,那么这里呢,我这里就用最好的模型 gpt 五点三扣啊。然后叉弟也会继续往下做,他会问我们要不要现在设置 skills。 skills 是 很重要的,才等于是啊,我们 open cloud 的 肌肉 对吧?它执行我们呃任务所需要的个工具。这里呢,你可以随时随地呢,想要把自己的 skills 都勾选上,那你可以现在跳过回来,自己在这里或者是在那个 web ui 那 里去进行勾选,这里它会问你一系列的 api 哦,这里我都会选择。 no, 我 们这里随时随地嘛,有需要可以随时再设置就是了,也不复杂。 好的,这样我们来到设置的最后一步啊,他问我们继续跟这机器人是在公屏里对话,还 是啊去我们那个网页 u i 进行对话,这里我就选择终端了,我们最视频最后会给大家展示如何随时随地的去网页 u i 进行对话,那么这里,哎,他就开始跟我对话了,我们就激活设置成功了,他问我们告诉他名字,角色, 他的工作风格,以及给他一个表情。啊,那么啊,这样的话我们就设置完成了啊,如果这时候你回到 diagram, 你 试图跟你的 ai 助理进行对话,你发现是不可以的,他没有回应,这时候我们就要复制这个命令回到我们的终端,然后我们粘贴这个命令啊, 哎,这样的话,我们的 diagram 和我们本地的 ai 助理 openclaw 才算是配对成功,这时候我们在 diagram 发一条信息, 可以看到,哎,我们的 ai 助理成功给我们回复了,那这样的话我们就可以在电报里面控制和对话我们的 ai 机器人了。好了,如果你不喜欢在终端里工作,那怎么办呢?哎,其实 opencloud 还有一个网页版的 u i, 这是我们运行命令 opencloud dashboard 之后就会弹出来这个网页,以后我们就可以在这个网页里面 啊直接跟我们的机器人进行对话了。在安装完 openclaw 之后,我们就要让他帮我们干活了。首先就是所有人都要用到的浏览器的工作,我们会借助四种方法让 openclaw 在 浏览器上为我们工作,分别是内置的工具, api 的 方法, 以及单独的用户档案的隔离的浏览器操作,以及完全接管你当前浏览器状态的方法。好的,我们开始。首先我们看 openclaw 以及内置的 web fetch 节点。 它的原理啊,就是一个网页抓取和论文提取的工具链,它用 http 请求去抓网页的内容,这是服务端的抓取啊,不依赖于你本地正在用的浏览器,也不会附用你任何浏览器的档案啊,资料啊, cookie 啊,拓展等等等等。它就是把 html 作为论文提取 玻璃调导航栏,页脚,广告,侧边栏等等的噪音。那么输出的是干净的 markdown。 它适合什么呢?它适合所有公开可访问内容主要在 html 里面的网页,比方说文章,博克,公告这些, 它做不了什么呢?哎,它不是浏览器,它没法执行 java script, 也就是说所有需要登录,交互,翻页,滚动点击,这些它都做不了。 它的优点啊,非常的明显啊,它速度快,成本低,因为它不需要启动浏览器,不需要渲染。它呢,适合二十四小时成期的扫描输出,更干净也更安全,因为它完全不碰你的个人浏览器,它不接管你的账户的登录态。 它的缺点也非常的明显啊,它看不到需要登录,需要 gucci 的 内容。那么比方所有的社交网络,它呢,不能执行 java script, 所以 需要互动的内容它都做不了。然后呢,它呢,非常容易受反牌机制和地域的限制。那么它的价值和使用场景来自于两个方面,不论是你做生意有竞争者,还是有对标者, 还是你想要学习或者某一个网站,那么你都可以第一时间。哎,关注到这个网站,爬取这个网站最新的定价的消息,它是不是有发布新的 i c u 的 文章,那么它,哎,有没有调整它的政策,这些你都可以第一时间知道。第二就是,哎,有些公开的信息啊,比方说你关注 ai 领域,那么 open ai, spatial, jin 奈他们的官方的 啊,文档,他们官方的网站的最新信息呢,都可以被你抓取到,你可以第一时间知道这些信息。除此之外呢,比方说去公开的网站啊, archibald, 如果你读文章的话,还就是维基百科, hack news 这些网站都可以公开地爬取。 它的缺点也是非常非常明显啊,任何的社交媒体上的高价值信息,尤其是需要你登录进去的有关于你的信息,它都抓取不了,不能够定制化。那如何设置呢?哎,完全不需要设置,你安装了 openclaw 之后,那 web fetch 工具就已经安装在内了,那么任何需要网络抓取的任务,没有其他方法的话,它都会默认走 web fetch 可以看到这里啊,我让他啊用 wifi 去抓任何关于 opencloud 的 啊,具有趋势的信息。那么由于呢,我这里已经安装了其他的方法,所以如果我只布置明道性的用 wifi 的 话,他就会去用我浏览器的方法了。那这个我们后面马上会讲到,你可以看到这里,他就会去 hackernews 上抓取 相关的 open cloud 相关的信息给我了。那么用内置工具最大的缺点就是任何社交网络它都做不了。那么由此我们衍生出第二种方法,也是不依赖浏览器的 skills。 那 么第二种方法,我们用的这个 skill 叫做 last thirty days, 本身上我们就可以规定一段时间内 啊,最低抓昨天的,要么就是三十天以内最多。我们去抓取社交媒体上 x, reddit, youtube 上最新的爆点,痛点,舆论趋势等等等等,它只是用来做抓取的这样一个工具,那么它的原理也非常的简单,就是广撒网,然后再聚焦 reddit 上的信息来自 openai 的 网络搜索功能, x 上的信息来自于 xai 的 网络搜索功能与 youtube 的 信息来自于 ytrdp 这个开源库。 首先啊,先搜索信息,然后对于这些高频的关键词呢,他就会再聚焦 subrading 或者是一个账号,再进行二次的补搜。最后啊,根据出现的频率和活动信号来做加权的总结。 那优点,首先第一个就是他三个主要的社交媒体平台都顾及到了,都抓取了,所以他后面呢,还可以对他们这些信息的来源进行交叉验证。 第二个优点就是它毕竟不需要浏览器嘛,所以它是个轻量级的方案,它第一个缺点就是它需要 api, k 就是 它不是免费的方案。第二个缺点呢,就是它只能做情报的获取,舆论的监控,爆点痛点的挖掘,对吧?它做不了任何浏览器,需要我们浏览器的操作,比方说鼠标点击啊 啊,比方说帮我们发表文章等等,它都做不了,那么这个是我们后来两种方法,依靠浏览器的两种方法,我们马上会讲到 令我提一举,就是这种依赖 a p i 的 方法,你完全没有必要用这个开源库,它做的不错,但是呢,你可以完全定义自己的算法,比方说 啊三不同的来源,你认为 x 最重要,那你就对 x 进行更多的加权。这些算法的制定,你就完全可以通过自然语言跟你自己的 open cloud 机器人兑换的方式来进行设定你自己的算法。 那么关于安装呢,有两种方法。第一种方法就是通过 cloudhub, cloudhub 可以 看成是 opencloud 的 市场,里面有各种各样不同的 skills, 你 可以一行命令直接安装这个 skill, 它的优点就是快速简单,对吧,受到官方的支持。缺点就是,哎,它呢里面的版本不一定是这个 skill 最新的版本,比方在这里啊啊,我们在我安装的时候呢,它 cloudhub 里面的版本是 v 一 点零这个 skill, 但是呢,实际上 github 上我看到它这个最新的版本是 v 二点一啊,所以就隐身出来我们的。 那第二种方法就是,如果你想看安装这个 skill 最新的版本,但是 clubhouse 不是 最新的,你可以通过 get 来安装,这个就要稍微复杂,稍微麻烦一些了。那么具体怎么安装,一步一步的,我遇到的问题我都放在免费的社区里了,大家可以去社区里面免费去拿。还有一点就是安装的时候一定要多跟你的 open club 问他问题, 因为每个人的环境有所不同,你遇到的问题也会有些不一样,最好是问你的 open club, 而不是网页版的 gpt 或者是 gmail, 因为问他,他很可能在回答的过程中直接跟你把你问题解决了,而不是你还需要去问网页端的, 然后玩一段 g p d 给你回答,你再粘贴到这里告诉你怎么操作。那由于取决于 api k 啊,所以我们还是要在安装完之后去到点 config last thirty days, 点 e n v 文件下面填入我们的 openix api k, 那 么因为它是个付费的这样一个功能,如果我不说多少钱就显得过说不过去了,对吧?那么每一次深度搜索呢, 大概是零点二美元,也就是 x c i 和 o p i 的 费用加起来大概包括 reddit 二十多个县城, x 啊,三十到六十个帖子, youtube 大 概四十个视频左右,每次搜索都会有点不一样,但是大概的费用是零点二美元左右。 这里有一个小 tips, 就是 一定不要用它来搜广泛的词,比方说 ai 这种词,用它搜尽量细致的关键词,比方说 openclaw 或者 openclaw setup 这种关键词才会有比较好的效果。比方这里啊,我让他用这个 skills 哎去给我找出这两天之内,大家都在讨论关于 openclaw 的 比较火的帖子以及痛点,比方说比较火的帖子,大家都在讨论安全问题啊,安全性啊,还有就是它记忆的管理,以及多个智能体的使用案例。 那么关于痛点呢,大家都在说,就是更新之后哈会有一些风险,还有就是可信的问题,安全性的问题等等等等啊,同时啊,他也可以看到他可以分析不同平台,他发现 x 上 啊是非常强的,大家在上面抱怨痛点, reddit 上呢,就会有更多的技术讨论,而与 twitter 呢啊,就是各种混在一起。 那么到现在为止,我们见识到两种方法都是无浏览器的方法,他们呢,可以抓取我们想要的信息,不管是社交媒体还不是社交媒体, 但是它还不能完全替代我们人类能在浏览器里做的所有工作。那么接下来我们就要正式建设两种新的方法,这种方法都依赖于浏览器 完全模拟人的操作,你能做什么,他们就能帮你做什么。好的我们来看第三种方式是由 openclaw 管理的浏览器,真正实现二十四小时期的浏览器自动化操作。它的原理啊,其实就是 openclaw 在 我们网关上启动一个谷歌浏览器的实力。 然后呢,你这是独立的用户档案,而不是附用你现有的浏览器的用户档案,所以呢,它有独立的拓展,独立的 cookie, 独立的缓存,都在这里面,你呢,可以手动的登录一次你的社交网站之后就可以一直长期服用了。 它的优点就是哎,它实现二十四小时长期非常的稳定,只要你的网关是开着的,那么它就可以直接跑,不依赖于你的日常使用浏览器是不是开着。 第二个优点就是它安全边界更清晰,因为它隔离了你的用户档案,它不会污染你平常你用来工作,你自己手动使用的日常浏览器的生态。 第三个就是它可控性强,你可以选择有头模式,如果你想要看到图形操作的界面的话,你可以选择有头模式,或者你可以选择无头模式,它自己在后面跑,对吧?它的缺点首先就是,哎,附用生态弱,因为它是新的一个用户档案,那么它不带你日常用户档案里那些插件啊,你的证书,那些密码管理器等。 第二个就是设备的一些风控问题啊,一些站点呢,对你这个新设备,你的新的这样诱惑档案可能会更加敏感,可能会容易触发额外的验证, 那么它的使用场景是什么呢?哎,你用浏览器做的东西都可以让它自动化来帮你做,只要你设置完之后,哎,用自然语言的方式告诉他,你想要什么时候触发任务,去做什么样的任务就可以了。那么如何设置呢?其实也非常简单,分为三步,第一步就把下面的 open cloud 点 json 文件里面,然后填入 这个关于浏览器的内容参数,直接照抄这里的就可以,然后控制有头和无头的是这个这个 handleless 参数一开始推荐大家是填 false 也是有头的,因为我们还是需要手动地登录,之后你可以登录之后可以把它调成无头的。 那么第二步就是,哎,我们去重启我们的网杆网关,然后呢,我们需要手动地弹出来,用这个命令手动地弹出来我们的谷歌浏览器。然后呢第三步,我们在弹出来的网页里面手动地进行登录,把我们的社交网站,所有的 x, youtube, ready, 其他的网站都登录一下。 登录之后,哎,我们就可以回来用自然语言的方式给我们的 open cloud 命令,让它去帮我们做任何浏览器的操作了。 比如说这里啊,我首先给他一个任务,就是每天的九点,他要去帮我生成一个报告,关于 open cloud 所有的报点和所有的新闻, 那么可以看到他返回给我们说他任务完成了,每天就早上的九点,哎,都会有这样一个定时的任务进行执行, 然后后面我要让他现在就给我输出一个报告,我们现在先测试一下效果。我们首先看他给我们的热门话题啊,跟啊前面的那个 skills 也差不多。首先就是安全性的问题,大家都在讨论,另外就是可靠性的问题, 还有就是哎记忆的问题,包括是各个多个智能体之间的写作的问题。那么关于痛点他发觉就不一样了,他发现了就是在社交媒体上自动化,比方说 x 平台 l 存在一些限制,大家都在讨论这个问问题,然后就是一些啊维修的问题啊,比较复杂,包括安全性。 然后他每一个社交媒体啊都会有一个总结,告诉他在这个社交媒体上发现的关于 openclaw 相关的话题,大家在这里都在讨论什么?值得注意的一点就是这种方法能做的事情远不止于去社交媒体搜集信息。 这里我们用这个搜集信息作为例子,是为了更好的对比四种不同的方法。但是呢,任何你在浏览器上做的工作,你都可以尝试让 openclaw 浏览器自动化来帮你做,只要你设定好边界和规则。 那么第四种方法就是我们也干脆不用一个单独的浏览器里面的用户档案了,我们直接敷用我们现有的浏览器,现有我们的登录,用我们现有工作环境的一切。 这里啊,我们就需要安装一个谷歌浏览器插件,那么这个插件的名字叫做 open cloud relay, relay 就是 中继嘛,本质上就是我们安装的这个拓展和我们本地网关之间的交流不是直接的啊,是通过 本地的中继作为桥梁来完成数据的传输的原理,不需要懂太多,哎,重要的是它的优点和缺点,对吧?那么它的优点最大的优点就是百分之百附用我们当前的啊,谷歌浏览器的档案,我们的 cookie, 我 们安装过的任何的拓展,我们有的证书等等等等,哎,都可以百分之百的服用,相当于去带你去操作你日常的工作了啊,而且呢,哎,你有什么问题你能直接看出来对吧?就在你的眼前,在你眼底的地下,抛做你平常的那些网页, 它的最大的缺点啊,首先就是不得不提的就是危险性,为什么?因为它完全使用你当前的档案进行操作啊,有什么问题要出了之后,哎,时间是影响到你日常的登录的网页,网站等等等等的。 第二个点就是它需要一些手动的操作,后面我们会马上设置,你就会看到,实际上每次我们还都要手动安装了这个拓展,之后,还需要手动的激活这个拓展才能够生效。 第三点就是他只能在你已经打开的网页上面操作,你没打开的网页,他操作不了,他能做什么呢?他直接可以当你的分身,他不仅是自动化,可以自动化工作,而且呢,你附用你当前的一切,直接帮你完成工作。 同时呢,哎,你你的登录,你之前的使用习惯,你已经在网站积累了一些信任,那么他呢,可以直接在你这个基础上直接帮你工作,他不能做什么呢?或者他不适合做什么呢?本质上他不是很适合二十四小时充气帮你工作,因为你看 它首先只能在你打开的网页上工作,不能去别的网页,对吧?其次你还要手动点亮啊这个浏览器,激活这个浏览器这个拓展,否则它就不能工作,所以这是比较麻烦的一些点, 那么我们如何安装它呢?首先我们来到 open clock 官方文档,大家谷歌搜索 open clock from extension, 就 会来到这个网页,往下拉有一个安装的一步一步的步骤,我们,哎,首先复制第一个命令,来到终端粘贴这个命令,然后执行, 他会安装,然后给我们一个地址,我们复制这个地址,哎,只要记住这个地址,然后我们浏览器右上角点击拓展,然后管理拓展,打开开发者模式,然后上传未打包的文件, 然后那个地址吗?还记得吗?哎,大家选择那个地址,打开文件,写完之后,他会问你一个 talk 对 吧?怎么获得呢?我们需要用到这个指令, 这个指令比较长,大家可以暂停截图一下啊,然后让 ai 识别出其中的文字,这个指令执行之后,我们会得到一个 token, 我 们复制这个 token, 然后粘贴到这里, 然后可以看到,哎,我们成功了,那么这时候我们打开任意一个网页,比方这里我们以 readit 为例子吧,因为它需要登录,也有比较高的价值。 我们这时候点开我们拓展按钮,把它给拼上,然后点击这个拓展,就会看到它有个 on, 说明生效了。这时候我们打开的任何网页,只要我们点亮了 on, 那 么我们就可以让我们的 open cloud 在 这些网页中执行任何 需要我们想要它做的操作了。好,那这里之后我们马上来试一下。我去另外一台机器的 diagram 里面,我让它去 read 里面仔细寻找关于 open cloud 的 热点和痛点。 那么可以看到我在另外一条信息上,他自己对这个浏览器进行操作,他去了这个 opencll 的 子板块找这点,然后他寻找 opencll 艺术来找痛点, 最后他总结出答案来回答了我。那么这次搜索啊,明显更加细节,针对 ready 的 这一个平台。当然这只是一个平台啦,大家也可以用在其他的平台,比方说 i x, youtube 等等一切社交媒体或者其他的网站上,只要你打开网页点亮都可以操作。 让 openclaw 帮你开始工作之后,在开心的同时,你会发现你的 tucker 消耗爆炸式的增长。为了真正让他帮我们无限制的干活,我们必须解决这个成本的问题。 在这里我们会介绍四种方法,在完全不牺牲性能的情况下,把我们 tucker 消耗降低百分之九十五以上。 好的,我们开始在讲方法之前啊,我们首先看一下到底是什么在消耗我们的 talkin。 实际上我们每轮给大模型的对话,我们发给他的最终不只是我们的问题,而是一整个工作包,包括了系统提示词,包括了工作区 workspace 的 一些文件,比方说 agent, user tools, memory。 这些文件 包括了我们的对话历史,我们跟 telegram, 我 们在 discord 上与我们 ai 对 话的时候,会有滚雪球效应,越来越多的对话历史,以及第四个工具的一些输出,比方说他抓取的网络的论文,比方说日制等等。第五个才是我们当轮问他的问题, 那么为什么会贵呢?因为每轮我们都要给模型说明书,相当于我们招聘了一个员工对吧?员工来了之后,我们每次跟他说话,都要把员工的手册,公司章程,岗位, sop 全都给他念一遍。之后我们再提出我们的问题, 他当然贵了,那么如何省掏开呢?一句话就是来说,把每轮的输入变短,变干净,变得更可控。 好的,首先我们来看第一个方法, q m d。 那 么传统情况下,我们需要把我们整个的笔记资料像填鸭一样整篇的给到大模型, 然后呢就会导致输入 token 的 爆炸。那么 q m d 呢?就是我们现在本地把 markdown 数据库建立锁引,那我们问问题的时候呢,只返回前几个最相关的片段和摘录, 然后呢只把这些片段注入给 open call, 也就是说模型不再读全库了,而是只读命中的那几段。那么它是如何工作?这个锁影库又是如何建立的呢? 这里分为两步,第一步就是 update 锁影的刷新,它会发现哪些文件新增了,修改了,删除了,然后它会更新分段路径和原数据,相当于是更新了目录。第二个就是向量的更新,也就是向量的投射, 只把新增的变化的片段生成向量,然后投射到向量数据库。在语义解锁的时候啊,计算向量之间的相似度,把和问题相关的向量提取出来。 这里的重点是这两件事情都在本地跑,而不消耗云端的 talkin, 也就是说啊, qmd 把云端 talkin 来用来读所有文件和信息的这个成本都转化为了本地缩影的成本。那么如何安装 qmd 呢?其实非常的简单, 最简单的方式莫过于你让你的 opencll 帮你安装,那么如果你想要自己手动安装呢,也就只有这三步。首先就是我们哎,首先运行这些命令到我们的终端里,安装 qmd 之后,我们去到 opencll 点 json 文件,确保我们的 memory 是 这个样子的, 然后我们就重启网关,这就结束了。还有一点值得提,就是其实啊, q m d 还允许你精确地控制你的预算,通过三个参数来实现,还是在我们的 opencloth 点 json 这个文件里面可以看到 limit 下面有三个参数, maximum result 是 最多可以注入几段 maxim snappy charts 是 每段允许多长,而 maxim injected charts 是 每轮总注入最多允许多长,也是总的预算阀门。 好的,现在我们来看第二个省 tokin 的 方法就是用本地模型跑心跳。首先啊,什么是心跳?心跳是 open clock 定时的唤醒行为, 他呢,按照你配置的频率,把 agent 叫醒一次,让他执行一段心跳清单。简单来说,他不是检查你的进程还有没有问题,而是一个触发行为, 他先读你的心跳。 heartbeat 点 m d 这个里面的清单,判断是不是需要做维护,是不是需要做提醒,是不是需要执行一些任务,没事就输出一个极短的确认,有事就要去执行任务。一句话来说就是 heartbeat 本身,心跳本身啊,就是走一次完整的 agent 的 这样一个回合。心跳是非常强大的功能,它有很多很多不同的用处,比方说它可以当监工,如果你给 open call 工作过,很容易会发现你给他一个特别长期的任务和目标, 他承诺做完之后,往往做一步他就会歇菜,他可能就不会往下推进了。这时候我们就可以使用心跳去定期的每三十分钟去刺激一下,触发一下我们 agent 告诉他完成任务了吗?没有完成任务之前不许停下来, 这样的话就保证了我们整个 agent open call, 我 们的 ai 助手有一致性,能保确保完成我们的长期任务,这是其中的一个应用。那为什么说心跳可能会花费很多淘汰呢?这是因为啊,每次心跳的输入通常啊,都会包含系统提示词, workspace 文件的输入,尤其是 memory 点 m d 和 agent 点 m d 可能会变得很大,还有可能的对话历史,对吧?还有就是 heartbeat 心跳本轮的提示词和清单, 所以啊,它的输出可能会很短,可能就是 ok, 没有问题,但是呢,输入可能会变得很长。还有啊,我们再算一笔账,就是如果我们心跳的频率是三十分钟每次, 那么这一个月就是一千四百四十次心跳,也就是说啊,又多了一千四百四十四克自动扣费的 agent 回合。那么如何减小心跳的成本呢?这里除了增大时间间隔这种常规的方法外,最根本的还是直接让本地的大模型,小的大模型 来跑心跳这种低智商的任务。心跳只用来触发,不用来执行任何任务。如果用本地的模型呢?大家呢,需要下载一个乌拉玛,然后根据你电脑内存的配置来选择哎相对比较好的 本地的模型,比方这里千万的各个参数的模型,然后大家可以去告诉 openclock, 心跳触发任务用本地的小模型来做。好的,下面我们来到第三种方法,也是最简单的一个方法,就是尽量用订阅,而不是走 api 用量。 最值得注意的一点就是很多厂商是不支持这么做的,比方说 osropic, 比方说谷歌,它们的订阅是严禁禁止使用呃,到 open cloud 这里面来的, 但是呢, open i 目前它收购了 open cloud, 所以 它们还是开放的状态。如果想要追求极致的稳定,走 api 用量而不走订阅呢?这时候你要注意了,如果你用最新的模型,不论是 osropic 还是 open i 的 模型,你的账单可能会成倍的增长。 我之前在视频里也讲过,我一天用 mini max 的 a p i 用量是三十刀,如果换算成 astropica 的 价格,最新的 oppo 四点六,这会耗费我五百美元一天,所以这个是要注意的。那我们先来看第四个方法,这是一个见仁见义的定制化的方法,针对你的 open club, 让 opencll 生成一个成本的体检报告,不用固定形式让他给你一份啊 top 级的消耗驱动清单,可以是百分比的形式,看看到底哪些任务最烧钱,那最高的消耗来自于哪里?还有就是找到不合理的地方,因为你刚开始用 opencll, 我 向你保证,你总是有很多任务是不合理的,比方说,明明是如果 a, 然后 b 这种由事件触发的任务, 他非要做成是按轮询制,每十分钟去看一次 a 有 没有被触发。有,其实有很多不可理的地方可以被优化。一句话,也就是说高的消耗不一定是必要成本,很多是流程和配置的浪费,这个我们要根据我们自己的用处和任务来杜绝掉。那么发现问题如何优化呢?这里可以分为流程 和模型两个方面,考虑流程方面能不能有一些轮询的任务,改成事件触发符不符合条件。然后就是我们刚才讲的 qmd, 也是一个非常好的减少上下文注入的一个方法。 第二点就是从模型方面,对吧?有一些轻任务能不能用用更便宜的模型或者小模型来替代呢?那么我们刚才说的用本地模型来做心跳也是一个非常好的方法。 最后就是由 openclaw 给出的任务清单,和它讨论有哪些任务可以优化来减少成。最后我们总结一下大幅减少成本的四种方法,分别是使用 k m d 大 幅减少上下文的注录 心跳,用本地的模型。第三个就是尽量用订阅,而不是走 api 消耗。第四个就是跟你自己的 open call, 让他列出所有消耗讨肯的任务,由大到小,然后跟他讨论优化的可能性以及如何优化,以低消耗为底气,我们终于可以搭建属于我们自己的 ai agent 的 团队了。 我首先会毫无保留的介绍自己的团队以及每个成员是做什么的,然后我们开始搭建属于你的团队,我们会讲基本的原理,什么是 agent, 然后 a 阵的之间如何合作以及一些最佳实践。我们开始我的团队里面一共六个指导题,其中四个是有定时任务的,就是每天的某个时刻都会触发他的任务,让他执行,指导完毕,当然也可以随时跟他对话。还有一个是几乎二十四小时期不间断工作的,还有一个最后一个,那就是你给他任务,他才会执行。 第一个 a 阵的是攻击 galk 啊,他每天负责给我情报工作,那具体来说就是每天早上九点会提前搜寻 关于 ai agent 相关的技术的进展,产品进展以及用户的痛点。然后呢,把在网上搜寻的信息汇报给我,那么如果我不回答他,那就是明天继续给我相关的信息。如果我回答他,希望他对某一个话题进行深挖,那么他再去根据某一个话题再去搜索相关的信息为我展开。 那我的第二个 ai agent 是 auto 合理,他是我的私人助理和提醒助手。怎么用呢?我一般都是 通过 dailygram 跟他对话,这里我就不展示我跟他具体对话了,要涉及我的个人隐私。一般来说,有任何的待做事项或者事情有的进展,我一般都会语音留给他,或者是打字告诉他,他都会记下来,某一般有问题就会问他,他都会翻出来告诉我待做事项是什么,事情到哪一步了。 同一次,同时呢,每天早上七点半,他都会告诉我今天的天气,然后今天要做什么,一步一步按重要性排序,它的作用就是完全替代笔记软件在我这里的作用。现在呢,我已经不用 notion 来记我事情,要做的事情以及事情的进展了。 我的第三个团队成员,也是最重要的团队成员,就是 man, 一个狮子的形象,他呢有最好的模型,有最高的权限,我主要用它来做两个功能,第一个就是日常的对话,我所有重要的对话,长期的计划都是跟他讨论的。 第二个就是一个视频流水线,帮助我制作视频。那么这个想法来自于一个叫做 alex finn 的 博主,本质上就是每隔几个小时,比方说我是每隔三个小时,他会去 x 上搜索我感兴趣的话题,比方说 ai 阵,比方说 open call, 比方说 ai 模型等等等等。有系列的话题, 他呢就会看看哪些帖子现在比较火,或者是正在受到关注。然后呢,把整个的中文翻译和相关的数据都发到我这里来,包括原文的链接。如果我更感兴趣,希望用这个题材做一个视频,或者是有可能做一个视频呢,我只会点一个大拇指, 他就会进到我们的流程的。下一步就是他去研究这个帖子相关的背景信息,补充相关的背景信息给我,确保我了解这个事情的来龙去脉。那么如果这时候我再相关,我还觉得还是感兴趣,我再点一个拇指,他就会往下走,去研究怎么做这个封面图,或者给我一些脚本大纲的一些建议。 那么除此之外呢,如果我对一个帖子我不想做成视频,但他对我是有用的信息,我的时候可以点一下这个眼睛,他呢就会到我的收藏家里面去,可以看到这个帖子,现在到我的收藏家里面去了,这里面就是我认为收集的比较重要的信息,除了 x 之外呢,他也会去搜索 youtube 和 hacker news, 看看每天大家都在讨论什么。这是我这样一个视频的辅助系统。我的第四个团队成员是潘大熊猫,他负责开发,他呢算是唯一一个几乎不休息的智能体, 现在它有开发任务,但是当它没有开发任务的时候,它会增加测试,或者是自己去测试边缘情况,找 bug。 那 么关于二十四小时期,我特地特别想说明一下, 但有好的效果,往往你需要用好的模型,如用云端的模型消耗 tiktok, 二十四小时期会非常的贵。如果你用本地的模型呢,你大概需要买 max studio, 那 么 也会造成非常贵。所以二十四小时成绩一定得是高价值的工作。对于我来说,开发是高价值的工作。除此之外,正在我现在正在做的还是有销售相关的,比方说做 seo, 或者是给我自己的产品做销售线索,找潜在客户。 我的第五个团队成员是 monkey 猴子,他只有一个作用,就是我丢给他一个视频链接,他把这个视频变成一个带截图的文章,因为我自己做视频,我希望重复利用自己的资源。这时候我给他我做过的视频,你可以看到他啊把相关的进行了截图,并且把整个视频脚本重写为可以发表的文章。 那么我的第六个团队成员,也是最后一个是泰戈尔老虎,他负责安全和更新,他呢每天都会定期扫描一下有没有安全问题,然后有新的可以更新的版本也会通知我,我们一起讨论如果更新的话,会不会造成性能的退化和影响当前的任务。 那么如何创建一个新的 agent 呢?其实非常的简单,我们后来会看到整个 agent 的 结构,但是你完全不需要自己创立文件夹,最简单的方式就是跟你的主要的 agent 的 对话,让他帮你去创建。这里我们以 diagram 为例, 你通过 diagram 与你新的这个 agent 进行对话,这时候你可以告诉你主要的 agent, 你 跟他说,哎,新建一个 agent, 他 叫什么?他要做什么啊?有什么呢?任务最后呢,告诉他你新建的这个 diagram boot, 这个 diagram 机器人的 token, 这 token 怎么获得呢?我们找到 boot father, 点击这个打开 boot father 的 app, 然后这里我们点击 create a new boot, 新建一个新的,然后这时候我们给他一个名字,比方说我们叫做 fox, 然后我们点击 create boot, 你 就会得到这个 talkin, 然后这里我们点击复制,然后我们回到这里来, 把我们的 talkin 复制上去,告诉我们的主要 agent, 那 它呢,就会自动帮你创建这样一个新的 agent 新的智能题了。那么什么是 agent? open class 里面如何定义 agent? 它又是如何工作的呢? 其实啊,一共就分为三层,分别是全局层、 agent 层以及 session, 也是对话现成层。我们首先看第一层就是全局层, 它呢并不是一个 a 阵独有的,而是所有 a 阵共用的,可以理解为是公共设施。这一层最典型的文件就是点 openclaw, 我 们的总文件夹下面的 openclaw, 点这次文件,也就是总配置文件,大家可以打开看一下,里面有非常多重要的参数,包括 os, 也就是定义哪个大模型厂商,还有就是你的登录身份是什么? agents 定义有哪些 agent, 它的默认模型是什么?工作目录和运行参数是什么? tos 定义局的工具权限,以及 agent 之间的调用规则。 bundings 定义什么来源的消息调用到哪一个 agent, 浏览器定义,浏览器信息, chanel 定义 telegram, discord, 飞书等。外部的渠道连接, gateway 定义网关, memory 定义记忆等等等等。可以看到 opencloak 点 json 文件里面包含着 opencloak 最重要的参数配置。 其实啊,大部分情况下,我们出现崩溃对话没有反应的情况,也是因为我们的 ai 去改 opencll 点 jason 这个文件夹里的参数的时候改崩了,所以一个建议就是,哎,你告诉你的 opencll, 在 他改这个文件之前一定要提前通知你,而且改的时候一定要谨慎。 第二层是 agent 层,这才是每个 agent 自己的领地,每个 agent 啊,都有自己的工作空间,系统数据,会话记录。那么 workspace 里面每个 agent 文件夹下面的这些文件,在每个对话开始的时候都会被加载进去来作为这个 agent 的 上下文。 由于呢,不同 agent 这些文件有所不同,这也就决定了啊,这些被文件被加载进去的时候,里面携带的信息包括啊,他的身份,他是谁,他的性格,他的对话方式,他的任务的不同。 那么这些文件呢,包括 agent 点 m d, 也就是这个 agent 工作说明书,它决定这个 agent 的 做事规则,优先级边界,还有如何使用记忆。 so 点 m d, 就是 这个 agent 的 性格和说话方式,与其是什么风格,是什么,边界在哪里,由它来决定。 user 点 md 就是 这个 agent 对 用户的理解就是他在帮谁,对方是什么风格,应该怎么称呼,有什么偏好要注意。 identity 点 md 就是 这个 agent 身份卡,解决是这个 agent 叫什么,是谁的问题。 to 点 md 是 工具说明书,告诉 agent 啊,本地有哪些工具命令,怎么约定项目里面有什么习惯? memory 点 md 是 长期精华记忆,它不是流水上,而是提炼之后的长期信息。这个文件很重要,而 skills 里面就是这个 agent 专属的 scale, 如果和全区的 scale 同名的呢,这里的优先级更高,会覆盖全区。那么这些呢,都属于 agent 层。也就是说啊,不同的 agents 默认不共享这些文件,但是同一个 agent 不 同的对话,不同的对话,县城之间是共享这一套文件的。 第三层是 session 层,这个层级啊,不是这个 agent 是 谁,而是这个 agent 当前在哪个窗口里面工作。 session 是 对话县城,怎么理解呢?比方说,当你在同一个 agent 和他对话,但是在不同 discord 里面的频道对话, 或者是你先跟他在 dailygram, 后跟他在 discord 对 话,这就是属于不同的县城,因为它们的渠道不同,或者是就是你当前的对话,但是你打了命令, slash new 或者是 slash reset 就 会开启这样一个新的县城,区别是 slash new 旧的对话还在,但是 slash reset 会清空上下文,重新开始这样一个对话界面。那么这一层最典型的文件就是在我们每一个 agent 的 下面 sessions 文件夹里面不同的 session 文件了, 也就是每个对话都有自己独立的这样一个文件来记录啊,不同的对话历史。也就是说同一个 agent 不 同 session 会共享 agent 层那一套的。我刚才说的 saw 点 md, 我 刚才说的 agent 点 md 等等那些 workspace 的 文件,但是不会共享竹字的聊天记录。 讲完三层结构,了解 agent 工作原理之后,下一个很重要的问题就是,哎,多个 agent 之间是如何协作的呢?在 open call 里面, agent 协作大体有两种方式,第一种就是固定分工,也就是我们刚才说到的多个独立的 agent, 各自有各自自己的 workspace, 有 自己的 session 也是对话现场。 固定分工就是像搭一个长期团队,就像我展示的我的 agent 一 样,一个负责找资料,另一个负责写脚本,一个负责写代码,还有一个负责日常对话和汇总等等等等。他们每个人啊,都长期干自己的事情, 他们之间的工作啊,写作的方式可以通过触发的串联或者是并行,比如啊, agent a 搜完信息这里我在 d 就 会根据我点赞的这个内容去调研资料,去补充材料。 那么第二种就是临时拉 sub agent, 也就是子代理。子 agent 去干活,也就是 open club 的 sessions prom, 它呢会拉起一个隔离的啊 sub agent prom, 也就是子代理的这样一个运行在独立的 session 对 话现场里面工作, 工作完之后再把结果传到我们当前的对话里面来,相当于临时叫了一个实习生或者是外包去隔壁的办公室工作,干完工作回来汇报。这样的好处就是啊,当我们的子代理在独立的赛程里面工作的时候,他不影响我们当前对话的这个主位阵子,我们可以继续给他提问,继续跟他对话,两边同时进行。 那么官方文档对他的定位也很明确,就是他适合做研究慢任务、重任务、病情任务,而且不会阻滞我们主对话。 比方说这里啊,我让他去用 sessions born 去开一个子任务,研究 open call 智能体最近最受欢迎的三个讨论点,要求每个讨论点的热度、原因、代表观点,以及我可以做视频用的切入角度,然后让他开始在后台启动,完成之后主动汇报结果。 好的,他已经启动了这个任务。其实这时候我们可以去跟他对话了,比方说,我问他今天天气怎么样, 他呢,还是会回答我们这个今天天气怎么样的任务。因为刚才我们也说了,子任务是在另外一个县城完成的,不耽误我们跟我们的主要的智能体之间的对话。可以看到他就是继续的跟着我们进行对话,他回答了我刚才的问题,然后我们可以继续提问,我说, 哎,可以看到,我们等了一会之后,他终于是把这个任务完成,然后自己主动地把任务的结果发回到了我们的主要的频道。哎呀,没有影响我们刚才跟他这个主要频道主要的智能体之间的对。不是所有任务都适合上多 agent, 如果只是一个短问题,那么一个 agent 往往更加有效,硬拆呢,只会让系统更重更慢。那么真正适合多 agent 的 场景啊,一般有这么几种, 一种就是你的任务天然就能拆开,比如啊,研究,写作,审核、发布,本来就是不同的角色,这时候拆 agent 有 不同的工作区的,这种不同的文件边界会更加清楚。 第二个就是任务可以并行,有些事情呢,不需要排队,一个 agent 可以 查资料,另外一个可以同时整理结构。如果你用 sub agent 这种并行就很合适,那么刚才我们也说了,它很适合做这种比较重的或者重复性的工作。 第三个多 agent 呢,不只是为了分工,也是为了避免污染。因为啊,如果你用单 agent 做太多不同类型的任务,都会出现相互污染的情况,长期记忆呢,会把不该混的东西混在一起。因为我们也说了,工作区那些啊, markdown 文件是同一个 agent 在 不同聊天窗口里面共享的, 那么什么时候没必要用多个 agent 呢?那么很简单,要么就是你的任务很短,要么就是上下文高度连续,你不想打破,要么就是你角色的边界根本猜不清,就没必要拆。还有就是避免为了做 agent 而做 agent, 只是为了看起来很高级而已, 能一个做好的事情就一个做,就相当于是一个队伍,当一个任务需要一个团队来做的时候,那自然值得用团队。 那么关于多 agent, 为了达到好的效果,我想分享一下我自己得出的一些实践。第一个就是不要一上来,对于很多的 agent, 可以 从一个开始,有必要就加第二个,比方说你第一个 主要的 agent 也是默认的 agent, 基础上你加一个研究 agent, 每天去搜索啊有价值的信息定期汇报给你,那么先把这个逻辑跑顺出来,然后再根据你自己的业务再加一个,同样每加一个呢,都先跑顺功能验收效果。 第二个就是工作区的文件要尽量的短,尤其是 agent 点 md, user 点 md, heartbeat 点 md, 也就是心跳文件 啊,因为这些文件都会进入 agent 的 运行上下文,如果太长的话会增加效果。考虑到你有多个 agent, 如果你不注意的话,那你的成本可能会成倍的增加。现在我们有整个 ai agent 的 团队为我们工作了,可是新问题又来了, 我们不知道谁在干什么工作,不知道谁卡住了,不知道谁在等我们,不知道后面有多少定时任务,也不知道哪些任务消耗了多少 tock。 为了解决这个问题呢,我开源了自用的一个 ai openclaw 控制中心,那么也有很多的小伙伴在帮助我在做贡献,一起把这个项目做的更好。那这里呢,我也想把这个项目介绍给你,你可以直接拿来用来监控你整个 openclaw 的 消耗和工作情况。 好的,我们开始 后啊,你不需要你手动安装,最好就是让 openclaw 帮你安装,可以往下拉,我给大家准备了这样一个特别大的 prompt, 根据你的环境,根据你的网关,根据你用的模型跟你的 agent, 根据你的情况来接入整个的控制中心,为你所用。这个过程不是一蹴而就的,每个人的环境都不一样,我们用的模型也不一样,但是呢,你可以让 open cloud 慢慢的把这个软件调整到你最想要呈现的状态,尤其是展现你最想要看到的信息。 首先第一个页面是总览,总览我只想说一个,就是这个健康分,大家可以看到现在是一百分,它由四个维度决定, 分别是审阅队列,就是有没有任务就卡住了,需要你人工审批才能继续进行。运行异常就是异常停滞执行,就是他在无效执行,他没有更新,他没有产出,但他一直在消耗着资源。 预算风险就是有预算有没有达到当前的百分之八十是扣分制,大概是每一项有一个问题就扣十八分,看到目前我没有问题。那么除此之外呢,其他的所有的信息在总栏里面都来自于我们左边栏啊,这些 信息的一些汇总。下一个是个特别实用的页面,就是看我们具体的用量,这里呢可以分为今天或者是累计的用量来看。对于我来说,因为我是订阅制嘛,所以具体的 talk 用量或者是估价对我来说都不重要,重要的就是有没有达到五小时和一星期的上限,那这里呢也可以看到。 其次就是很重要的是我们需要看到到底是哪些类型的任务在消耗我们大部分的 talkin, 就 这时候啊,可以看到这个统计对于我来说是 call 定时的任务消耗了大部分 talkin。 其次是在 disco 里面对话给他的任务, 那么由于定时任务消耗了最大的 talkin, 那 么定时任务又有很多,到底哪一些任务消耗了更多的统计?对于我来说,消耗最多的就是这个在 x 上搜索情报的这样一个任务, 因为它每三个小时就要出发,就要去操作浏览器,在我的账号里面浏览相关信息,然后再汇总给我,所以它确实是消耗最多的, 那么你可以看到整个的所有消耗的任务,然后你可以根据它的用量进行一些优化,哪一些可以去掉,那么哪一些呢?是需要保留或者是继续再把它减轻的?那么下一个页面就是 agent 页面,里面就有所有的你的 agent 当前的状态,有没有工作,然后最近的产出,有没有排班儿 等等等等。那么关于我的呃 a 证团队,每一个员工的工作去干什么呢?我在上个视频都说了,感兴趣的朋友大家可以去看一下,然后设置自己的 ai agent 的 团队。 那么这里还有一点我想说,就是往下拉,大家可以看到每一个 agent 它用的是什么模型,以及它的工作目录是怎么样的,还有它的权限是怎么样。下一个功能就是我们可以查看和修改任何 agent 的 记忆。 记忆呢,一共分为两种啊,一个是长期记忆,一个就是我们对话县城的对话记忆。我们还以 monkey 为例,那么这里 memory md 就是 猴子的长期记忆,看到这里我可以看到啊,然后这里我们也可以修改它的记忆, 那么你任何的下面带 session 开头的就是对话记忆了,也可以查看和修改。每个 agent 都有自己的人设,自己的性格,自己的语气,自己的任务, 那么这些呢,也可以查看和修改,这就是我们点击这个文档页面,我们还是以 monkey 为例啊,之前讲多 agent 团队的时候,我们讲过 agent 点 m d 就 定义了这个 agent 的 任务,这里呢,我们可以查看他的任务,然后呢,如果有不到的地方,我们可以直接进行修改,同理呢,你也可以修改其他的 markdown 文件,比方说心跳啊, tools 等等等。 最后一个功能就是看任务了,尤其是定时任务或者是心跳任务。这里我们点开我们的任务界面左边的半截,我们可以看到一共有九个有效的定时或者心跳任务,其中三个已经在今天还要继续完成,而六个已经完成了,明天会接着继续。那么右边的半截可以看到我们所有的心跳任务。 好呢,这就是我自己为自己的 openclaw 做的控制面板了,希望你呢,以它为起点,改变出你自己的风格,加入你自己想要的信息,或者是改变整个的排版。如果你看到这里了,那你绝对不可能是 openclaw 的 小白了,我鼓励你使用 openclaw, 在 你的业务中,让它帮你创造真正的价值。 这个视频啊,是一个终点,也是一个起点。后面我们会以此为基础讲更加进阶的内容,包括更加高级的记忆系统,包括二十四小时成期自动化带监控的系统等等等。 open call 有 很多话要说,有很多事要做,我们下期再见。

朋友们,微信更新了,现在微信个人版不是企业版也可以接入龙虾了,过程非常简单,我刚刚体验了一下,一共花了不到五分钟,不过现在只能 ios, 就是 苹果手机可以接入。呃, 我刚试了一下,安卓其实也可以,但是安卓你接入成功之后不会在你的聊天列表里显示,苹果是可以显示在聊天列表的。然后我录了一个非常简单的教程,下面教程开始,现在还是找到我们之前安装小龙虾的云服务器, 然后找到应用管理,然后这里会显示一个微信通道,重磅来袭,直接点击立即升级,然后点击确认, 然后等它这一个一直往下转就可以了。 升级完成之后,在通道这里选择微信,然后点击前往授权,找一个 ios 系统的手机 二维码,出来之后用微信扫码就可以了。这里注意,微信的版本一定要升级到最新的版本,我现在的版本是八点零点七零。

hello, 大家好,今天给大家讲解 open crow 如何对接飞书,那么 open crow 是 最近比较好的 ai agent, 它是一个自托管的 get 位网关,它可以将你喜欢的聊天应用和渠道表面包括内置渠道, 以一个插件的形式连接到一个 ai 编码智能体。那么所以说今天我们要大家带大家学习如何连接 opencloud 和自己的飞书。你基本上用,如果使用飞书插件的话,我会推荐用飞书官方的插件,只要用它这个命令去进行安装就可以了。如果你安, 那么基本上你安装完 opencloud 以后就可以安装这个飞书的插件,那么我们现在来打开编辑器来装一下, 这时候它会让我们扫码创造新的机器人,我们来扫一下 是会比较的快捷一点,因为飞书内部的配置都让你配置好了,如果你在电脑端创建的话,会复杂一点,里面的坑可能会相对更多一点。 第一种方式配置飞书,就是通过新手引导的方式来帮你安装配书,配置飞书的应用, 等配置完以后重新检查网关,然后通过呃 restart 的 方式可以重新启动这个 windows, 然后去检查你的内存有没有配置完。 那么基本上刚才我们也是安装了这个插件,插件扫码以后你就会进到这个页面,这个页面里面你在手机里面创建这个应用就可以了,创建完以后它就会提示你要审核 这个 app, 然后审核这 app 的 时候,你点击通过进入后台点击通过就可以了,然后通过你这种方式创建它的里面的一些权限都是帮你配置好了,所以说你不需要特别大的修改, 这里我们会通过这个命令去把流逝效应打开好。接下来我们来看第二种方式,通过手动的方式来创建, 嗯,第一步我们需要进到飞书的开发平台,然后进去以后通过创建自建应用去创建一个机器人应用,然后进去以后你就会得到你的 app id 跟 appc 可以 了。 那么在设置的时候你还是需要做一些权限的,比如说你这边需要复制它的权限, 然后在权限管里面就是通过导入权限的方式去把这些权限都打开通起来。 嗯,接下来在机机器人里面也要配置机器人的能力,然后在这个应用里面,然后这边可以添加卡片的回调方式, 这边在事件回调里面设置订阅为长链接的方式保存好,然后回调配置也是使用长链接也保存好就可以,然后最后又发布应用。 那么有了这个应用以后,你也配置好权限以后,我们就可以配置 open core 的 配置了。我们在配置文件中要进到这个 channels 这个这一项,然后把你的这里的配置给填写进去,然后你把你的 app id 跟 secret 写进去就可以了, 然后配置完以后就可以正常访问了,这边我给大家演示一下, 嗯,它是正常可以回复的,嗯,那么这边主要大家会碰到的问题,主要还是权限, 呃,可能会漏漏极添加,或者是回调时候漏添加,这个都可能造成你飞书没办法回复的一个情况,所以大家到时候要检查清楚。

这只视频是使用 openclaw 这只龙虾的进阶教程,带你一次性规避安全风险,降低 token 使用成本。我会把每一步都拆解给你,你照做都能学会好。接下来,我们来为 openclaw 先连接外部工具与应用。 我准备将它接入我的 zap 服务器,因为我已经在上面绑定了大量应用,将不仅使用更方便,安全性也更高,还能精准控制 openclaw 可以 访问的内容范围。 pro pro 已经给出了完整的配置步骤,我只需要进入 zapper mcp, 新建一个类型为其他的服务,再勾选其他需要使用的工具即可。 因为目前只是测试,我只连接了 gmail, 让它可以查询邮件书写草稿、正式不开放删除或发送邮件的权限。这就是精细化权限控制带来的优势。 随后,我们建立正式链接先生成一个专用令牌。我不需要像程序员一样手动编辑配置,只需要把诊断信息复制粘贴给 opencloud, 它就会自动完成配置。 短短几秒后,设计就已生效了,温昆老也顺利获得了查看邮件创建内容等工具权限。我来简单测试一下,让他提取我收件箱中最新的五封邮件,他很快就以清晰的聊天格式把结果展示了出来。 在继续深入使用前呢,我必须强调一下 openclaw 的 安全问题与使用风险。比如呢,其实在装 openclaw 时,第一步就会要求你同意风险提示。据我了解,市面上很多所谓的 scale 工具有高达百分之十七呢,其实都是黑客控制的, 专门用于窃取用户信息。这也是我为什么选择通过 zapper、 mcp 这类中间层做安全隔离的原因? 而不是直接让 ai 访问账号?哪怕只是简单一句帮我配置,这一秒都有可能被诱导提交敏感信息,甚至你连接的可能根本就不是真正的这一秒符,因此一定要严格控制你向它开放的权限。 除此之外,还要注意 opal 会产生大量 api 调用,即使是日常使用也可能产生不少费用。我只是简单测试就花费了几美元, 如果二十四小时不间断运行成本会更高。在这种情况下,在本地运行开源模型就显得很有优势了。例如欧拉玛,他已经为 opencloud 提供了现成的配置文件, 如果你还没有安装欧拉玛,可以现在进行安装。我来教你快速配置一个适合搭配 opencloud 使用的模型, 把启动欧拉玛的配置的命令复制到终端中。第一个推荐的是叫星的 glm four seven flash, 大 小约二十五 gb, 我 选择直接下载,它会在后台自动运行。这个模型体积偏大,这也是不少人专门购买 mac mini 来本地运行 openclaw 的 原因。 当然,你也可以不这么做,直接在 vps 上连接 openeye 或者 cloud 服务。如果想了解更多自定义配置内容,可以前往 opencloud 官网查看详细文档。 全部设置完成后,运行 opencloud models 命令,可以看到 alama 已经成为默认模型,同时 aspake 相关模型也被保留作为备用。 接下来我们打开 opencloud 的 默认文件夹,在 vs code 中查看它的路径,通常是点 opencloud。 在 这个工作区里,你可以看到智能体配置、绘画记录、日制定时任务、 zapper 连接信息等全部内容, 这个目录还可以同步到 github, 方便进行备份、迁移到其他电脑,或是直接附用相同的配置, 是一个非常有意思的项目。我打算先使用它个三十天搭建多个不同的智能体,看看它在日常实际工作中能究竟带来多大的效率提升。

和你们分享一下如何通过微信来连接 opencloud, 并着重说一说我的使用体验。你们把微信升级到最新版之后,点击设置 往下滑,点击插件,这边有个微信 cloud bot, 点击详情,你们按照这个详情页的安装指南做就可以了,非常简单。微信 cloud bot 实际上就是连接微信和 opencloud 的 工具,你可以把它当做你的 ai 微信好友,你可以给你的 ai 伙伴发送语音文字以及图片。有一点要注意,你发送的语音会被微信直接转换成文字, opencloud 接收到的实际上是你语音转换过的后的文字,所以它是存在识别误差的。 微信 clubbot 会像真实用户一样给你返回文字音频,还有这个视频,但是 clubbot 返回的音频是以文件的形式存在的,而非原声的微信语音气泡。我们平时可以在微信中查找与好友的聊天记录, 可是这个功能现在在微信 clubbot 中是不支持的。给你们看一下,我在一个输入框中同时发送了文本以及图 片,但是微信会强制把你的文字和图片分开来发送。我们从 opencloud 返回来的结果就可以得知, 它是先分析我们的文字消息,再分析我们的图片消息。这就导致了我们虽然说是统一发送了一个消息,可是它进行了多轮的思考,并且每一轮的思考,它获取到的消息都是不全面的,这个缺陷在非书中是没有的。 我们可以在一个输入框中同时输入图片以及文字,发送你们看飞书渠道的回复, 它说的就是两张都可以,这说明在飞书渠道我们同时发送图片和文字,它是可以统一接收,统一回复的。如果你想发挥 opencloud 的 全部能力,那你就需要通过调用多个 agent 来并行地做许多事情。这在飞书中是很方便的。你只需要创建多个智能机器人,然后把每个智能机器人都绑到你想绑定的 agent 上就可以了。但是现在在微信中只支持创建一个 cloud bot, 你 无法通过多个 cloud bot 与多个 agent 进行沟通。 当然,你也可以在这一个 a 政客中创建多个子 a 政客来帮助你执行任务,可是这会增加你很多的学习成本。现阶段国内还是飞书对 opencloud 的 适配程度最高。大家一些日常的任务可以在微信的 cloud bot 中完成。 但如果你要稳定、高强度地使用 opencloud, 我 的建议还是使用飞书。这里是 jack ai 独立开发。非常感谢你的观看,我们下次再见!拜拜!

这只视频带你设定并配置好 open cloud 这只龙虾,并接入到 whatsapp。 创建 telegram 机器人没有代码基础也没关系,跟着做你的龙虾也能为你自动工作,即使你出门在外。好,接下来我们进入出场环节。 首先需要设置相关身份信息。先为 openclaw 取一个专属名称,再设置它对你的称呼。我这里设置它的自称为 claw, 称呼我为 adjourned。 你 可以更详细地定义它的行为风格。这些配置都会被保存下来,并在后续的对话中持续生效。 可以看到它正在将身份设定、用户交互规则等内容写入本地文件中。完成基础注册后,我们来配置 openclaw 连接 whatsapp。 这一步既可以在安装过程中设置,也可以在安装完成后通过终端操作。如果已经安装完毕,直接运行 opencloud channel add 命令即可添加聊天渠道。我会先配置 whatsapp, 再配置 telegram, 带你完整走一遍配置流程。 配置 whatsapp 十分简单,只需要用你绑定的手机号扫码二维码就能登录。扫码后,他会询问这是个人号码还是独立号码。 如果希望 ai 独立运行,不受干扰的,建议使用专门的手机号,方便它向你发送信息。设置好 whatsapp 后,我们继续配置 telegram。 同样运行 opencloud channel add 命令, 我选择使用默认账号,接着按照提示创建一个专供 opencloud 使用的 telegram 机器人。在手机上打开 telegram 搜索并找到 at boss father。 注意,一定要选择带有认证标识的官方账号, 然后发送斜杠 new bot 命令来创造一个新机器人。为机神设置一个唯一的名称,我这里命名为 agent two i s s cloud bot 创建成功后,会获得一个 api token, 将其复制并黏切到终端中勾 openclaw 使用。至此, telegram 也配置完成了下一款选择。完成,整个 openclaw 基础配置也就全部结束。 这样一来,你即便出门在外,也能通过手机直接和 open cloud 对 话,并且所有绘画内容与家中的电脑保持实时同步。 whatsapp, discord 等平台的配置方法也基本相同,操作逻辑是一致的。

今天给大家分享一个超级简单,小学一年级都能学会的怎么样去把你的微信跟小龙虾 open club 连接在一起的方法。那之前呢,很多人看了网上的教程啊,感觉非常的麻烦,为什么呢?因为官方的教程是安装 open club 小 龙虾的设备,上去安装这个插件,要输入这个命令,那这一步就把百分之九十九的人都给卡住了, 我今天教给大家这个方法呢,超级简单,任何人都可以学的会。首先打开你的微信,在设置里边找到关于微信一定要更新到最新版本,然后点击插件, 在这里边可以看到微信 cloud bot, 点击详情。好,这里边有一个安装的命令,我们点一下复制,复制一下这条命令,然后来到你的妙达龙虾啊,我强烈建议大家去安装一下这个妙达龙虾,这个是我目前使用过所有大厂的龙虾产品里边最简单最 傻瓜话,任何一个小学生都能轻松去使用的一个龙虾产品。如果你还不知道妙达龙虾怎么去安装使用的话,你去看我上一个视频,打开飞书里的妙达龙虾以后,我们点击这里的管理按钮,然后我们进入到了龙虾的后台操作页面啊,在这个后台操作页面里边非常简单,我们点击上面的这个代码的按钮, 在下面我们找到这个终端的按钮,点一下终端,然后我们在右侧就会打开这样的一个终端的界面,那在这里边呢,我们就可以把刚才在微信端的复制的命令给他粘贴过来,然后敲一下回车,好,这时候他就会自动运行安装微信的插件,大概过两分钟以后呢,他就会弹出这样一个二维码,你只需要用微信去扫描一下这个二维码, 然后你的微信就会自动跟妙达龙虾连接在一起了。那接下来呢,你就可以在你的微信里边去跟你的龙虾去聊天了,是不是非常简单?

大多数朋友接入 openclaw 的 第一个卡点是不知道终端是啥,以及终端在哪,以及终端怎么打开,大家不要觉得我在搞笑,其实终端对大多数普通用户来讲是一个比较难的东西, 以及最近我真的是越来越多的发现安装和部署 openclaw 这个事情其实对大多数来讲门槛相当之高,我非常希望有很好的产品可以快速的解决本地部署的以及安装的问题。 今天在视频里还是会跟大家先讲一些当前安装过程里面的小问题,方便大家快速的去上手。 ok! 第一条,不知道终端是啥,不知道终端在哪?如果你用的是 mac 的 话,请直接打开你右上角放大镜,那个地方就是时间旁边的放大镜,点一下,然后在里面输入 terminal 这个单词,就能找到你的终端了。第二个, 你在终端里面输入了内行官方推荐的安装命令之后,发现直接报错了,这个是因为你的电脑里边没有安装一些这种开发的环境, 比如说这个 homebrew, 比如说什么 npm 这东西啊,大家不用理解这些概念到底是什么意思,是干什么用的,但如果你像我之前的视频教程里面那样,直接输入了一行官方命令,但是有一大堆的报错的话,请尝试按照这张截图上的步骤去检查一下你这边的环境是不是 ok 的。 ok, 那 第三个问题就是大家会存在网络不稳定的问题, 如果是前面的环境的安装有一些不稳定很麻烦的话,可以尝试用国内的定位安装 open 了哈。 第四个问题,不知道如何在终端里面交互,用哪个键确认,用哪个键上下选错了怎么办?在终端里面是用键盘去控制的方向键上下,然后回车确认,然后在 open cloud 的 配置界面,如果它是一个多选的配置项的话,你是可以用空格来选中一项,然后用回车来做最终确认的。 第五个,不知道该接入哪个模型,以及如何接入国外模型。如果你不知道接入哪个模型的话,说明你可能之前并没有订阅过一些国外的模型,那么推荐你直接入手国内的模型,比如说 kimi, mini, max 都是不错的。那如果你已经有国外的模型了,你想接进来的话,推荐你用已经订阅过的账户,因为这样的话花费可能会可控一些。那你接入国外模型的时候, 如果你人在国内,还是需要你去修改一下你这边网络的一个设置,那这一点在之前的教程里面有讲过,在这里就不再追溯了。 第六点,接入飞书的时候,事件与订阅的长链接,那容易报错。这个问题我也遇到过,大概率是因为你需要先把飞书的 app id 和 app secret 都给到 openclo 连上了之后,你再去配置事件和订阅那个地方才可以成功。 第七,开始在外部页面能说话了,但是你在飞书里面说不了话,这个时候请直接让你网页上的 openclo 帮你检查一下配置文件里面关于飞书的配置。 我之前最开始遇到这个问题的时候,跟我自己的什么 a p p id 填错了什么?这个配置了多个飞书的插件,配置了多个插件,它们之间的 a p p id 和 a p p c 是 对应不上,就出现了诸多此类的很多的问题。第二类问题是你的权限的问题。有一种情况是你只配置了群聊里面的权限,所以只能在群聊里面跟他聊。那以上两类解决思路供大家参考。 但是我知道这个肯定是不够的,因为有时候还会有其他的问题,如果你出现了其他的问题,但是你的 web 可以 用的话,处理的原则就是直接让你的 web 端的 open crawl 去读你的日制,然后让它分析日制里面的错误信息进行修正。 八个你的 open crawl 在 飞速里面可以开始说话了,但是跟你的飞速文档无法打通。这个问题我感觉我可以写一个 skill 来解决一下,如果这个 skill 上线了,会再跟大家录一期视频。 ok, 今天的分享就到这里,希望大家历尽种种艰难险阻,终于把 openclo 搞定,安装好的朋友们可以多玩一玩,多试一试,生产出来更多 openclo 的 使用场景。 ok, 那 今天就先分享到这,后面还会再分享更多和 openclo 相关的内容,记得一键三连,下期见!

这个千万三点六 plus 模型真的是太好了,之前我这个龙虾用的是 kimi 模型,让它操作浏览器,进自动化操作的时候往往是不行的, 现在又接了这个千万三点六 plus, 我 这个龙虾可以操作浏览器了,用的是 playrite 这个工具,现在它开始自动化操作这个浏览器了,而且是操作的 age 浏览器。

大家好,微信在三月二十二日推出了一个 colobot 的 插件,这是一个历史性的时刻,这个插件的官方名称是微信 colobot, 底层协议是 iink, 接口地址是腾讯官方服务器的地址。 这个插件的发布极大的方便大家去使用 ai 智能体打通微信和 opencloud 的 通道,让你不用守着电脑,掏出手机登录微信,就能给你部署的 opencloud 派活主打一个便捷省心。这期视频就给大家分享如何将 opencloud 接入到微信中。在录制之前,首先声明该视频没有任何商业目的,都是公益的分享。 首先配置有两个必要条件,微信版本是八点零点七零级以上。第二个要确保已经部署和运行 opencloud 的 服务。如果大家还没有安装成功,可以看我前两个视频,里面有详细的安装教程。 这两个都准备好之后,我们打开微信,进入我设置插件,找到微信 cloudbook 的 卡片,点击详情,我们将官方提供的命令复制下来,然后打开终端设备执行该命令。 命令执行成功后会生成一个二维码,我们只需要使用微信扫码即可完成绑定, 绑定成功后,微信可乐 port 会直接出现在你的好友列表中,如果没有正常显示二维码,也可以执行以下命令重新生成, 然后再执行相同的扫码操作。只需要这简单的两步,你就可以把 open 可乐接入到你的微信了。下面我们就测试一下和它的聊天, 他在回复的消息过程中也是在显示对方正在输入微信。首次推出的这几个接口主要实现的功能有基础聊天、文件传输、图片消息以及一个多设备登录。 在安全方面呢,卫星的定位也非常清晰,它只是作为一条消息的通道,仅提供微信的 cloudbox 插件与第三方的 ai 服务的信息收发,它不会存储的,它不会存储输入内容和输出结果的,也不提供 ai 相关的服务,但是明确禁止任何违法行为,大家可以放心的去使用。 ok, 今天的视频就分享到这里,如果大家喜欢我的视频,或者觉得我的视频对大家有帮助,辛苦大家帮我点个关注,点个赞,后期会有更多的 ai 技术分享,让大家在 ai 时代都能够清晰地了解 ai, 用上 ai, 谢谢大家!

大家好,我是麦东。安卓手机微信终于推送更新了,官方直接支持接入 openclaw, 可以 通过手机微信直接控制你的龙虾,并且没有任何的封号风险。 接入方式也非常简单,只需要三步,第一步,加你的微信升至最新版本。第二步,执行脚本安装 openclaw 插件。第三步,使用微信扫描插件,安装过程中展示的二维码 请用微信插件。下面我们带大家一起来操作一下。首先第一步,确认你的微信版本。 在微信我的设置关于微信里面,确认你的微信版本为八点零点七零,如果不是点击版本更新,先将其升级到最新版本。升级至最新版本后,我们在插件里就可以看到微信 cloud boot 插件,点击详情即可看到插件的安装命令。 接下来我们回到 pc 端,在安装了 opencloud 的 设备上直接运行该命令即可。 安装过程中会弹出二维码,使用微信扫码即可 扫码完成。在手机上点击连接, 耐心等待连接完成。当出现微信 cloud bot 的 连接界面的时候,我们就已经成功完成微信与 opencloud 的 对接了。下面我们在手机上跟 opencloud 发送一个打招呼的消息, 可以看到也是成功地收到了来自 opencloud 的 回复。接下来你就可以使用你的手机微信 随时随地远程指挥 openclaw, 帮助你干活了。整体的对接流程还是比较简单的,大家快去试试吧。好了,本期视频到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续。