然后回车之后呢?呃,它会让你去选择飞书插件的连接方式,对吧?有两种方式,那第一种方式就是 openclo 主动和飞书的服务器建立长连接,然后持续地去监听消息。 那么这个优点就是,呃不需要公网的 ip, 然后配置会比较简单,是官方比较推荐的。那第二种就是通过飞出服务器主动给你的公网地址去推送消息,那这个就要求比较高了,至少你得有一个公网 ip, 是 吧?所以我们就使用呃,第一种这个方式。 选择好连接模式之后呢,他会让你选择是中国版的飞书还是海外版的,那这里我们选择的就是中国版的飞书,然后回车,然后接下来他会让你去配置一个这个群聊响应的策略。嗯,长这样有三种啊,三种。那第一种是白名单模式,就是 机器人只会在你指定的群聊里回消息,其他都会忽略。第二种是开放模式,就是只要群里有艾特他的,他就会回复。那第三种就禁用群聊模式,就不在群里回复,那我们这次不用群聊,所以就 呃选择第三种,把它拒绝掉。那选择完它之后呢? open club 会让你去选择联网搜索服务的供应商,就是 你可能就是有可能你问的一些问题,它需要去实时的去联网去查询,那这里我们就先跳过它,然后后面我们可以通过 openclo 自己的一些命令行去重新去配置这个服务。 那选择完它之后呢? openclo 会告诉你现在它有哪些 skill 技能,然后状态是什么样子,让你来去确认。比如说这里 就是他现在的一个状态,现在有八个技能是满足使用要求的,然后四十一个缺少必要的依赖啊,这些东西,对吧?然后他问你现在是否要进行立刻配置,那我们这个都不太重要,我们就选择当前先不配置。那接下来呢,系统会让你在已经预设好的几个 hogs 里面去做一个选择 来决定开启哪些。那 houx 其实本质上就是一个系统级的事件监听,它是在我们系统内部发生一些女预设的事件之后来发出对应的系统级的操作,比如说它会执行一些系统的命令,或者是进行一些工具的调用这些底层的事件, 那这个就是 hoops。 那 还有一种是我们自定义一些业务上的一些关键词,只要我们发了这个关键词,那系统就会去执行一些业务上的操作,那么这个其实不属于 hoops, 这个属于 skill, 所以 这两个我们要区分清楚。 那 open clone 呢?也内置了一些 hux, 那 这里我们也对它的作用和使用场景也进行了解释说明。考虑到视频的时长,这里就不详细的解释了,那我们现在只需要开启最后一个就可以了。那最后一个就是我们建一个新的绘画窗口,或者重置这个绘画窗口的时候,会自动保存之前的 呃,对话的上下文到我们内存里,这样呢可以避免这些对话历史的丢失,然后实现这个上下文的这种衔接。 然后选择完之后呢,系统就会自动去安装网关的服务。安装完网关之后呢,他会问你如何启动你的机器人,这里提供了有三种模式, 第一种呢就是在终端的这种文本界面直接启动,第二种呢就是在你的网页格式化的 web ui 上启动,那第三种就暂时不启动,这里我们就选择第二种在网页上去启动 啊,然后你就可以在网页上看到你的机器人就可以去操作了。那最终我们其实是要在飞书上去跟他建立沟通联系的,对吧?所以说我们给手机下载一个飞书 app, 然后进入到工作台之后,找到你的机器人,给他随机发一个消息, 它会给你返回这么一个消息,就是你要进行访问权限的确认,那你把这个 with 后面的这个命令呃粘贴出来,然后在你的终端去执行,执行完之后呢就可以建立联系了,然后接下来你就可以测试在飞书上让你的 openclo 去干各种各样的事情了。 好,那这个就是整个的安装的一个过程,可以看到在安装初步化的过程中是有一些不同的,其他的配置或者模式是可以去选择的。那考虑到视频的时长原因,我只是给大家简单的做了一个介绍, 如果你感兴趣的话,可以去看我们的这个文字教程,或者是自己去查一些资料,然后初步化的时候去选择适合你的模式去做。好了,那今天就先到这吧,如果大家感兴趣的话,可以跟着这个步骤给自己部署一个 open clone 去使用。那在这段时间呢,我也一直在 呃使用这个 open clone 有 一些心得体会吧,后面我们可以再出一期内容,跟大家深度的去聊一聊。好了,我们下期再见。
粉丝3.3万获赞5.0万

看看我的 agent 团队们,有写图文的、网站运营的、监控金价的、记账的,还有提供情绪价值的,后面还要增加一个视频剪辑的 open cloud 小 龙虾 用上多 agent 的 模式了吗?但像我这样每个 agent 对 应一个机器人的配置是有点广泛。在飞书上其实有一种更简单的方式,就是通过拉群,实现一个机器人多个 agent 多个群聊分别管理的模式。我们来以选择题、写作和神稿三个事情为例,完整的配置一遍, 一共三个步骤。首先用这样的命令创建多个 agent, 分 别负责不同的工作,然后给每个 agent 的 职责拉一个飞书群,并且把我们的唯一的这一个 飞书机器人添加到群里面。接着把每一个群聊和 agent 绑定起来,在这里查看群的 id, 通过这样的 bindings 配置把两者映设起来。最后不要忘记给飞书 channel 增加这两张配置,开放群聊和群聊中,不需要艾特机器人也能回复。 配置完成之后,在各个群里和 agent 对 话,给他们安排好职责和身份,让他们记录下来,你就可以在不同的群里指挥不同的员工工作了。像这样的流程,先选择题再写作,审稿,审完再改, 最后得到一篇完整的内容就可以发布了。这样做配置简单,效果强大,快来把你的 agent 军团也安排起来吧!关注我,带你玩转 open club!

欢迎收看我是大厨,只跟你聊最实在、最有用、最有意思的内容。 嗯,好,今天咱们聊一期特别扎心的问题,你用 openclaw 接入的飞书机器人是不是也经常而失忆?就是那种聊得正 嗨,他突然给你弹出一行红字, context limit exceeded, i've resisted our conversation, 然后之前聊的全没了,就好像他失忆了,连自己叫啥都不记得。别慌, 今天咱就一招搞定它,让 opencloud 给你家机器人装上呃,永久记忆,从此告别失忆忆。今天这期内容核心就是解决这个 context limit exceed 的 报错,让飞书机器人能记住所有对话,再也不丢聊天记录。 咱们会从问题根源讲起,拆解两个核心参数,再手把手教大家配置、重启验证,还会教大家看日制查记忆文件。最后附上官方文档和避坑指南。 不管你是对接 opencloud 的 开发者,还是遇到对话清空问题的运维同学,或者想做无限长对话的 ai 应用集成者,今天的内容都能帮到你。记住这两个核。接下来咱们先搞清楚这个 context limit exceeded 到底是咋回事。首先看这个典型报错,相信很多同学都见过,机器人 直接提示上下文限制,超出以重置对话 a, 还贴心提示要把 reserve tokens flush 设到二万以上,翻译过来就是 ai 的 上下文窗口被占满了。 opencloud 触发了自我保护机制,直接也把对话清空了。 这里要先澄清两个误区,这绝对不是非说 api 额度不够,也不是网络出问题了。核心原因就一个, ai 的 短期记忆区域,也就是上下文窗口被对话占满了, 聊得越长,占用的 token 越多,一旦到了上限,就只能强制重置。咱们的解决思路也很明确,调整压缩策略,再加上主动的记忆冲刷,让对话能要解决问题,核心就靠这两个参数, reserve tokens floor 和 memory flush 里的 soft threshold tokens。 先看这张表,咱们把参数作用键一直都列清楚了。第一个 reserve tokens floor 是 系统保留区的安全底线,压缩对话后必须给系统留够这么的 token, 防止把系统提示工具调用这些核心内容截断。建议只按模型来,一百二十八 k 模型设三万四万点,三二 k 模型设八千一万。第二个 soft threshold tokens 是 主动记忆冲刷的预值 token, 用到这个数,系统就会自动总结对话清空。上下文计算也简单,模型上线减去 reserve tokens floor, 再减点安全余量,比如一百二十八 k 模型,减四十 k, 再减二 k, 设八十六 k to the ninety k 就 行。大家可以看这个配置文件片段,就是在 open law dot json 里的 agent 呃 dot default dot dot complexion 下面加这两个配置, reserve tokens floor 设四万 memory flush 开启 soft threshold tokens 设八万九千六百,这俩参数配合用前者保护系统。咱们先把 reserve token 讲透, 这是保障系统稳定的关键,它的核心规则是对话压缩后剩余的空间必须小于等于这个值,才算符合安全要求。咱们可以看这段伪代码理解逻辑,系统先算当前用了多少 token, 如果超了上限就压缩对话历史 压缩后再算剩余空间,要是剩余的还比 reserve tokens floor 大, 就继续压缩,直到剩余空间低于这个安全底线为止。这里要注意调参的分寸,调高这个值,系统固定内容更安全, 但对话能用的空间就小了,压缩会更频繁。调低的话,系统提示可能被截断,导致工具调用失败, ai 行为也会异常。 最佳实践是按模型上线的百分之二十、百分之三十来设,比如 gpt four dot one d twenty eight k 模型。如果说 reserve tokens floor 是 恶防守, 那 memory flash 就是 恶主动进攻,能让 ai 实现真正的长期记忆。 e soft threshold token, 指就是触发水位线,当用掉的 token 达到这个数,就会自动启动冲刷流程。 第一步, ai 会根据当前对话生成总结。第二步,把总结写到 memory 文件夹下的日期命名文件里。 第三步,清空当前上下文,但保留系统提示和长期记忆。第四步,回复 no reply, 用户完全没感知对话就默默续上了。看这个完整配置视力除了开启 enabled 和涉域值,还能自定义 system prompt 和 prompt, 告诉 ai 该怎么总结,怎么存档。 这里一定要注意,必须把 enabled 设为 true, 而且工作目录要一光说不练假把式。咱们现在手把手教大家配置生效。首先看这个生产环境可用的完整配置快。除了之前说的两个核心参数,还建议把 compaction 的 mode 设为 c f g r 的 安全压缩模式, system prompt, copper 和 prompt 也换成中文,让 ai 更清楚该干啥。接下来是生效步骤,一共四步。第一步,找到配置文件,一般在 a openclaw slash openclaw dot json 打开编辑。第二步,把刚才的这块加进去。 第三步,重启网关,根据部署方式选命令。 systemd 用 system tool restart dot pm two 用 pm two restart 直接运行的话,就先杀进城再重启。第四步, 验证配置,执行 openclaw config get agents dot default dot compaction, 确认参数改对了。 这四步配置完怎么确认管用?咱们用日制记忆文件双重验证。先看日制,根据你的部署方式, 用 kernel to p m two logs 或者 tm to f 查看日制,只要能看到 memory flash, triggered 这类关键词,就说明冲刷正常。出发了。在查记忆文件工作目录下的 memory 文件夹里, 家里慧生按 a i m m d, d 到 m d 的 文件打开,就能看到 ai 总结的对话要点。比如用户问了上下文义出问题的,讨论了 reserve tokens floor 参数, 这就说明对话被正确规范了。如果没触发,先检查 soft threshold tokens 是 不是算错了,得小于模型上限减 reserve tokens floor, 再确认 memory flash dot enabled 是 true 工作目录能写。 这里还要避个坑,别用旧的 threshold 字断没用。正确的是 soft threshold tokens, 另外飞出免费版的 api 调用显然是另一回事。呵,这个问题没关系,最后执行。如果大家想挖的更深,推荐几个官方文档。第一个是 opencloud memory 记忆文档, 里面有 memory flash 的 完整说明。第二个是 session management and compaction, 讲压缩算法的底层逻辑。 第三个是 system prompt 概念,能帮大家理解充刷石系统提示的作用,这些文档都是权威参考,能避免踩坑,最终效果特别香。开启 memory flash 后,飞书机器人能支持数百轮对话,重要信息自动归账,再也不会上下维一出用户聊得再久。最后咱们快速回顾一下核心要点, 第一, reserve tokens floor 是 安全盾,保护系统,固定内容,避免压缩过头出问题。第二, memory flash plus soft threshold tokens 是 恶记一笔, 主动总结规章,实现无限对话,无感续接。第三,配置重启验证三步到位,日字能查,记忆可读, 效果立竿见影。总结下来,就靠这两个参数,就能让 opencloud 机器人拥有真正的长期记忆,再也不用面对 context limit exit 的 报错。今天的内容就到这里,感谢大家收看。如果遇到问题,欢迎在评论区留言,也可以关注 b 站的大叔大,咱们下期再见!

教学视频确实没什么人看啊,但是我们做事呢,还是要有始有终的,今天我们继续来讲一下如何将 ai 龙虾绑定到飞书,这样我们就可以通过手机随时和 ai 龙虾对话,给他下达各种任务了。 首先我们需要下载并安装一个飞书,然后打开飞书,进入飞书的开发者后台,这里呢,我们要创建一个飞书机器人,我们首先点击创建企业自荐应用,然后给应用取名字,添加描述,选择一个图标应用能力这里呢,我们就选择机器人。 选择完成后啊,一定要记得创建并发布应用,因为只有发布后才能使用创建,发布后会有一个版本号,我们这里填写一点零点零, 发布完成后,我们就可以在凭证与基础信息这里看到应用凭证包括 app id 和 app 密码,这两个信息非常关键,是后续与 open 可乐绑定时要用到的。 创建完成后,我们就可以与 open 可乐进行绑定了,我们输入绑定 app 的 指令,然后它会提示让我们选择对应的 app, 我 们选择飞书,接着它会要求我们输入对应的 id 和密码,我们输入即可。 绑定完成后,我们还需要在飞书开发者后台进行配置。在事件与回调这里,我们选择使用长连接接收事件,然后选择添加事件,选择接收消息这个功能, 并将其添加到我们的事件中,这样飞出机器人才能被授予录取和接收消息的权限,从而正常的与 oppo 可乐进行消息联通, 确认开通权限后创建新版本并发布,发布时要输入新的版本号输入,然后输入更新说明,最后点击发布即可。整个操作过程中,如果有遇到不懂的地方,我们都可以随时询问豆包,不懂代码也没关系。 然后我们可以先与飞书机器人进行一次对话,我们输入你好,它会回复一串代码,我们将这串代码复制到 open colle 中并提交,这时它会显示我们的飞书账号已绑定。 将飞书账号绑定到 oppo 可乐后,系统会显示绑定成功。此时我们可以尝试与飞书机器人进行对话,如果能够正常对话,就说明已经绑定成功了。 oppo 可乐绑定机器人也很简单,我们直接问他如何与飞书机器人绑定,他会告诉我们如何操作。 我们先回到飞书去创建一个飞书机器人,创建成功后给机器人添加对应的权限,添加完全限后发布应用, 接着进行 id 和密码的匹配,匹配完成后,在时间配置中选择长连接,并添加接受消息的权限,然后继续发布新版本。 在飞书中找到我们的机器人后,点击对话,他会给出对应的匹配代码,我们将其输入到 auto 可乐中, auto 可乐就会提示配对成功,然后我们就可以在飞书中直接与机器人对话了。 阿卡拉配对也是类似的流程,首先进入飞书的开发者后台,创建企业自建应用,然后创建飞书机器人,添加权限就在阿卡拉的页面选择消息渠道,在消息渠道这里选择关联已有机器人, 然后把对应的 id 和密码填进去,点击确认,这时阿卡洛就会自动进行配置,我们耐心等待即可。配置完成之后,我们回到机器人页面,继续选择事件与回调,然后选择长连接添加接受消息事件,接着发布。新版本 发布后我们就可以与它进行对话了,它会给我们一串代码,我们选择飞书配对,然后把对应的匹配码输入进去, 这时飞书就会提示配对成功,我们就可以通过飞书与阿克拉进行进正常对话了。好,以上就是今天的龙虾绑定飞书教程,感谢大家的观看,我们下期再见!

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

qq 官方下场支持 open class 接入 qq, 而且仅需三步, 打开龙虾机器人专用链接,并且登录 新建一个机器人。 这里官方准备好了三条命令,直接复制运行即可安装,第一步,安装插件, 第二步,配置连接 第三步,直接重启服务即可。 现在你的大龙虾就已经在你的 qq 上听令了。
![[从0玩机器人]Day2:装openclaw超详细教程(1) #openclaw #openclaw部署 #龙虾 #龙虾安装 #硅基爱好者基地](https://p3-pc-sign.douyinpic.com/tos-cn-p-0015/osJe24ibZwkBsHNmAANxjNgIBvAMiADoOBB0eI~tplv-dy-resize-origshort-autoq-75:330.jpeg?lk3s=138a59ce&x-expires=2090214000&x-signature=0nh1CWsu3BAPppL70V7J%2Fr4tCNg%3D&from=327834062&s=PackSourceEnum_AWEME_DETAIL&se=false&sc=cover&biz_tag=pcweb_cover&l=2026033015520791873A50111D4F3496C8)
刚才我让我的 ai 助理在 vs code 上用 python 写两个 rosoft 的 程序,一个是话题发布者,一个是订阅者,然后发布者不断地去随机发布一个数字,订阅者收到以后展示出来, 然后我告诉他了我的 vs code 工作空间,并且要求他在 s r c 文件夹下面去创建功能包,并且告诉他写好以后呢要打开两个设置终端,然后运行这个程序,让我看一下效果,然后他告诉我他已经搞定了。 那我们还有一个机位是对着电脑显示器拍的。然后现在我们去看一下他的工作回放, 搞定了,他已经给我翻译了,并且拿两个终端开始跑了。这边左边是发布者,右边是订阅者,然后打开 vs code 看一下, 在 s r c 底下,他给我创建了一个功能包,然后建了两个程序,这个结果看起来就是非常成功的。 hello, 大家欢迎来到硅胶作者基地,我是莫斯瑞阳。那么在上一期视频呢,我们站在了二零二六年这个节点上,去研究了一下怎样去点亮我们的树莓派, 呃,在上一期内容拍完之后呢?考虑到我们以后一定是要在这个树莓派上去运行 rose two 的, 所以说我就通过这个显示器的方式去 安装了无斑图二十二点零四带桌面版本的系统。那我的树莓派是很久之前买的四 b, 呃,内存是两 g, 然后内存卡是十六 g, 呃,非常的小,那原本我打算努力一下在这个上面去部署一个原装的 open clone, 呃,但是在安装的过程中,他一直爆这个内存不够,那毕竟是一个呃两 gb 版本的四 b, 而且安的还是一个带图形化的界面,所以说也很正常。 呃,那我在这个过程中其实也做了一些努力,比如说我,呃尝试去开启它的这个 swap, 然后还有去关闭它的这个图形化界面,只用命令行,但是通过这些尝试,它的内存仍然是不够。 呃,所以我就买了一个数媒派五币,然后八 gb 版本的,等那个到了之后,我们再给数媒派上去部署。呃,那那天晚上呢,我就开始找我身边有什么机器可以适合去部署,然后我就发现了一个在这里闲置了两年的一个联想的小主机。 呃,这个主机是一个,呃, i 三的处理器,然后八 g 的 内存,二百五十六 g 的 固态。呃,所以从配置来看,安装这个 openclo 是 绰绰有余的。呃,然后这个小主机它还有一些比较适合安装的原因,比如说, 呃,他开机之后声音非常的小,几乎听不到,你可以看下,我现在其实就已经开机了,几乎听不到任何声音。然后还有就是他恰巧就是五万多二十二点零四的系统。那还有就是这个因为闲置了很久,他里面没有什么我的很重要的一些资料,所以说部署之后他的安全性是没什么问题的。 呃,那最后就是这个东西,呃,它本身就闲置在这里,如果说我给它布好之后呢,相当于是又利用起来了,等到时候树莓派五币。呃,布好之后,我就拥有了两个 ai 助手,对吧?就非常的划算。 所以我们本期内容就是要在我的这个无斑图系统的联想小主机上去部署这个 open clone, 然后这个走通之后,等五币到了之后,我们再给那个去部署。 那在开始之前呢,还要说明一下,因为,呃,我当时布的时候其实是晚上比较晚的时候,一直布到了大概三点,所以没有来得及在当时拍摄。 那虽然没有来及拍摄,但是我在过程中,呃,所有的都有这个数据的留档,所以又整理了一个知识文档。那今天我们就 对着这个知识文档来一步步的告诉大家我当时是怎么部署的,然后遇到了哪些问题。呃,相信不论是有基础的还是小白看了之后都可以理解并且完成自己的部署。

今天录了一个完整版的 open globe 本地部署和对接飞速机器人使用的过程。 快捷键 win 加 s 先进入终端,然后输入 wsl in stock 安装 wsl 的 环境,安装完成之后需要重启一下系统,然后再输入 wsl 有 本土去安装这个 linux 系统,这里等待它走完 整个安装过程。 然后我们就可以输入官方的安装 openglot 的 安装指令去完成 openglot 的 安装, 接着进入 openglot 的 快速配置线导。首先是大模型的配置,大模型的配置需要大家提前拿到大模型的 api key, 我 用的是第四个,所以选择倒数第二个, 输入 detect u r u r l 链接,再输入 a b i key。 接着需要配置的是通讯工工具,然后我这里演示的是对接飞书的。对接飞书的话,我们要先到飞书的这个创作者开发者平台去提前创建一个机器人, 然后拿到这个机器人的这两个重要的信息先记录下来。 这里特别需要注意的是先添加一下它的权限,全部给它开始, 然后回到我们的终端去配置飞书的机器人,根据提示去输入刚才录入的信息就可以了。 飞书配置完成,然后会来到一个浏览器的搜索配置,这里需要大家先提前拿到对应的浏览器的 ipad, 然后填到这里, 来到这里的话,那基本上 opencloud 的 配置就已经完成了。最后回到我们的飞书后台,完成最后的机器人配置, 到这里所有的配置就完成了,大家就可以正常的在网页版去使用 open color, 也可以去飞书搜索刚才设置的机器人去进行对话。

你的 open core 大 龙虾机器人装好了,是不是也觉得他很傻啊?别着急,把这个指令复制进去,你会回来感谢我的。他会变得像贾维斯一样拥有长期记忆体,实时交互,而且能够记住你的使用习惯,越用越好用。

大家好,这期讲 open call 的 多 agent 模式,简单说就是一个 git 里可以同时跑多个独立的 ai 大 脑,每个大脑有自己的工作区,绘画记录和性格设定,互不干扰。 比如你可以有一个工作 agent, 一个生活 agent, 消息自动路由到对应的那个,非常适合多角色、多场景使用。 搞懂多 agent 要先理解三个核心概念,第一个是 agent id, 就是 每个 agent 的 唯一名字,比如 main work home。 第二个是 account id, 是 渠道账号的名字,比如一个非书账号,一个钉钉账号。 第三个是绑定,就是消息路由,规则决定哪条消息该交给哪个 agent 处理。添加新 agent 只需要一条命令, open call agents add 后面跟你想取的名字,比如 work 或 call 顶。 执行完之后,系统会自动创建独立的工作区目录,初步化搜点 md agents 点 md 等引导文件,还有独立的绘画存储。你可以一次性添加多个 agent, 每个都完全独立。 配置好 agent 之后,还需要告诉 get 位消息该路由到哪里,这就是 bindings 配置。在 open call 点 j s o n 里, bindings 是 一个数组,每条规则指定 agent id 和 match 条件, match 可以 按渠道名、账号 id 甚至具体的群 id 来匹配。匹配规则遵循最具体优先原则,精确到群 id 的 规则比只匹配渠道名的规则优先级更高,没有匹配到任何规则时,消息会回退到默认 agent。 多 agent 有 三种最常见的使用场景,第一种,不同渠道绑不同 agent, 飞书走工作 agent, 钉钉走,个人 agent, 互不干扰。 第二种,单个机器人账号按群路由同一个飞书机器人在技术群里是编程 agent, 在 运营群里是内容 agent, 用户只需要记住一个机器人入口。第三种,多人共用一个 gateway, 每个人对应一个 agent 工作区和对话历史完全隔离。 根据实际需求,有四种配置方案可以选择。方案一是单 agent 多绘画,最简单,适合个人用户。方案二是多 agent 软隔离,每个 agent 有 独立工作区,适合小团队和多角色场景,推荐大多数人用这个 方案三是 docker 沙箱处理敏感数据,使用安全性更高。方案四是多 gateway, 每个 agent 独立进程,适合企业及部署,越往后安全性越高,但复杂度和资源消耗也越大。按需选择, 每个 agent 可以 独立配置沙箱和工具权限。沙箱有三档, off 表示不隔离, none man 指对非主 agent 请沙箱, off 表示所有 agent 都进沙箱。 工具权限通过 allow 和 deny 控制。比如给家庭 agent 的 设置只允许读取工具,禁止执行和写入,这样就算有人恶意构造消息, agent 也没有权限做破坏性操作。 配置完成后,需要重启 gateway, 让改动生效。执行 opencloud gateway restart, 然后用 opencloud agent list 加上 bundins 参数,可以查看所有 agent 和对应的绑定规则是否正确。最后用 opencloud channels status 加 pro, 确认各渠道连接正常, 再对应渠道发一条测试消息,确认路由到了正确的 agent 就 算配置成功了。好了,这期多 agent 模式就讲到这里,记住三个核心, agent, id 是 大脑的名字,绑定是路由规则,最具体的规则优先匹配。 新手从多 agent 软隔离方案开始,用 agents add 命令添加 agent 配置 bundings, 重启 get 维,验证一下就搞定了,下期见。

今天教大家一个超实用的技巧,在飞书里给 opencloud 机器人配置自定义命令菜单,常用命令一键触达,再也不用手打斜杠命令了。 第一个是 no 新建绘画,清空上下文,当你想开始一个全新的对话时,用这个。 第二个是 stop 停止当前任务,这个命令非常关键,比如你发错了指令,想紧急刹车就靠它。第三个是 compact 压缩上下文,帮你节省 token 消耗,对话太长的时候特别有用。 第四个是 status, 查看当前绘画状态,包括用的什么模型,消耗了多少 token, 花了多少钱。 但是每次都要手动输入这些斜杠命令,确实有点麻烦,有没有更优雅的方式呢?答案是飞书机器人自定义菜单。 接下来我们一步步来配置,前提条件是你已经创建了飞书机器人,并且已经接入了 opencloud。 第一步,登录飞书开放平台,进入开发者后台,找到你的自建应用, 在应用能力中选择机器人,然后点击机器人自定义菜单的编辑图标。第二步,进入机器人自定义菜单配置页面,点击开启菜单能力展示形式,选择悬浮菜单。 第三步,点击加号新建菜单,输入菜单名称,响应动作,选择发送文字消息,比如菜单名叫新建绘画,发送的文字就是 new。 第四步,依次把所有菜单都创建好,如果需要二级菜单,可以在一级菜单下面添加,每个一级菜单最多支持五个二级菜单。 第五步,配置完成后保存,然后创建版本,确认发布。这一步别忘了不发布的话菜单不会生效。 对比一下,没有菜单的时候,每次都要手打命令,记不住拼写,还容易打错。配置了菜单之后点一下就发送,所有命令一目了然,快速高效零失误。 好了,飞书自定义命令菜单就配置完成了。觉得有用的话记得收藏转发关注我,了解更多信息!

这段时间一直在解决智能体写作的问题,然后视频评论区的很多小伙伴都有这个疑问, 我就专门录一期视频,大概说一下这里面的结构。其实这个配置的过程呢,主要就是这五项。 第一项呢就是配置模型,这里的智能体模型配置指的是给每一个智能体都配置一个合适的模型,或者说一到两个,两到三个模型共用一个模型。 然后第二项呢就是你每在 opencloud 里边配置一个智能体,就要在飞书里配置一个对应的机器人。 然后第三项呢,就是要在 opencloud 点 jason 这个配置文件里边,把所有的智能体都列出来,还有一些默认的配置代码。 第四个呢就是 tools 这个工具的一个 agent to agent, 还有 sessions 的 一个配置,这里边也有一些参数要调整。 再接着呢就是这个绑定关系,就是一个是绑定飞书的账号关系,一个是绑定群组的关系。 在配置文件里,我们除了调用这个大模型的 api 地址之外呢,我们还要配置它的主模型,同时把智能体涉及到的所有模型都得列完列出来。 然后呢这里就是要把所有的智能体的 id, 包括它的名称啊,包括它的一个配置路径,还有就是它所关联的这个模型也要列出来, 这里呢就是工具的一个参数,包括 agent to agent 的 一个参数配置。还有呢就是对话,就是 session 这一块的一个配置,这里要选 all 啊,大家很多都漏了这一点。 接着呢就是绑定关系了啊,这里的话,看我的主智能体和其他的本地智能体每一个的绑定关系,包括它的 id 都要写得明明白白, 然后这里还有消息的一些参数,接着呢就是飞书的一些配置, 飞书的配置里边呢,也要把每一个这个智能体的 id 都列出来,一一对应关系,还有这里的群组的一个参数配置, 配置完成之后呢,还要用这一段指令去验证一下这个配置的一个正确性。 为了让智能体之间在通讯的时候不胡说八道,要知道彼此叫什么,能够找到对应的同事, 那还要给每一个智能体配置它的灵魂文件,也就是它的身份、职责、性格、工作方式的特征, 然后在每一个灵魂文件里边都要把其他的同事的名字也列进去,这样他们在通讯的时候就知道谁是谁了。 为了让这些智能体的记忆更准确,更清晰,对自己的身份有一个认知,那还有一个文件都是被忽略的,就是这个文件也要配置, 还有一个文件呢,就是这个 user, 这个文件就是你作为这些智能体的老板,然后他们也知道,也需要知道你是谁,但是呢经常会忘记,所以呢,这里也需要配置一下。这里其实有两个地方配置这个文件的 啊,一个是共享的,一个是私有的。我在这份文件里边呢,已经对上面的一些配置也做了一个解释说明啊,一看就明白,包括这个绑定关系路由也做了一些解释。 为了让大家理解他们之间的一个通讯流程,这里还特意画了一个流程图。 以后呢,这一部分是介绍他们整个的一个目录结构的啊,这个目录结构呢就是一看就明白,就是哪些文件我们需要去操作, 这里呢我还做了一个叫配置文件加载顺序的一个说明,这样呢,你对他的一个工作原理就有一个清晰的认知了。 在我们配置智能体的过程当中呢,有的智能体已经绑定了能够识别图片的大模型,但是你发图片给智能体的时候,他说他做不到,原因就在于这里没有做图片识别的一个参数配置, 因为那个模型它需要特殊的配置才能够识别图片。我把我在配置过程当中遇到的问题呢,也简单的罗列了一下,大家遇到的话呢,可以对照着参考去修改, 大概就是这么一个配置,其实说起来也不是很复杂,看完文档基本上都能明白,但是我还是强烈建议你不要自己手动修改,要用 我一直推荐的开发工具来解决这个问题,有需要的小伙伴欢迎关注我,你懂的。

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

hey, 大家好,你是不是也一样跟风装了那个火遍全网的 opencl, 结果用了一下发现,哎,好像也没传说中那么神嘛。别急,今天咱们要做的就是把这个有点让人摸不着头脑的 ai, 一 步步调教成一个真正强大,真正好用的个人助理。 你是不是也有这种感觉?就是装完之后吧,你看人家的龙虾哇,二十四小时在线打工,啥都会,再看看自己的,嘿,一问三不知,转头就把你名字给忘了,这,这不就是个有点健忘的聊天机器人吗?对吧? 其实啊,问题就出在这,你的龙虾连你叫啥都记不住,那是你用错了,但你听我说,这反而是个天大的好消息,为啥呢?因为它说明啊,这毛病不是 ai 的,是咱们自己的问题,那咱自己就能给他治好。 没错,你绝对没听错,今天呢,咱们就用两个,就两个,超级简单,一行代码都不用写的步骤,让你那个有点人工智障的 ai 摇身一变,成为一个真正懂你的专属助理。 好,那咱就直接上干货,第一步,也是最最关键的一步。说实话,我敢打赌,百分之九十的新手都给忽略了,那就是先给你的 ai 做个自我介绍,或者说身份入驻。 这个身份录入啊,说白了,就跟新员工入职一样,你得给他做个岗前培训,对吧?你得先告诉他,喂,你老板是我,我这人有啥习惯,喜欢怎么说话,平时几点上班,几点下班, 你把这些都交代清楚了,他才能真正用上自己最牛的那个本事,永久记忆。来,别怕麻烦,我都给你准备好模板了,一分钟就能搞定, 你就直接复制粘贴,把里面的信息换成你自己的就行。比如说你叫啥,在哪儿干啥,你喜欢聊天正式点儿还是随便点儿?你的作息时间都告诉他,然后看好了,最最关键的一句来了,最后一定要加上这句咒语!以上内容请永久记住, 敲黑板啊,这就是关键,不然前面都白说了。好嘞,岗前培训做完了,你的 ai 现在认识你了,那接下来干嘛呢?当然是发工具了,咱们进入第二步,给他装上最牛的技能,让他能上手干活儿。 哎,说到这儿,得先帮你分清一个概念,很多新手都在这儿犯迷惑,就是技能和插件儿。 你这么记技能,是他的大脑和双手决定了他能做什么是干活的本事,比如上网搜东西,总结文件。 而插件呢,顶多算是他的衣服和皮肤,决定了他长什么样。所以呀,咱们新手先把那些花里胡哨的放一边,先让他有真本事能干活,这才是正事。 我懂你打开那个技能商店,哇,几百上千个选项,眼睛都看花了,根本不知道从哪下手对吧?别急,功课我都帮你做好了, 我已经从里面给你挑了六个,可以说是新手村的神装,就是屏幕上这几个,你先把它们装上,我保证你的 ai 立马鸟枪换炮。来,咱们一个一个说。 第一个,必须是它, capability evolve 能力进化者,这可是官方商店下载量第一的技能,绝对的王牌。 它的作用有点玄乎,它不是直接帮你干某个活,而是像个观察家,在后台悄悄地学习你的说话,习惯,你提问的方式。然后呢,它会不断地自我调整, 所以你用着用着就会发现,哎,他怎么越来越懂我了,有时候话说到一半,他就知道我想干嘛了,就是这个感觉 好。第二个, self improving agent 自我提升代理,这个跟刚才那个简直是天生一对黄金搭档。如果说上一个是让他懂你,那这个就是让他变聪明。 它能让你的 ai 在 每次干完活之后,自己开个复盘会,想想这次哪里做得不好,然后从错误里学习。这意味着什么?意味着你的 ai 是 真的在成长,在进化,而不是一个只会执行命令的机器。 第三个来啦, summarize 文档栽药!这个我跟你说,绝对是装上就能马上爽到的神器! 你想想,几十页的报告,看半天的长文章,甚至是视频链接,你直接啪的一下丢给他几秒钟,唰,核心要点就给你整理的明明白白。我的天,这对于我们这些打工人和学生党来说,简直就是救星啊,是刚需中的刚需, ok, 最后这三个咱们可以打包一块儿说,它们就像是给你的 ai 装上了眼睛、耳朵和手脚,你看啊, fine skills, 让你以后再也不用去市场里瞎逛了,想要啥功能,直接问你的 ai, 它自己就去找了。 然后是 agent browser, 这个厉害了,它给了 ai 一 双手,能帮你直接操作浏览器,什么自动查资料啊,帮你定个票啊,它都能搞定。 最后,这个场景技能就更牛了,它能直接跟你平时用的软件,比如 notion, github 这些打通,让 ai 直接住进你的工作流里 好了。朋友们,你看,就这么简单的两步,身份录入加上技能安装,你手里的这个 openclaw 已经跟刚开始的时候完全不一样了, 他已经脱胎换骨,从一个玩具变成了一个真正智能的伙伴,一个属于你未来的超级助理。 就像我们总结的这样,就是这两个核心部头先让他认识你,再给他配上工具,就这么简单,你就已经把 opencloud 的 真正潜力给挖掘出来了,他不再是一个冷冰冰的程序,而是一个真正开始懂你,能帮你的伙伴了。 而且我告诉你一个很有意思的事实,你知道吗?就凭你刚才完成的这两个超级简单的步骤,恭喜你,你已经领先了市面上超过百分之九十的 opencloud 新用户了。真的就是这么夸张。 所以啊,这也就印证了现在非常火的那句话,未来不是 ai 要取代我们,而是会用 ai 的 人去取代那些不会用 ai 的 人。而今天你花时间学到的这些,就是你迈向会用 ai 的 人的最关键最扎实的一步。 好了,现在你的主熟助理已经岗前培训完毕,工具也发下去了,正摩拳擦掌等着上岗呢。那么问题来了,你准备交给他的第一个任务会是什么呢?别犹豫了,赶紧去试试看,看看他到底有多大能耐吧!

兄弟们,绿莲辣死你的 open club 怎么配置机器人呢?这个教程啊,所有 open club 都适用啊,如果在应用中心你没有更新到最新版本的话,那预装的机器人可能不是很完整,需要重新安装机器人插件,搜索 open club 就 会出来官方文档。那到最下面的步骤二, 复制这串代码,想偷懒的我直接放评论区了。然后呢,打开 nas 的 docker, 点击容器,点击 open up getv 杠一,点击终端新建确认,然后在黑色的命令行里右键粘贴回车, 然后等它完成后啊,就去项目里点击 open class, 停止右边的三个点选重启,然后到开发者后台登录后,没有组织的呀,可以创建一个组织,随便停一下就可以了。点击应用开发应用,这里已经预制了一键创建, 立即创建后呢,复制 client id 和 client script 到 open 可乐聊天框,跟他说给我添加机器人。接下来呢,手机搜索你刚输入的名字,找到对应的机器人,就可以用手机远程操作你的小龙虾助理啦。在 open 可乐使用过程中有什么问题啊,可以发在评论区。看到了呀,会帮忙解决的。

彻底解决龙虾不能操作电脑软件的最后一环,龙虾龙虾帮我通过全部好友请求,并且打个招呼,然后他就开始这样自动操作我的软件了。 这就是之前我在这个视频里说到的 openclock 加 rpa 的 联动方案,他可以控制电脑上所有的软件。 我用的是八爪鱼 rba, 它市场里面这么多应用都可以被我们的龙虾调用。我来实操演示一下,在操作之前需要满足这三个条件,不满足条件的可以在这里申请试用。第一步,新建一个触发器,点这里新建触发器,这里选择 webhook 触发器, 这里选择一个要被龙虾调用的流程,使用触发器确定,这时候我们会获得一个 webhook 地址和一个安全密钥,把这两个要保存下来 确定。第二步,安装八爪鱼的 skills, 连同第一步获得的两个信息一同发给龙虾。最后,当需要调用流程的时候,你只需要在飞书里对小龙虾说一句帮我干什么就可以了。 最后我做了一个很详细的实操文档,有需要的可以跟我要。

大家好,我是麦东,今天给大家带来 openclaw 对 接 qq 的 视频教程。首先我们需要访问 qq 新推出的 qq bot 创建界面,记住这个网址,打开手机扫码登录开放平台, 登录成功后,我们即可在当前页面创建机器人。点击创建机器人, 可以看到 qq bot 就 已经成功创建了。接下来的操作非常简单,首先安装 opencolor 开源社区 qq bot 插件,复制该命令来到终端,粘贴回车直行即可, 可以看到插件正在安装。 插件安装成功后,我们继续复制第二条命令,配置绑定当前 qq 机器人。 好, qq 机器人配置成功绑定了,接下来我们只需要重启本地 openclaw 服务即可执行 openclaw get away restart。 重启完成,我们打开 qq, 可以 看到这边已经有一个机器人创建成功的提示了。接下来我们给机器人发送第一个打招呼消息, 可以看到我们成功接收到了来自 opencloud 的 回复。接下来我们来做一个简单的应用,询问一下明天南京天气如何 好, opencloud 已经自动查询了明天南京的天气,并将它发送到了我的 qq 上。这样通过非常简单的配置之后,你就拥有了一个可以二十四小时随时为你服务的个人 ai 助理, 并且可以随时随地通过手机 qq 与其沟通,下达指令。今天的 opencloud 接入 qq 的 教程到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续!

你知道怎么配置多智能体吗?也就是在你的飞书的客户端里,有多个机器人可以陪你聊天,而且呢他们还可以在一个群里边互聊。 同时呢,你的那个默认的机器人,也就是你最初配置的那个机器人,可以指挥其他的机器人干活。 这里边有三种写作模式,第一种呢就是点对点的直接通讯, 也就是说两个智能体可以在后台相互沟通,他们不依赖于非书的这个群主。然后第二种呢,就是非书群主内的写作,也就是你建了一个群主,把他们都拽进去,然后呢就可以在群里边沟通工作,分工写作。 这一切的前提条件是你的电脑上已经正常的运行了 openclaw, 不 管是乌班图系统,还是 windows 系统,还是 mac 系统,还是独立的 linux 系统都可以。 然后呢,你就要到飞书的开放平台去注册账号,然后呢申请到它的 app id 和密钥, 然后呢再给他添加权限,做一些回调。上一期视频我们已经聊过这个话题了,这里就不再赘述了, 这呢你就要根据公司或者你的业务诉求给他们划分岗位,每个智能体叫什么名字,然后呢他们的角色是什么,以及他们的核心职责对应的非输应用的账号。 再接着呢,就是要给它们创建独立的工作区域,但是不管你怎么创造,创建它们都在 核心的这个 openclaw 文件目录下。如果是 windows 系统呢,就是在 c 盘的管理账户下面有一个点 openclaw 这么一个目录,然后把所有的这个文件夹都建好。 接着呢就是最重要的一步来了,给他们每一个智能体都配上一个灵魂文件,也就是给他们定义性格,那这个性格文件呢,也就是对他们的一个约束了,他叫啥?职责是什么啊?甚至你看我还给他起了一个英文名字和工号, 包括他的核心职责啊,专业技能啊,同时呢一定要告诉他他的同事有谁,不然的话他会混乱,他会记不住。然后呢 还要告诉他一个写作的一个方法,就是当你需要把一个工作分配给他的机器人同事的时候,要用到这样一个工具,那这个工具是什么呢?就是下面的一个描述,就是他 要通过这么一个工具联系到那另外一个机器人的 id, 然后呢告诉他你需要做什么, 等到他的工作完成,并且呢收集到了其他智能体的工作结果,他就可以进行交付,所以整个的智能体协助的一个过程,这个 session 的 这个工具非常重要,一定要写清楚。 这里呢有一个解释啊,就是塞声散散的一个作用,就是找到目标的智能体 id, 然后给他发一条信息, 这个发回信息之后呢,还要得到他的返回信息,所以这个过程是所有通讯的核心逻辑。 后面我又给他定义了他的一些工作风格,就是不同岗位,你要给他一些职业习惯性的一些性格特点,这样他的工作的效率才会变高,才不会啰嗦。 汇总一下,就是每一个智能体的性格,也就是灵魂文件都要包括以下的这几点,从他的基本信息到他的核心职责,还有他的专业技能, 以及呢向他介绍其他的团队成员,包括他们的写作流程的说明,还有这个工具的使用说明,以及消息响应的一个规则。 当你给每一个智能体配置完成它的灵魂文件之后,我们就要进行 opencloud injection 这个文件的配置。 如果是 windows 系统呢,它是在 c 盘管理账号下面有一个文件夹叫点 openclaw, 有 这么一个 openclaw 点 jason 的 一个文件。 然后呢,除了定义它的主模型之外,还要给每一个智能体都定义它使用的模型。比如说 你用的是阿里的百炼,那么申请到一个密钥之后,你就可以选择阿里百炼里的不同能力的模型,对应不同能力的岗位的智能体, 或者说你在火山引擎也是一样的,申请了一个密钥之后,火山引擎里边有很多的模型, 我们一定要知道每种模型的能力都是不一样的,同样的你定义的这些智能体数字员工, 他们的工作岗位对智能体的对大模型的要求也是不同的,因此我们需要给它们配置不同的模型,让它们更高效的工作。 配置完它们各自的模型之后,我们还要解决啊智能体之间的一个通讯问题,就是这里边有一些开关要打开, 再接着呢,我们就要和飞书插件进行对接,也就是说这里要特别注明我们的所有智能体跟飞书的 一对应关系,就是这里要写上飞书的 id, 然后我们在系统里配置的飞书这个智能体的一个名称,包括它的中文名称等等。 到这里呢就有一些配置像也非常关键,他呢是一个是私信的一个策略,一个是群主的策略,然后决定了说他们在一个群里通讯的时候,需不需要被艾特, 那有的时候呢,你可能没有艾特,发了一条信息,这个时候谁来回复?是通过名字提及来回复,还是说你根本名字都没有提,这个时候应该是谁回复这个规则的问题。还有就是当你艾特他的时候,他会不会回复。 再接着呢,就是群主内的一个绑定关系了,这里特别说明一下啊,一个呢是叫群主绑定,一个呢叫账户绑定, 大家看一下这里的区别啊,有看的 group, 然后到下面的时候呢,这里就有一个 channel, 一个飞书,然后呢会有区别啊,这里就是 account id, 你 看这个跟群主是不同的,一定要注意这个, 这里的提示特别重要啊,就是每个智能体需要有两个绑定,一个叫群主绑定,一个叫私信绑定,也就是我说的账户绑定。那么还这里边呢,群主绑定主要是接收群主的消息,私信绑定呢,主要是私聊的消息, 这里边特别要注意这个东西的参数,千万不要去设置,否则容易出错。我已经试了无数次, 等到这些配置全部完成之后,你就可以重启小龙虾的服务了。那重启之后呢,可能会遇到各种各样的问题报错,比如说我遇到的问题就是 艾特了 a 智能体,结果是 b 智能体回答我,等到我艾特 b 智能体的时候呢,他又不吭声了,所以各种问题。那这些问题的话呢,我在视频里很难讲清楚, 也讲起来比较复杂,如果有需要的小伙伴请关注我,我通过私信的方式把文档发给你。

如果你的龙虾机器人用的 open ai 的 os 登录的话,过段时间你会收到一个报错,这个错误的意思就是这个 os token 过期了,所以我们重新授权一下就可以了啊。我们打开命令行,输入 open claw on board, 然后重新走一下这个设置向导,然后这里选 open ai codex, 敲一下的话重新登一下, 然后登完了之后把这个链接粘贴到这里就可以了。 ok, 这里都跳过就行啊,因为我们之前都配置过跳过跳过, 然后重启服务。 ok, 服务重启完毕, 然后我们刷新一下,看到这个监控状况正常了啊。