粉丝2708获赞9053

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

今天跟大家分享一下如何使用 open core 去设定一个多 agent 的 一个模式。首先呢,我们会通过这条命令去添加一个新的 agent, 那 这个名字是根据我们实际需要进行填写的,像我这边需要去 专门弄一个编程专家,那我就会给他起一个叫 call 点。执行这条命令之后,我们会给这个 agent 单独配一个工作空间,就是每个 agent 的 它的工作空间是独立的,它是互不干扰的。 那接下来会给他配一个模型,我这边先用的一个模型进行一个测试,然后接下来就会给它配一个通道,那我这边是采用飞速的方式进行接入的,配置完之后,他在一整台这边就会多了一个叫 call 点了,那除了主规划之外,就是我们这个 call 点就是我们新增的一个 a 整台, 然后在 open curl 的 这个配置文件里面,它这边也会新增相关的配置,然后在这边那 agent 它这边有个,它这边有个 list, 那 这边有个主绘画的一个 agent, 那 这个 call 点是我们新增的一个 agent, 那 配置完之后我们就要去设定这个 agent, agent 一个人格,那我我这边会通过 ai 的 方式来进行一个输出,这个这部分就不用我们自己去设定了,我们就提出我们需求,让它进行一个修改就可以了。 那我这边的提示词是这样写的,我会让他去艾特这篇文章,然后让他了解就是每个 agent 需要 包含的有哪些内容。那这篇文章是在这个网站这边去的,就是每个 agent 它有包含了几个文件,像 agent 点 md, 其实一些操作指令告诉 ai 应该怎么做,那 so 点 md 就是 ai 的 一个 灵魂。告诉 ai 他 是谁? user 就是 我们用户,我们自己用户是谁? i don't care 是 ai 的 一些基本身份, toos 是 一些工具,就是 ai 使用的一些 skill。 那 may may 点 d 是 一些长期需要记忆的,那然后下面有一篇的目录,这个是用来做短期记忆的,每天都会做一个总结。 那这边都有介绍每部分需要编辑的规则是怎样的。那我们看一下我们这边 ai 帮我们实现怎么样呢? 那他就会给出这个基本身份是名字叫 cloud code, 资深前端的软件工程师, ai 助手。前端啊,即 open core, 它的一个定位是把需求变成可维护、可测试的交互。一个软件部分都是 ai 帮我们生成的。那我们来看下一个文件,这个是 ai 的 灵魂, 那现在我们看下一个就是它的 agent, 我 们继续 那用户的画像,说的就是我,我看一下,这个可能比较重要,这是为了更好的写作,不是为了收集隐私,不要记入敏感信息。那基本信息,我叫 oliver, 那 时间就是北京时间, 这是心跳的一个轨迹,周期性的一个工作,我们不需要心跳检查,把本电流空气的起动时保持最小,以免脱口干纹。我们先这样弄,然后要在人格里想画出来,就主要要记住这样 看一下,然后这个 让他再调整一个版本,我们采用飞书测试一下,我们来问一下他,你好,你是谁?我这个需要授权一下。 好像没起来哦,我们重启一下服务,我刚开始可能忘记重启了,再重启一下。 ok, 我 们再测试一下 哦,感受到配置完那个 agent 之后,需要那个重启一下服务。 那另外关于这几个这几个文件的一个介绍,我们在这个网站这边是有个详细的介绍,就是打造 ai 的 一个人格,它有介绍工工作空间一些文件的作用,大家有需要的话可以私信我,我分享给大家,今天分享到这边,谢谢大家。

这条视频我们用五分钟把 open core 多 agent 的 最小可用方案讲透,目标很明确,第一,知道多个 agent 的 怎么隔离部署, 第二,知道消息怎么稳定路由。第三,知道两个 agent 怎么开始协助你第一次上手,别一开始就做三层专家组。最稳的起点就是一个主控 agent 加一个执行 agent。 正式配多 agent 的 之前,先把环境起好,先用 on board 把 gateway 服务装起来, 然后用 gateway status 确认它在运行,再打开 dashboard 看配置是否能正常加载。如果你要把不同账号分给不同 agent, 就 先把频道账号登录好,比如一个 personal, 一个 base, 只有当 get 位正常,面板正常,频道账号也正常的时候,后面写的 bindings 才有意义。 do agent 最关键的第一步不是写 prompt, 而是目录隔离。最少要拆三个东西, workspace 要独立, agent 的 要独立, sessions 也要独立。因为每个 agent 都有自己的身份文件,自己的绘画历史,自己的工作资料。 如果你附用了同一个 agent, 最常见的结果就是认证串调,角色串调,绘画也串调。 agent 创建出来以后,别只停留在名字,至少要给每个 agent 写清楚两类信息, agent 点 md 定义职责边界, so 点 md 定义语气优先级和工作风格。比如 home 负责清亮聊天和提醒, work 负责项目执行, review 只负责复合。这样后面即便三个 agent 同时存在,也不会出现谁都想接手同一件事。接下来是 bindings, 它作用很简单,消息进来以后到底交给哪个 agent? opencloud 的 路由是确定性的, 而且越具体的规则,优先级越高。如果你写到了单个联系人或者单个群这种 peer 级规则,优先级最高,再往下才是 account channel 通配,最后才是默认 agent。 所以 你想做精准分流,优先写具体匹配, 不要只靠默认。实际落地时,建议你先按账号分流,比如 personal 进 home business 进 work, 然后如果某个群或者某个联系人需要单独处理,再用 p 尔规则覆盖,最后保留一个默认 agent 兜底。这样配的好处是基础分流稳定,重点对象又能单独接到更专业的 agent。 消息已经送对以后才轮到协助。 openclo 的 多 agent 写作本质上是跨 session 工作,最常用的能力有四个, 看绘画、读历史、发消息、启智任务。其中 sessions send 适合主控把任务交给执行, sessions spawn 适合开一个独立子任务去后台跑。 另外要记住, session 可见性和通信权限不是一回事,能看到不代表能互发。第一次做多 agent, 最稳的协助顺序是先单向再双向,也就是先让主控 agent 把任务发给执行 agent, 执行完把结果收回来。如果你一开始就让两个 agent 互相自动回复,最容易出现的是死循环。绘画、串线 或者一个小问题被放大成无限对话。所以最小配置里先把 allow 写清楚,再把 sessions 的 visibility 放到 all, 先跑通 home to work, 再扩。第三个 review。 配置写完以后不要直接上真实业务,先做验证。 第一步,指测 routine 确认, personal 指进 home, 壁纸指进 work。 第二步,再测一次 sessions send, 让主控发一个简单任务给执行 agent, 看结果能不能收回来。 第三步,最后才加 review 或者自动往返,如果出问题,先看 get 尾状态,再看深度状态,再看 house 和日字。日字里重点看消息到底进了谁,以及绘画 key 有 没有串,最后收个尾。 do agent 想跑稳你只要记住六件事, 目录独立,职责清楚,先按账号分流,再按对象覆盖。先单向斜坐,再双向 allow, 只给必要的 agent, 每次只加一个变量,并且用日制验证。 多 agent 的 本质不是模型越多越强,而是路由清除,协助清除,验证清除。做到这一步,你在网上扩散角色,专家组才不会失控。

嘿,欢迎来到这期视频,今天我们来聊一个让很多小白头疼的话题, open core 的 配置文件,别怕,我保证讲完你也能搞定。 首先, open core 的 配置文件叫做 open core 点杰森,默认藏在你电脑的用户目录下,路径是 open core 斜杠。 open core 点杰森拨浪号代表你的家目录。 这个文件用的是杰森 five 格式,比普通杰森更友好,你可以在里面写注是末尾,多一个逗号也没关系,而且这个文件不是必须的,如果没有 open class 会用默认配置自动运行。 配置文件主要分四个模块,第一是 agents, 用来配置 ai 助手的行为。第二是 channels, 配置接入渠道,比如飞书 telegram。 第三是 gateway, 配置网关的端口和认证方式。第四是 session 管理绘画策略。 重点来了,模型配置在 agents 里面,你可以设置主模型和备用模型格式式,提供 entropic, cloud senate 四五, 还可以配置一个模型白名单,只允许用户切换到指定的几个模型。注意, api key 绝对不能写在配置文件里,应该用环境变量,比如设置 andropic 下划线 api 下划线 key, 或者运行 openclaw configure 命令来安全的存储密钥。 opencloud 支持热加载,也就是你改完配置文件不用重启,大部分改动会自动生效。但如果改了端口号这类关键配置,还是需要重启网关,运行 opencloud gateway restart 就 行。 修改配置有四种方式,第一直接编辑文件。第二用命令行,比如 openclaw config set 来改某个值。第三,打开控制台界面,访问本地一万八千七百八十九端口。第四,运行 openclaw config 交互式向导最适合新手, 如果你要同时运行多套配置,可以用环境变量 openclaw 下划线 config 指定配置文件路径, openclaw 下划线 profile 指定环境标识,这样状态目录会自动隔离。 好啦, openclaw 配置文件的核心就这些,记住配置文件放在斜杠, openclaw 斜杠用杰森 five 格式, apikey 用环境变量大部分改动热加载生效有问题评论区见,我们,下期再见。

最近爆火的 opencurry, 普通人到底能用它来做什么?它能二十四小时帮你提提它价格,寻找最新最前沿的一手 ai 资讯,能把各个平台收藏家,里面内容打好,标签存到知识库,还可以打通 mac、 ipad、 iphone 日程,让你不错过重要的会议来 十分钟学会 opencurry 安装和三大超神玩法视频里面所完成教程配置这些词 skill 都放在这个文档里面喽。 我们先来看看 open curl 到底是什么?一句话总结,概念上, open curl 是 一个可以自己决策、自己行动的 ai agent, 和你电脑上的其他软件一样,装上就可以用。 功能上它接受你聊天输入框输入的指令,然后调用 chgbt、 jimmy n 豆包千万这些大模型作为大脑来决策,在这里拆解步骤,调用你电脑上的其他软件工具来完成你的指令具体的功能。看完我后面的玩法教程你就明白了。 我们普通人要用 open curl, 主要是与服务器部署和本地部署两种方式。与服务器部署别看听起来很唬人哈,这些操作反而更简单,跟小白友好, 因为各家云计算大厂为了争抢这个风口,都尽可能的降低门槛,计算模型、计算配置、教程也都给你写好了,一两个小时就能搞定。与服务器部署入口和教程都放到教程文档里面喽。 但如果想把 open curl 玩出花来,就推荐部署在本地了,尤其是 mac 生态呢,会更丝滑,为官方提供了很多 g 苹果系统的 skill, 拿来就能用,所以 mac 上玩功能呢,更丰富。但一定要注意,最好不要部署在平常办公的电脑上,让 open curl 那 天抽了风,把你的重要文件删光了。 那本地部署主要有四步,一个就是安装 open curl, 在 mac 终端里面输入这行命令就搞定了。第二是配置底层的大木星, 这决定了你养的龙虾的智商。国外的模型功能是 cloud 的, 加的最好用,但也很贵,而且很难获取 api。 其他用的比较多的就是 jimmy、 nike gpt, 国内模型也有不少不错的。现在大部分人是在用 mini max 二点五、 kimi 二点五、智普的 g l m 五这三个。那具体的配置方法我都会在教程文档里面介绍。 第三步是配置机器人,把 open curl 接入你的日常通讯软件,国内的话可以接入飞书、 qq、 钉钉企业微信。配置方法可以参考大长写的这些文档。最后一个就是安装 skill, 给他装一个机票价格,监控 skill, 他 就能够直接帮你监控机票的价格。 我整理了普通人日常必备的几个 skill, 都放到教程文档里面了,大家可以先照着装上。如果你要用其他的 skill, 但不知道去哪里找,那可以直接让他用这个 find skill 帮你找就行。比如说我想监控机票价格,让他帮我搜索相关的 skill, 他 就搜到了监控机票价格的 skill, 我 装上就可以用了。 我估计很多人跟我一样,某书微信收藏必吃亏。 那现在 opencurry 可以 改变收藏及吃亏的尴尬了。比如我自己做了这个整理收藏内容的 skill 给我的 opencurry, 我 现在在某书某号上刷到有价值的内容,直接转发给 bot, 它会自动提取内容的信息,打好标签,然后传到 obsidian 数据库里面, 把之前散落在各平台的收藏夹里面内容汇总到一起。每天早上九点半,我的 opencurry 会根据爱宾浩斯一共取现的规律,算出今天需要回顾的内容,推送给我, 能知道你在第一天、第三天、第七天这些关键的节点去提醒你回顾收藏的内容。比如你收藏了一篇 open curl 高级玩法教程,只是没有动手实践,就可以用这个回顾机制来不断的提醒自己,而不是收藏就忘。或者你收藏的行业知识,就可以通过都是回顾复盘 来加深记忆。如果偶然想起需要用资料,就可以和 boss 对 话,查这些内容。比如我让他调出和 open curl 有 关的内容,整理成表格发给我了,特别的方便, 再也不用去一个个收藏夹一个一个翻了。能让 open curl 实现这样的一个收藏管理的功能,非常简单,你只需要把这样的一个提示词 get bot, 像我们前面说的那样,它会自己创建一个收藏管理的 skill, 然后你边用边调试就可以了。 这些词我都放到教程文档里面了,大家可以直接用哦。你甚至还可以接入 open curl 的 skill 市场, curl up, 还有全球超强资源网站 get up, 让 open curl 在 这些平台上找大佬们已经做好的工具来拓展功能。 比如我做这个收藏系统的时候,遇到一个难题,就是当我把一篇文章的链接发给了 bot, 它只能保存了一张标题和链接地址,不能读到文章的具体内容,但我这内容又是最核心的部分, 那就可以告诉 bot, 在 github 上找一个能读取网页内容的工具吧。那它就在 github 上找到了 x ray 的 这个开源工具,接录之后, bot 就 可以顺利地读取链接里面的中文内容了,再根据正文帮我做好摘药,把标签存进数据库,非常的方便。 opencrew 还有一个很爽的用法,就是做咨询收集。比如我是 air 博主,我希望第一时间知道最近 airm 已经发布行业大佬观点这些一手消息, 这些信息如果靠我自己去刷,非常的耗时间,而且很杂乱。我就把 opencrew 做成了我的情报助理, 二十四小时不停地帮我收集一手猎爱资讯。比如我可以让他搜某个特定的关键词,比如让他找近三天有关上关于 open crow 比较爆的视频,他马上就能把相关的内容收集到给我。他还会反过来问我是否需要帮忙收藏到知识库,需要的话直接加到 opc 店知识库就好了。 高价值信息的搜索收藏,后续按机取现推送给我重温。所以我的时间用 open curl 看这些降噪后的 ai 前沿资讯,真的非常强大好用。要做出这个情报收集功能,你只需要先装上这些 skill, 把这些信息员的 a p i 发送给 bot 就 行了。那这些我都整理到文档里面喽。 我们之前也分享过用 n 八 i 搭这种情报收集工作流,但工作流搭建起来很复杂,门槛还挺高的。用 open curl 的 话,你只需要把信息源的 a p i 给 bought, 它自己就配置好了。 而且前面讲到按关键词搜资讯,这些 open curl 的 灵活性也比 n 八 i 强很多。 open curl 还支持你在 github 里面找开源工具,想要什么你就搜索就行,比你自己去 github 官网搜要高效很多。 比如我让他帮我找 b 站有关的视频下载工具,他很快就找好了,还总结成了表格,方便我对比不同工具的区别,还附上了网页链接,给了我使用建议,真的很细致,很贴心。 更牛的是,这个 open curl 有 hotbeat, 也就是心跳机制,能帮你二十四小时做任务。像我是自媒体博主,需要监控对标账号的更新,这里我就用 open curl 监控了这七个有关博主,每两个小时他会自动检查一次,哪些博主有更新,就会把内容推送给我。你可以看这里的运行记录,他每两小时跑了一次, 之前人工去盯对标账号,费时费力,还容易漏用,这个盯效率高太多了。需要的话,你还可以用这个监控机票、价格等等,你可灵活的设置每小时甚至每分钟帮你检查一次,做情报,实时的收集定价格,非常的方便。 open crow 还可以帮我们搞定日程管理,它能一句话在 mac 上创建日程,然后直接同步到 ipad、 iphone 上。比如我在聊天框里面直接发创建一个会议日程,晚上七点到八点,它会自动帮我识别时间,生成日程标题,创建到 mac 日历, 然后通过 icloud 自动同步到我的 iphone 和 ipad 上。整个过程我就用跟 bot 说一句话,对比一下。之前创建这样一个日程,我得先填各种信息,还挺麻烦的,现在用 open curl 直接一句话搞定我刚分享的这些玩法,只是冰箱一角,大家还可以去各个平台看看到了我们做的各种玩法, 比如这个可以监控你的健康状况,这个可以帮助你培养习惯,监督你打卡,这个可以帮你做市场调研。 open crawl 热门的工具和 skill 平台我都整理到文档里面喽。 那这里是勋酱,关注我,带你解锁更多普通人的 ai 玩法,我们下期见,比比。

欢迎收看我是大叔,只跟你聊最实在、最有用、最有意思的内容。 好,我看了很多博主,要么让你装个 skill, 要么丢给你官方配置文档就完事。根本没人讲清楚 opencloud 到底怎么才能真正上网。 所以这一今天咱们一次性把 ai 联网的正确用法掰开揉碎讲明白。而这个秘密武器就是 github 上十四 k 新星的开源项目 agent reach。 一个脚手架工具,却能让 ai agent 瞬间开眼。好,咱们先来直面一个扎心的事实, 你天天用的 ai, 其实是个呃互联网瞎子,百分之七十三的 ai 任务因为无法访问 而失败,百分之八十九的开发者因为 a p i 限流或高额费用直接放弃集成。 更离谱的是用官方啊, a p i 的 成本比免费工具高出二点四倍。比如你想让 open cloud 帮你监测禁屏,一条推文就用,就要零点零零五美元,月月账单能到六百刀,结果还经常中断。这就是典型的配置地域 ai。 还没干活,钱包先空了,那怎么办?就新来了 agent rich, 它不是个新框架,而是一个脚手架,专门帮你把所有选型和配置的脏活类活全干了。 你只需要说一句话,它就能让 opencloud 主要只有十五个以上的平台,包括推特、 reddit、 youtube、 赞、小红书、抖音,而且全部免费。它的核心理念就是把呃怎么上网 这种破事变成异形命令,这才是 ai 联网的正确打开方式。那么它到底是怎么做到的?咱们来解剖一下它的核心技术通道机制。每个平台背后都是一个独立的上游工具, 比如推特用 bird, youtube 用用 atelp, 小 红书用 macbook air, 这些工具全都是开源的,不满意也随时可以换掉。 安装完之后, agent 会自动获得一张使用说明书, a skill dot md, 以后你再说帮我搜推特,他自己就知道该掉 bird。 你 甚至不用记命令, 运行一下 agent tree doctor, 所有渠道状态一目了然,比体检报告还清楚。再来看看它到底覆盖了多少平台?根据官方文档,目前有十七个平台, 几斗格,装好即用。 a 网页、 youtube r s s reddit get up 公开仓库部占本地地微信公众号、微博、 twitter x 这些连配置都不用,装上就能跑。另外八个平台需要简单配置一下,比如全网搜索、推特 b 站服务器,小红书、抖音、 linkedin、 雪球、小宇宙播客。但关键是,所有平台都不需要你掏一分钱 api 费, cookie 存在本地隐身 全上游工具全是免费开源,这就相当于给你的 open cloud 配了个额万能通行证,全网任它玩。好, 那我们直接上手,三步就能给你的 openclaw 装上额脸。往外挂。第一步,给个 openclaw 开启 exact 权限, 因为 agent reach 需要 agent 执行命令,你只需要在终端敲一句 openclaw config set two star profile coding, 然后重启网关。第二步,直接告诉你的 openclaw 帮我安装 agent reach 链接给你, 就这一句话,它会自动下载安装,依赖配置环境验证一下,跑个 agent trace to doctor, 看到所有渠道都绿了,恭喜你,连往外挂就装好了,那效果到底怎么样?咱们来验证一下。你看, 这是微信聊天风格的对话记录,左边是 agent 的 回复,右边是我们用户的提问,用户说帮我收推特上 ai agent 最新评价, agent 自动调用 bird 返回二十三条推文,用户让总结 youtube 视频, 它自动用 a、 t、 d、 l、 p 提取字幕,再让大模型总结,效果对比也很惊人,主模型成功率从百分之四四飙到百分之九十二,回退命中率百分之九十八,延迟降低百分之六十四, 因为再也不用排队等那些付费 api 了。如果你想深入了解,官方 github 仓库有十四 k 信信文档清晰一键安装命令全公开,大叔大在 也经常分享实战技巧,而且它兼容 cloud、 酷、克酷、路由等所有主流 ai 编码工具,真正的一次配置到处可用。 最后咱们总结一下,三步,三步就能让你的 open cloud 强势被,第一,开启 coding 权限。第二,告诉 ai 安装 agent reach。 第三,开始全网冲浪,搜推特,读小红书,看字幕全都不在话下, 从此 ai 不 再是瞎子, a 预算也省到爆。如果你觉得这期内容有帮助,别忘了点赞加关注,大叔大,感谢你的观看,我们下期再见!

很多兄弟反馈, opencloud 和飞书通讯怎么配置都不成功,要么就是连不上,要么收不到消息,要么机器人不回复。今天我完整的重新录制一遍最详细的教程, 从如何创建应用,开启权限,复制 id, 配置事件,到本地启动,我每一步都给你标清楚,不管你是新手还是之前配置失败的,跟着这条视频走一遍,应该就都能够成功了。看完如果还配不好,你来评论区找我,这里是目录,大家参到这个来观看视频, 如果觉得这个视频有用,记得点赞关注。第一步,我们要给飞叔创建一个应用,来到飞叔的开放平台, 点击右上角这个开发者后台,我们就进入到了开发者后台,点击创建企业自建应用,应用名称就是我们在飞书里显示的名称,这个我们写上我的 open claw 应用的描述,随便写了, 连接到我的 open claw, 选一个机器人的图标,点击创建。 我们最重要的是什么呢?在这里它有 app id 和 app secret, 我 们要把这两个放到 openclaw 里,我们先把这个放下,然后安装 openclaw。 如何安装 openclaw 的 详细的教程,大家可以去我的主页查找我以前的视频。之前的准备工作我就 不做了,我今天只做一个,那就是如何安装 open klo, 并在 open klo 里配置好飞书。 npm install 七、 open klo 安装成功了,我们来看一下它的版本。 open klo 杠 v 是 二零二六三点二八,现在我们再来进行初步化的设置 啊,这个就是我们进对它进行向导,安装,这个我们给它选 yes, 不 解释为什么了啊? kickstar, 这个找到 z 点 ai 四点五 i, 这个里边就是让我们选择飞书了,大家可以看到这个有一个中文的,这个就是飞书,我们打回车进去,然后提示我们第一个就是 enter a p p secret, 输入 a p p 的 密钥,我们选择这个打回车,回到 飞书开放平台的凭证这里,我们点这个复制,然后把 secret 粘到这里回车。这个时候还有我们的飞书 id, 那 就是这个 app id, 点击复制, 然后粘到这里回车。这个是让我们选择连接的方式,这个一定要选择 web socket, 这是默认的。打回车,然后让我们选择连接哪个飞书,这个飞书的 c n, 这个它是国内版的,我们要连接这个,这个是 group chat, 我 们去选择 open, 剩下的就不用管了,大家一定要看这个,这个是飞书的网关启动,启动之后一定要看有没有这个蓝色的标志,这些是飞书的这些内容。这个飞书 webster client started, 就代表着飞书的这个 web socket 客户端已经启动了,如果你没有见到这个界面,那么是怎么办呢?你不知道它现在确认的状态的情况下,可以新开一个 cmd 窗口,然后在这里输入 openclouds 来查看 openclouds 的 状态, 这里就代表着我们已经安装了飞书的这些应用,重要的是这个 channels, 在这里边我们可以查看飞书应用是已经打开的状态是 ok 的, 已经设置了,只要有这个,你的飞书客户端就没有什么问题了。我又把 openclaw 重新安装了一遍,这一遍可以看到是没有飞书的,我这一遍安装的时候特地把飞书跳了过去,然后我们看一下 openclaw status 频道,这里头是没有飞书的,那么我们现在要把飞书添加到这里,就用 open claw channels add 确让我们确认是否现在设置通讯的频道。 yes, 这个时候我们就进入到了选择通讯的这里边,那么我们这里还是选择飞书这里输入 and app secret, 然后还是像刚才一样把 secret 复制过来 粘到这里,然后是 id 复制过来粘到这里,然后是 web socket, 然后选非输点 c n, 然后选择 open, 选择完了之后,这个时候他问我是否还需要再设置一个通讯的频道,我们这个时候选择 finish 的 就不要再设置了,这个我们选择 yes, 这个我们选择配对,这个选 no 就 行。好,默认按着默认走。 这回我们可以看到飞书的应用已经安装了,我们在这里输入 openclouds, 可以看到频道,这里飞书的应用已经打开了,状态也是正常的,设置也已经设置好了,那么我们回到飞书,这个时候我们来设置飞书的相关内容,点击左侧的添加应用能力,有一个添加机器人 在这里呢,如何开始使用?在这个后边有一个铅笔这样一个图标,点击这个就会出来一个对话框,让我们输入内容,这个内容只在应用卡片内对用户显示,我们就显示写上你好,我是 open club 机器人,点击保存。然后我们来到权限管理,点击这个批量导入导出权限, 然后我们要打开飞书的官方文档,在他的消息渠道,飞书这里有需要配置的权限,我们把这个权限点一下复制,然后回到这个权限管理里,全选删除,然后 ctrl v 粘贴,点击下一步确认新增权限,确认没有问题,我们点击申请开通 权限,已经申请了,我们点击确认,然后我们再到事件与回调这里, 选择事件配置里的订阅方式,这一下点后面这个图标,选择使用长链接接收事件, 这个就是我们刚才配置的 web socket, 所以 刚才那里一定要确认 web socket 已经打开了,如果没有打开,回去想办法把它打开,一定要确认这里边有一个 ws 冒号斜杠,斜杠这个一定要确认它已经打开了,然后我们点击这个保存, 然后还有这里我们要添加个事件,选择这个添加事件,搜索这个接收消息,点击添加。我们还需要最后一步,就是我们要把这个应用发布,点击这里创建版本, 版本号这里我们要选择一点零点零,下一次呢要用一点零点一这样一个个的往上升,这里更新说明写上出使化应用,点击保存 提示,我们本次发布免审提交后自动通过并线上生效。确认发布飞书的设置,我们这里就完成了。 下一步我们就在手机上来查找一下飞书,点击右上角这个搜索,搜索 open club club, 点击在应用中搜索更多,就是我的 open club 新建的这个进入了我的 open club 之后,我们要跟他进行对话,哈喽,好, 这个就是我们的配对信息,我们要把这一句复制下来, open claw pair in approve 飞书,这一句复制下来之后,我们找到这个命令行运行一下,这个命令就是这个 open claw pair in approve 飞书,然后是配对码打回车, 已经是 approved 了。那么下一步呢?我们再回到飞书,我们就跟他说一句,你好,介绍一下你自己。好, 这个时候他已经回复我们了。好的,这个时候我们跟飞叔的连接就正常了。今天和飞叔的连接我就讲到这里了,还有什么问题欢迎大家在评论区进行留言,感谢兄弟们的观看,再见!

血泪总结,我用 openclaw 一个月,总结了这六个让你从玩具变生产力的配置原则,厉害!哈喽,大家好,我是姚鹿行。 前两天有个同学问我,姚老师,我 openclaw 装好了,但用了两周,感觉就是一个贵一点的 check gpt, 咋整呢?我说你配置完 agent jason 就 觉得齐活了,他才反应过来,那还要配置其他的吗?这一步你都没搞对,后面全白搭。 为什么你的 openclaw 像降智版的拆 gpt? 很多人装完 openclaw, 连上模型能对话了,就觉得可以爽了, 结果用了一段,发现完全不计预期。问题出在哪里呢?是因为你把 openclaw 当拆的 gpt 用了,两者的玩法完全不一样。今天我来给大家分享一下我踩了一个月的坑总结出来的六个配置原则,帮你的 openclaw 从玩具进化成真正的生产力搭档。 原则一,别在售马当里写小作文我第一次写售马当,洋洋洒洒的写了两千字, 结果龙虾根本记不住。售马当不是简历,而是行为宪法。他只需要回答三个问题,你是谁?风格是什么?什么情况下你会拒绝用户?超过五百字就太长了,龙虾会选择性的失忆。我的售马当现在长这样, 就是这么简单,但效果比之前两千字的小作文好了十倍以上。原则二, memory markdown 要分层,别堆在一起 open cloud 的 记忆系统很强大,但很多人都用错了, 他把什么都往 memory markdown 里边塞,结果文件越来越长,解锁效率越来越低,最后变成垃圾堆。正确的做法是分层记忆。举个例子,这样解锁的时候更有针对性,不会一团糟。 原则三,模型切换不是用斜杠 model, 而是用场景分群。很多人知道斜杠 model 可以 切换模型,但很少有人意识到频繁切换模型是反模式的。更好的做法是按场景分群,每个群绑定固定的模型。 我的 telegram 分 组如下,每个群有自己的上下文,不会相互干扰。原则四,心跳任务和定时任务不是一回事,很多人搞混这两个概念。 定时任务是到点了执行一次,完事就结束。心跳任务是定时唤醒 agent, 让他主动检查状态,汇报工作。让 open cloud 从一个等你问的工具变成了主动找你的助手。 原则五,别让龙虾自己改自己的配置文件。这是最坑的一个,我第一次让 open cloud 改配置,他直接把自己改挂了。而且如果你自己开着自动重启的话,他有时还会死循环,疯狂消耗 token。 所以 我总结的教训是,关掉自动重启配置文件,让 cloud code 改 克拉扣的会评估修改,兼容性不会乱来。 oppo club 自己改自己的话,很容易翻车。原则六,备份不是可选项,而是必选项。我见过太多人因为没备份而哭的, memory macdunk 被搞坏了,之前交的东西全没了。 换服务器忘了迁移配置,从零开始调教,误删了工作目录,几个月的记忆没了。以下是我的备份策略,花五分钟配置好备份,能省你几十个小时的重新调教时间。 最后,从玩具到生产力的关键。说了这么多,核心就是一句话, open club 不是 配置完就能用的,它是打磨出来的, 当你打磨好了,它就从贵了十倍的拆 gpt 变成了真正懂你的 ai 搭档,这个时间的投入非常值,感谢大家三连,谢谢大家,记得关注再走。

想让你的额崩破龙虾更强、更听话、反应更灵敏吗?今天我就手把手教大家怎么给它配置付费的 apikey, 彻底释放它的全能性能。如果你现在还没安装好额崩破,先别看教程了,直接私信我,我先帮你把它跑起来。好,咱们言归正传, 想要额崩破变强,你得先了解付费 apikey 的 两种省钱模式。第一种叫可定 plan, 你 可以把它理解成自助餐,按月收费。 如果你选择基础套餐,每个月定死一个价格,每五个小时给你一定的调用次数,只要你不是二十四小时,不停的疯狂折磨他,这种模式就相当于无限使用,性价比极高。第二种就是开放平台直充,这种方式去超市买菜,充多少用多少, 你往平台里充点钱,生成一个 api key 就 能直接用,每次任务消耗多少特权就从余额里面扣,没钱了再补就可以。这种模式有个好处,只要你累计上到一个档次,一般都是五十块钱,它给你的接口频率就会非常非常高,用起来非常丝滑,而且不用不扣钱。那到底选哪种呢? 如果你追求极致的性价比,选第一种,如果你想随用随取,不差那么点差价,选第二种。接下来咱们直接上实操。先说追求性价比的方案,我推荐大家用 mini max, 我 们先打开电脑,进入 platform, 到 mini max 点 com 这个网址,点击右上角的订阅套餐,选择连续包月 没看到六个档次。如果你只是平时偶尔用用,选最低基础的二十九元一个月就够用到个人最推荐的四十九元那个档次, 这简直就普通人的天花板,完全够用,这六个坑大家别踩上面那几百块的极速版,如果你不是 ai 超级,即刻千万别乱充,那是纯纯浪费钱。这个时候后台会给你发一个 api key, 把它复制下来。如果你想用更聪明的模型,我直接选择第二种方案, 直接充 kimi。 kimi 的 模型在国内是出了名的聪明,而且自带超强的联网搜索。我们来到 platform, 到 miniso 登录之后,去用户中心,点击左侧菜单的账户总览,然后点击充值。 这里我建议大家首次直接充值五十块,充五十之后,你的调用频率限制会大大宽放,用起来不会卡顿,而且首次充值还会送你十五块的代金券。 充完之后,去 apikey 管理创建一个新的 apikey, 同样点击复制。拿到 key 之后,最后一步也是最关键的一步,怎么把它塞进龙虾的脑子里?我们在终端里输入 opencore config, 按回车,这时候会出现一个菜单,让你选 model provider, 也就是模型供应商。你 充的是 kimi 就 选 kimi, 充的是 mini max 就 选 mini max。 需要后直接把该复制的串 apikey 粘贴进去。 接下来的几个选项,大家如果没有特殊要求,就一路选择,无脑跳过就行。等屏幕显示配置成功,你就可以回到额本库的控制端,开始认认真真养一只属于你自己的超强数字员工了。这期视频讲的非常细了, 如果配置过程中有什么卡住的地方,或者你还没有装上额本库,直接私信我,你学会了吗?学会了赶紧去试试,我们下期见!点赞收藏、关注!

现在 open core 正在给我配置防火墙,就是这台可以看到正在执行配置命令。我们来看一下提示词,我们让他通过我自己编写的技能连接华山防火墙,先登录防火墙查看一下当前配置, 然后再告诉他,即一杠零杠一做外网口自动获取 ip 地址,防火墙三口作为档口,并配置档口, ip 地址再发给 opencool, 让他先生成配置。 我们来看一下这就是它生成的配置,基本上都是正确的。 ip 地址,安全区域,还有 dsp 服务器配置,有些地方不太满意的,让它修改一下就行了。 比如这里 nat 配置,我习惯用 nat 奥特曼的,告诉它修改就行了。 脚本修改好以后直接让他配置,配置好以后让他拼一下,二二三点五点五点五,同不同可以看到他自己在登录设备, 然后对设备进行配置,配置好以后根据我们的要求拼一下,二二三点五点五点五,可以看到配置好了,配置好以后它还会输出一个总结 提示,华商防火墙配置完成,联通新测试,无丢包防火墙也可以正常上网,这个效率其实还挺可以的,比我自己编辑脚本还快。

欢迎收看我是大叔,只给你聊最实在、最有用、最有意思的内容。 好,首先我们先来扒一扒,你是不是也遇到过这种情况,每次要升级 openclaw, 就 得半夜爬起来 s s 连上服务器,翻出半年前写的笔记, 一行一行敲命令,先查版本号,再跑更新,然后提心吊胆等输出,生怕哪行爆红,更别说还得重新跑一遍配置、检查、重启服务。这一整套下来少说也要十五分钟,要是赶上紧急安全更新,那更是手心冒汗,生怕手一抖把生产环境搞崩。 所以今天咱们聊的就是 open claw 官方给咱们准备的一键更新自动巡航方案,让这些手动遮特彻底成为历史。 嗯,再来你可能会说,不就升级个软件嘛,至于这么夸张?但做过网关运维的都知道,版本滞后的代价太大了, 旧版网关不认,最新的 m c p 协议智能体直接变哑巴,安全补丁出了你不敢打,怕把线上搞崩。好不容易鼓起勇气更新完,配置又炸了回滚比踩地雷还刺激。 再加上团队里有人用 npm, 有 人用 get, 升级方式五花八门,状态完全不可控,所以 openclaw 团队干脆设计了一套无感热更新保姆急诊疗的完整方案。来来来,咱们看看 openclaw 的 更新系统到底长啥样? 它本质上是个 ai 网关,负责连接大模型和企业内部系统,而它的更新模块就像心脏起搏器一样。关键最骚的是一条 opencl update 命令,会自动检测你当初是用 npm 装的还是 get 拉的,然后执行对应的更新逻辑, 并且更新完自动跑 doctored 做健康审计翻译成人话你不用记,两套操作,一条命令全搞定。再下来,咱们深挖一下这条命令的隐藏技能。 你可以指定频道,比如 channel beta 尝鲜,或者 tagman 锁定主线版,还有个 dryrun, 先预览更新内容,不实际执行,适合胆小的同学。如果你是原安装了,想重新跑,安装器也简单,官方脚本加个 no on board, 跳过引导一键覆盖。 当然,传统 npm 和 pmpm 用户也能手动敲 npmig opencall at the latest。 但既然有智能命令,何必还自己动手呢?然后,如果你连命令都不想敲, opencall 还给你准备了个饿躺屏模式自动更新。 只要在 opencloud slash、 opencloud dot json 里配置好,比如开启 stable 频道,延迟六小时再更新,并且加上十二小时的随机抖动。这是什么意思?就是防止你几十台服务器同时重启,向红绿灯分批放行。 稳如老狗。 beta 频道更激进,每小时检查一次,有新版本立刻上, dv 频道则纯手动,给你绝对控制权。再来,咱们直接上手配置一遍。假设你决定用 stable 频道,打开配置文件,把 auto dot enabled 设为 true, 稳定延迟六小时,抖动十二小时, 保存后重启网关,再跑一次 opencloud doctor, 它会自动帮你迁移配置审计 dm 策略,检查网关。健康。注意,这个 doctor 不是 摆设,它就像汽车的 obd 诊断仪,哪有问题直接报给你。 另外,更新完了,别着急收工,还有三板斧要挥,先 openclaw doctor 再做一遍体检,然后 openclaw gateway restart 平滑重启,最后 openclaw health 确认一切正常。如果万一翻车了也不用慌, m p m 用户可以用 m p m i g openclock at 具体版本号固定回滚。 git 用户也能用 git revend list 找到指定日期前的提交切回去重新翻译。官方文档里这些回滚方式写得清清楚楚,基本能让你从任何坑里爬出来。再来, 万一你被卡住了,跑 doctor 还报错怎么办?首先仔细看 doctor 的 输出,他通常会告诉你哪个配置像出问题。然后可以上官方文档的 troubleshooting 专区, 那里收入了八成常见踩坑案例,如果还解决不了,直接冲进 discord 社群,里面全是一线开发者,扔个报错截图,分分钟有人捞你。最后,咱们快速回顾一下今天的核心知识点, opencloud 的 更新哲学就三句话,一条命令,全自动配置,躺平不用愁,回滚也有时光机。记住每次更新后必做 doctor restart plus health 三连,就跟出门前看天气预报一样重要。 好了,留个作业,去你的测试环境跑一遍 openclaw update dryrun, 看看他都准备干些啥。评论区交作业,我是大叔大,关注我可以上 b 站大叔大点关注,解锁更多 ai 基础设施的硬核干货。

敢说如果没有自己详细看过这个 skills 的 人,绝对没有办法养好小龙虾。这个 skills 它是自我进化的一个 skills, 这个是现在目前所有 skills 里面下载量最多的一个, 我们今天来详细看一下这个 skills 它是怎么样构建的,你就会对整个 open curl 和它的一些配置能更加的理解。 它是一个纯英文呢,我就直接让 cloud code 给我做了一下翻译,当然大家如果用其他的也可以,甚至你让它自己把这个逐句翻译了之后,给你保存在一个文件夹里面都是可以的。 ok, 我 们就来看一下它的这个是怎么样的一个东西。 首先它的这个架构就是非常标准的 skills 的 一个架构,有一个 skills 的 文件 markdown, 然后这个原数据就是它的一些版本号啊这些,这个是它自己自带的一个文件夹,其他的这个东西就是它的一些资源。然后 hook 就是 它的可以理解成它的脚本,它会把这个钩子 去放在你的 open curl 的 配置下面。嗯,当 open curl 它在回答一些内容或者调用什么模式,或者告诉你这个任务完成的时候,这个钩子就会去检测这个内容,检测了这个内容,它就会去调用某一些脚本,或者说自动地把一些提示词放到这个 open curl 里面,让 open curl 再去跑一遍它的一个流程, 重点就是让 open curl 去思考一下刚才的任务到底需不需要去进化到它的记忆里面,去进化到一个新的 skills 里面,或者去更新新的 skills。 它主要的功能是这个,这个就是它参考的一些文档,比如说势利啊,比如说这个后壳应该怎么样安装,还有这个的一些知识,这个 script 就是 它的具体的脚本了, 这个脚本基本上就是它后壳的脚本,钩子的脚本。 ok, 我 们来一点一点的看。首先是看这个 skills, 这个 skills 就 标准的 skills 的 格式,首先是它的原数据,这个东西会直接加载到大模型和 opencorp 它的一个上下文中,它才知道什么时候需要用这个 skills, 如果它需要用,它就会自己去看这个东西, 但是这也是一个比较坑的点,你稍微模型差一点的,它根本就不会去看这个东西,因为它会聚焦去完成你的任务,它的注意力是没有那么多的。所以说 你通常如果说想要去进化的时候,你去直接告诉他显示的命令,他让他去完成,去使用这个 skills, 让他去调用这个 skills, 然后下面就是如果他需要调用的时候,他就会去查看下面的东西。 ok, 我 们来一点一点的看这个 skills 的 描述,就是什么样情况下会使用它。其实就是让 open curl 让模型知道什么样的一些特征的时候, 就要使用这个 skills 了,比如说命令操作失败,用户纠正了,然后用户请求不存在的功能, a p i o 失败,其实就是捕获一些关键词,关键的意图的时候,它就会去激活它,就是让模型知道什么时候应该激活这个 skills。 我们来看一下这个就是它的一个 markdown 格式的文档,首先是它是一个什么东西,然后它是一个持续改进的什么内容,参考的信息,它是怎么样存放的?可以看到它把这个地图首先放在了最前面,它是怎么样安装在这个 open curl 里面? 呃,这个我感觉有点广告的嫌疑,你已经安装了之后,还还放在这个 skills 里面,按理来说它应该用一个 readme 会更好一点,这个会造成模型的这个上下文是不需要的, 然后它会告诉这个模型这个 open curl 的 一些信息。 open curl 的 这种工作区的内容就是它的 worker space 这儿它是什么样的一个框架,主要的个这些文件到底是什么格式,它进行更新的时候,它就可以更新这些文件,然后它就能了解到 open curl 它是一个什么样的东西。 它主要分成了三个部分,它会创建了这个 skills 的 时候,它会把这个文件直接复制到哦你的 workspace 里面去。直接会有这个文件夹,其实就是这个 skills, 它去维护这个文件夹里面主要的内容, 首先是学习的一些信息,再就是错误的一些信息,然后就是调用工具的一些信息。事实功能可以看到它就说首先你应该去创建这个文件, 然后去说一下直接复制过去,然后提升的目标是为了让你的一些工作技能可以沉淀到这里面去。 这三个其实就是 open curl 的 一些核心的配置了,可以看到 open curl 里面的核心的配置,这个是属于它自己的一些配置,其实这都是它去了解这个 open curl 是 一些什么东西,怎么样配置的触手化配置这个部分就是有用的,就是下载了这个 skills 的 时候,它应该按照这个过程,先把这个 skills, 把它的这个 open group workspace 的 一些东西先配置了来,可以看到,然后可选这个起用钩子。为什么必须要起用这个钩子?虽然它说是可选,因为我们用的模型往往都不是最强大的模型,比如说 opus, 它对你的指令它是会更加清晰的。但是我们用的这些稍微小一点的模型,像国内的 kimi, k 二点五这些,你不显示地去指挥它去用哪个 skills, 它大概率是不会用的,它的指令遵循是没办法注意到这么多信息的。所以说你必须要起用钩子, 钩子他就会强制的让这个 open curl 去完成某一个功能的时候,他会去思考我到底需不需要去调用这个 skills。 这个就是一个比较大的坑,如果我们是用国内的这种稍微小一点的模型,稍微不好一点的模型, 那么你钩子是必须要起用的,要不然你这个装了之后基本上就感觉没装一样。我相信很多人都已经装了,但是如果你没有仔细去读的话,大概率是没有起用这个钩子的, ok。 然后他也说了一下通用的其他配置,在其他配置里面也可以去创建,像 cloud code index 也可以去创建,这个东西就不太适合这个内容了,其实可以把这些东西删掉,因为他会影响他的上下文。然后就是怎么样去追加你的信息。 首先是学习到的内容应该追加到这个学习的 markdown 的 文件里面,他的格式是什么样的,然后是什么样的东西? 然后就是错误的信息,它的格式是什么样的,是什么样错误的信息,应该怎么样格式去把它说出来,然后它的时间戳这些都要保存下来,但是我是没看到它这个时间是从哪里获取啊?如果说时间是一直放在这个 open curl 里面的话,会自动更新的话,那是不太好的,还会严重的影响这个 k v k h 的 命中率。 还有就是这个功能请求的 markdown 文件应该放些什么东西,然后它的格式是什么,它也说明了一下,然后 id 的 生成应该怎么样放 id, 其实这些都是一些案例事例, free shot 它应该怎么样放在哪个里面?这儿也有 可以放到这种项目记忆的,当一些错误的记忆啊,这种学习的记忆可以广泛使用,而且使用了非常多次的时候,它可以把它直接放在这种文件夹下面。这种比如说 cloud code, 比如说这个 so tools, 比如说这个 so 哈,它是一直会放在 这个 open curl 的 上下文里面的模型上下文里面的,它会全量加载,不像 skills 的 这个文件,它只会加载最前面的那几行,这个东西它是会全量加载的,所以说如果说非常需要经常用的这种规则,就可以直接加在这里面,这个就是他说当一个不是一次性修复,可以把它保存到永久的项目记忆中,就是这个东西。 还有它应该怎么样去检测这些关键词什么时候应该写在什么地方,什么时候它是功能请求,什么时候应该学习,什么时候是一些错误的, 然后优先级的一些指南,这个就是它应该怎么样去放,这个倒没有特别重要,就是它要去做提升的时候应该怎么样写,怎么样去排优先级啊这些,然后最佳实践这些 还可以进行 get, 可以 把它提交上去。其实最最重要的,我个人认为就是这个 hook, 大家一定要把它配置上。如果 你不是用的 opus, 四点六这些模型,一定要把它配置上,就算是用的 opus, 你 也最好把它配置上,因为现在很多这种厂商它都有这种会员套餐,比如说一百块钱,然后一个月基本上你是用不完它的托管的,所以说大家一定要配置这个东西, 这个东西只会多消耗你的托管,但是它能让你的体验感和这个 cf 提升会更加的强,要不然你这个东西装了跟没装一样,因为我们的模型本身不太好。 ok, 那 我们来看一下它其他的一些内容,比如说这个脚本吧,这个就是钩子的一些脚本怎么样去配置,然后它会把这种信息重新发回给这个 open curl, 就是 让 open curl 显示地去说明一下,你需不需要去记录,需不需要去更新一下这个 skills, 然后这个其实大概也是这样,然后这些就是参考的一些资料,比如说怎么样去做修改,然后工作区的结构,比如说 open curl 的 一些知识,工作区的结构应该怎么样去修改,然后有什么特点,有什么规则, 然后这个是钩子应该怎么样去做配置,可以看到应该怎么样去做配置,这是 cloud code 的, 它之前是因为这个开发者,它是一个 cloud code 的 自我提升的一个 skills, 它出来了之后再把它换成的这个 open curl, 它有些是没有改的, 但是大差不差,它只是这种项目跟目录不一样,其实它的逻辑都是一样的。然后这个就是后壳的一些配置,可以看到它 open 或者 cloud code 还有 codex 这种配置都有。 ok, 还有就是 example 了, example 就是 你什么情况下应该去放什么样的内容,以及这个内容 markdown 的 文件应该放什么样的东西,然后它的一些势例, ok, 这也是后壳的一些东西。后,后壳的一些 markdown 的 东西,它这个也跟这个 skills 的 框架一样,我不知道它是因为要先把这个东西发给向后壳执行的时候,它会先把这个东西发给这个 open curl, 可能是这样的,然后后壳的 这个就不是参考的,这是一些资源,它可以直接复制这个技能的一些模板,模板资源,然后学习的这个条目应该直接放在这里面, 应该是什么样的一个格式,它可以直接复制过去,然后我再去做一些修改,然后这个东西就没有了。这个东西它就是让 open curl 把这个东西直接复制到它的 workspace。 总结来讲,这个 skills 就是 专门用于提升的,提升和进化的,只有你真正看了这些 skills 了之后,你才能对这个 o workspace 有 一个比较好的认知。 但是我个人认为哈,我们的后壳甚至不要用它的这种方式,我们可以直接创一个子质人体后壳来调用这个子质人体去更新它的记忆,我觉得这样更加的好,但是这样肯定更消耗头肯,但是如果说按照他这种后后壳再发给 open curl 的 方式的话,它会破坏它的上下文结构, 它会导致上下文的长度会很快就满了,所以说你的这种执行任务的效果就会大打折扣。当 我们买了这种稍微大一点的这种会员套餐的时候,可以建议使用这种子智能体的方式,你专门创一个子智能体来更新记忆,更新这种学习的经验,然后哦后壳跟这个子智能体进行绑定上, ok, 这就是今天的一个分。

如果你真的去用了 oppo, 那 你就会知道他有多难用。发完消息没声了,联网查点东西要配 a p i, 但有的时候他又能查到,这种时刻我就很惊喜,我说这可太好了,你刚是咋干的,记一下以后就这样搜,结果呢,没两天他就又忘了,然后跟我道歉,这期间压根就没记。 其实都不是什么大事,但官方的这个默认配置,它就用着各种不爽,这些坑我每踩一个就解决一个,然后让 ai 把经验总结一下,最终把它们汇总,形成了这一整套的 skill。 双击加关注啊,私信优化龙虾这四个字就能够自动获取。这个 skill 全程只用跟你的小龙虾对话,就能把整个的优化流程给做了。 简单去演示一下,然后官利回答一些弹幕的疑问,直接给你的小龙虾发送这条消息,他就会告诉你我们开启了一个 open cloud 配置优化向导。第一步是备份,他会备份你的整个 open cloud 程序,万一出了问题,那你就直接解压就能恢复,这个是最起码的保障。 整个 scale 分 为四层,那第一层是基础的优化,这几个功能我都很建议打开,比如说消息回执,原先你发了消息就只能干,等打开这个他处理的时候就首先会给你点个引猫记,直到他收到正在处理了,这个真的能够极大的缓解你的焦虑。这个记忆功能,如果你打开增强和每日规章,他就会在你上下文快满的时候强制去写入一次记忆, 并且在每天晚上的十一点钟最佳总结一次。第二轮他会根据你之前选择的渠道进行优化,然后是第三轮,我推荐了一些我自己觉得还不错的 scale 啊,大家就各取所需,这个具体就不展开说了。然后是最后一轮,我写了一个渠道的添加向导, 反正我个人是在用了飞书之后,就会好奇说其他的渠道他的体验什么样的啊?我就假定大家跟我一样就玩了一阵子,就想试一试其他的渠道,所以我就把我自己整个介入的过程都录了一下,并且总结成了一个非常详细的步骤,你去按照这个来做,同时把各种需要的信息去发挥,你的小龙虾他就会帮你自动配置好。 好了,这个 skill 我 们就先说这么多,接下来呢?啊,我来看看弹幕,有朋友说你 open cloud 推荐什么样的模型。嗯, 这个问题其实我可能跟其他的博主有点不太一样啊,我曾经也是一个盲目去崇拜大参数大模型的人,比如说 cloud 或者是真未来。 那用了小龙虾好像会发现没有必要,因为他更多的时候就是去啊调用各种工具去搜索,定时删改文件,那只要这个模型的 a 帧能力他够用,调用工具的时候能够准确的识别你的想法,那么在速度快价格低的情况下,我觉得世界知识或者说智商他差一点就是可以接受的。 当然了,如果你侧重的是生产力的编程场景,那其实大家都会去用那个 cloud code 或者是 codex 这样成熟的编程 agent 啊,他就需要去理解整个代码库的各种依赖嘛,然后与异的关联模型能力越强,他就越能做出正确的判断,就是编程这种场景,你还是去用最顶尖的模型去干吧,它能省不少的事儿。 我自己其实已经收集了有一百八十多家中转站啊,也确实是阅战无数。在这里呢,我会推荐一个我自己在用的比较稳定的 api 中转站,叫做接口 ai 这个平台,它是集合了各种顶尖的闭元模型,国 外的四大顶流模型它都有,需要写作,我还是推荐你找世界知识更强的 jimmy, 它就是有点慢,需要编程。那我还是推荐你用 cloud, 它就是有点贵。 而我刚刚所说给小龙虾用一些更快更清亮的小模型,比如说 mini, max, kimi, 还有质朴这边也是非常的齐全,只需要用他的一个请求地址填上密钥,你的钱软件就可以瞬间多上几百个模型,充一份钱,想用哪个就用哪个 好。第二个问题我,我看别人 u 盘卖了二十六万,但安装一单两百,我看的心痒痒,那你怎么看? 就是你心痒,谁不心痒呢?就这个事也能理解,但是最近也确实是有点太魔幻了,从线上到线下各种活动,到现在开始付费卸载,就在我的概念里,安装它不就是一行命令的事吗?那卸载也是一行命令的事啊, 我知道,就是电脑的环境,网络连接啊,命令行大家可能不习惯,这些都是一些门槛,但是玩过的就都知道,其实难的肯定不是安装这部分,而是在这个过程中的各种坑啊。就像我这些做的这种 scale, 其实就是结合了这么多坑的一个精华, 那在我看来,这些才是比较有价值的部分,从我自己的价值观来说,你去帮别人安装我觉得不太好,因为会给他增加一些这种安全隐患。 而且呢,啊,你装完对吧,你是去收了他的一笔费用,那他后续又去用了各种厂商的模型,钱又进入这些厂商的袋子里面,他呢,玩着玩着感觉好像也没啥劲,就放那不管了。那我觉得这种其实还是有点不负责任的, 大家也都关心说 oppo k o l 怎么变现啊,也确实,甚至有人发私信问说,哎呀,我不了解 a a, 但我想赚钱,你能教教我吗?可以,有偿。 那其实答案通常就写在明面上了,但是这种我就还是拒绝了代安装付费咨询,就这种有点割韭菜的快钱我还是不会去赚的,反正还没到这个饿死的程度。而且这期视频你别看我说什么三连关注啊,什么私信, 其实这个录屏里就已经有我那号命令了呀,你直接截个图就发给你小龙虾就可以了。这个 sky 我 也没有什么藏着掖着的,社会战前,其实我想象中有价值的变现方式,其实是用小龙虾去做一些比较成熟的解决方案,能够呃帮一些人或者说一些行业去解决一些问题。 这种卖解决方案肯定还是最高级的,但是目前他不太成熟,我也没有见过有做的特别成功的,再稍微低一点,我觉得我也能做的,其实是去卖课。说实话我不觉得这是贬义,就比起你那些单安装啊,实打实的去教会你这个东西是怎么回事,把它给讲透,这个肯定会负责的多。 嗯,但大家也不一定都有这个耐心去学,而且这个时间点其实也有点晚了,该学的也都学会了,不该学的可能他也不感兴趣。嗯,后续应该也会有各种厂商去做一些简化的安装步骤,或者说各种方案出来。嗯,所以这个可能我也不会去做了。 好,我们看第三个啊,看了你两期视频了。好,谢谢啊,上期视频你也看了?我还是感觉 open color 没有什么用。你到底用没用 啊?其实我确实是烧了不少啊,上一期的结论,或者说上一期我确实是想试图去总结这个,解答这个问题,但 阶段他解决的不是一些痛点,都是一些痒点。这个我也认同。我再来说一下我的想法啊,就是如果你是一些传统的重复性的工作,那其实你用 ai 模型其实是费力不讨好的,反倒因为模型会有幻觉,有可能会做错,这种我们就真还不如用传统的程序去批处理。 而真正去利用 ai 模型的创造力做的一些工作,我们也有了 cloud code code s 还有 open code 的 这样的一些成熟的编程 agent, 就 你给他一个需求,人家就先起一个 plan, 然后在分布中去跟你实现,期间去压缩上下文,它也稳定的多。如果你要干的是严肃的大火,那限阶段还得适用他们。 我依然是不推荐你啊,一边逛超市,一边去跟你的小龙虾去聊一些大的火。那小龙虾它自己适合的场景呢?啊,它的核心优势,我上期说了,它就是二十小时在线, 我呢会用它去维护我的网站,比如说我刚那个 a p i 的 中转站,我看到了一个新的站,以往我想去加我真的得脸我的福气,现在我就给他直接发个消息,很随意,这种突发性的小活就很合适。再比如我会突然想到一些点子,那就直接语音输入全部退给他,整理成结构,这种脏活累活就全都交给他。 它的另一个优势就还是在你的本地电脑上运行,比如说我远程连不上我的电脑了,我让他去帮我重启一下 todesk, 我 家的网络卡卡的,我也可以让他去直接重启我的路由器,甚至也可以去控制家里的开关,或者说电视投屏。 对啊,其实说来说去就这点事别的软件都能做,它还是一些洋点,但如果你把这东西全部串起来啊,都有一个入口来操纵的话,其实还挺爽的。 而且你要知道他现在还是一个初步的阶段,就之所以你现在觉得他没什么用,是因为他的生态还没有形成,而且他的出现其实已经在瓦解,各种互联网大厂去花了那么多年形成了一个壁垒了,我个人是依然看好的 他虽然有一些泡沫的成分,也有人说他去啊,是一些厂商去卖 taco 对 吧?故意的这么一个机会,就如果你保持理性啊,不想去参与这场闹剧,我觉得也没有关系,你这样大概去了解一下他的现状也就够了。 好,这期视频呢,我们就先录到这啊,我是大黑,希望以纯人工的方式向你去分享智能。那我们就下期再见。来吧,跟大家说再见,拜拜。

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

这两天一直在搞这个 open klo 啊,然后配置了两套方案,当然这个最简单的就是用这个腾讯云的服务器搞个云服务器,然后他直接一键帮你部署啊,相对来讲会简单很多。 如果大家说只是想试一试的话,我是很推荐这个的啊,这个第一个简单,操作简单,而且确实也很稳定,二十四小时的。那么为什么我要用这个服务器去配置呢?因为我的电脑是 windows, windows 的 话,它确实是这个一天二十四小时开机也不太现实。然后初步来讲,我就是用的这个清凉服务器啊,去配置了一套, 然后最后呢把它接入了这个飞书,然后用的是 deepseek 的 这个 ai 模型,当然最后还是想在自己的电脑上面配置一下,然后我就在我自己电脑上用饿了吗,然后去搭配这个千万七 b 的 模型啊,但是这个模型很垃圾是真的,不 过确实我这个电脑配置呢,它确实只有八 g b 的 显存,跑大的模型还是很吃力的,七 b 来讲,七 b 八 b 刚刚好合适一点。 然后我就想我能不能把这个云端跟本地两个结合起来呢?然后我就找到了 tail scale, 然后用 tail scale 把云端的服务器和本地的这个显卡连起来了,然后用完这个 tail scale 的 话呢,然后这个云端服务器的话,他就相对来讲吧,就只是做一个中转的功能,他这个信息呢,像不太会泄露啊,但是这个东西也不太确定,我后面还需要研究一下。 然后现在好处就在于什么呢?我可以直接在飞速里面,然后提出问题或怎么样子,然后他可以调动我电脑的显卡去计算,去出跑这个模型, 然后问题就来了。比如说有的确实有的问题,私密的问题要在本地处理的,那么其他的简单的问题或者复杂的问题肯定要用网上大模型会更好。然后我就给这个加了一个分流的规则啊,加了个前缀,分流啊,他这个东西你比如输入问题,你前面加个这个前缀,他就可以识别到你这个问题要在本地处理, 然后呢其他的问题他就默认的放在云端处理,就这样子,然后比如说看这个问题他就默认的放在云端处理的。

有没有人和我一样用 opencl, 快 被这个弹窗搞疯了!执行个命令弹一次再执行,再弹一分钟点八次批准,这谁顶得住啊!其实这个设计是好的,防止 opencl 乱执行危险命令,但问题是常用的命令也每次都弹,真的很烦! 而且当你在飞书或微信等频道使用 opencr 时,不能点击授权弹窗,每次还需要回复指令才能执行。今天教大家一招配置白名单,让常用命令不再弹窗!首先找到配置文件的路径,找到这个文件,在 a 料 list 里添加规则,比如 npm 全局命令脚本目录都可以加进去, 我一般加这些 npm curl ls 匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣匣 不过像 sud 二 m 这种危险命令,该手动确认还是得手动操作确认,安全第一嘛。好了,今天的分享结束了,觉得有用记得点赞收藏关注我,下期教大家更多 openclaw 骚操作!