很多人问我,我是怎样一个月用了不到一百块钱就用上了全世界顶尖大模型?今天我来教大家如何把 github co pilot 接入 openclaw。 这边说,比如像你在某一上买了一个账号,因为某一上的这种 github 账号是非常便宜,它带那种 github co pilot 的 会员, 比方 pro 啊 pro 加或者 enterprise, 反正就是这个会给你额外的额度,还有这些顶级模型你的能用的能力。然后呢,进来之后呢?比如像你看,你可以看到你在这个抠拍的这底下这个选项啊,进到你自己的这个 settings 里边,然后你可以看到你自己的这个用了多少,然后用了多少,这个付费的请求就是说,比如像那些顶级模型,它会寄到这里头, 这里头呢,我觉得这个额度呢是基本几乎不会被超的,这个超的话也比比像你买一百九十九一个月的 kimi 套餐便宜很多。就像这块,你看这些模型, oppo 四点六、三点一, pro 还有 g p d 五点四,都是可以直接用的,这是最新的,世界上最强的模型。然后呢,这个跟它那个 oppo 的 这个打开之后呢,我们就需要去到下一步,就是到去如何把你的这个 oppo 和 oppo pro 来进行一个连接。 很多人会疑问说,比如像我已经有这个 github 它的这个使用权限了,我的账号已经做好了,可是呢,我是不是只能在我的 ide 里头用,比如像 vs code 呀, jeffries 这些 ide 里头用, 但是它如何真的跟我的 open call 来配置呢?它 open call 在 近期的更新中加了一个专门给 github 了的适配选项。为什么选择 github 了?因为它 所有顶级模型几乎都可以畅用,所以我们现在来如何配置,我们来看 先运行一下它的配置,这个先运行一下它这个配置,然后我们走了,走完前面这一块,然后在这一块大家可以看到有一个叫 copilot, 让你选是不是 gitlab, 回车进去它会出来一个这个,让你给你的 gitlab 来跟它这个绑定一下,我们回车按出来一个网址圈这个网址,把这个代码填进去之后就可以使用你这个 gitlab 跟它成功的就是说来连接了。这边登录完之后呢,大家就可以看到这些所有的这些顶级模型大家都可以使用, 你像这个 oppo 四点六,还有新出的 jamaican 三点一,然后我们大家备受瞩目的 gpd 五点四都可以使用这样一块,显示是卡拉斯 windows 只有一百二十五 k, 但实测下来进入它的 home 六 ui 里头大概是在二百 五十 k 左右。然后虽然跟原声的差距还是有的,但是呢作为 他的这个价格非常的这个便宜,比如像去某鱼上买这种账号,一个月也就七十块钱,八十块钱,反正我用下来没超过八十块钱就非常便宜, 大家就这样,然后我这个石头下来也是比较不错,因为我很多的这个现在的我的 webcointing, 有 一些 webcointing 我 都会是直接用 open call, 因为我首先用它这个便宜的比较顶尖的大模型,用这种方式可以, 时下这比 kimi 的 这个 q 音套餐便宜,而且模型质量比 kimi 的 高很多,这一生就到这里了,还有问题可以私信或者评论区问我。
粉丝1915获赞1.5万

最近爆火的 opencloud 大 龙虾大家都用上了吗?我已经在我的 windows 电脑和 mac 电脑上都用上了,而且连通了飞书,现在我在我手机上的飞书 app 上发送消息,我的智能体就能接收到信息,并且按照我的要求为我执行任务了。 今天我就来为大家介绍一下 opencloud 的 安装和使用方法,以及如何连接通讯软件。比如飞书,让你在手机上就可以发送指令,操控智能体。 所有的安装步骤和注意事项我都整理成了文档视频的最后我会分享给大家。今天的视频主要有以下几个部分,首先,我们来快速的安装并使用 openclaw, 包含 windows 和 mac 两个系统,这一步是为了让大家快速的用上并熟悉 openclaw。 然后我们来看一下如何为 openclaw 安装插件和 skill, 以及去哪里寻找相关的 skill 资源。 第三,我们来连接即时通讯软件,让你能够在手机端实时发送消息,操控智能体。这里我们以飞书为例。 第四,我快速的为大家展示一下如何在 dalker 这个隔离环境中安装 openclaw, 以及安全性问题和 token 相关问题。那这一步是当你真的想把 openclaw 当成你的 ai 数字员工,让它在生产环境中为你打工, 那我们就正式开始。首先,在本机快速安装 opencloud, 我 们需要保证我们的电脑上已经安装了 node js, 版本号大于二十二,以及安装了 git。 其实 node js 已经是我们的老朋友了,我们之前安装 cloud code, open code, java 都是通过 node js 安装的,那在 ai 时代, node js 是 你电脑上必不可少的工具,直接到 node js 官网下载,然后双击安装即可。 git 也是一样, 当我们想要在 github 上下载开源项目和资源的时候, git 是 最好的工具,安装方式也是一样,到 git 官网下载,然后双击安装即可。那注意,这一步对于 windows 和 mac 来说是完全一样的,没有任何差别。 然后我们打开命令行工具, windows 就是 cmd, mac 就是 terminal。 在 命令行里输入 node 空格横线 v 查看 node js 版本,输入 npm 空格横线 v 查看 npm 版本, 输入 get 空格横线 v 查看 get 版本,能够输出版本号,那就说明一切准备就绪,然后我们来安装 openclaw, 其实一共就两个命令,首先我们在命令行里输入 npm 空格 install 空格横线 g 空格 openclaw at latest, 然后回车。那这一步会在你的电脑上安装 openclaw。 这里我们要注意一点,你要确保你的电脑的网络环境是 ok 的, 如果出现网络问题,尤其是网络连接超时,你可以使用 n p m 的 国内镜像来安装。那具体的方法就是先运行一行命令,把 n p m 转向国内的镜像,然后再进行 n p m 意识到具体的命令我也展示在屏幕上了。 在 n p m 意识到成功后,我们运行第二个命令, open clock 空格横线横线意识到横线低蒙。这一步是进行驶出话点击回车之后,稍等一会儿就会进入驶画界面。 在初次化界面,第一个问题,我们用键盘的上下左右箭头按键切换到 yes, 然后回车。那第一个问题呢,是让你知道这个工具的风险。然后第二个问题,我们选择 quick start, 也就是快速开始,然后点击回车。 那第三个问题就是选择一个 ai 大 模型,你可以使用你常用的 ai 大 模型,要注意一点啊,这里使用的是 a p i p。 那 建议大家用一个有免费额度的 ai 先进行体验,等你熟悉了这个工具之后呢,再去购买 ai 的 订阅套餐。 这里我选择的是智普 g l m, 然后我们到智普的官网进入后台创建一个 a p i t, 然后复制出来,到命令行里进行粘贴,然后回车,然后模型,我们这里选择 g l m 四点七, 然后继续。那后面的问题我们都选择跳过或者 no, 包括是否安装 skill 以及是否配置聊天软件,那因为这些呢,我们都可以过后在图形界面中进行设置。那最后一个问题 就是 how do you want to hatch your boot? 意思就是说你想通过什么方式访问你的机器人,那这里我们选择 open the web ui, 也就是说通过网页版图形界面进行访问,那图形界面适合我们绝大多数人,如果你有编程背景,你也可以选择通过命令行访问,那之后它就会自动弹出网页, 进入到 opencll 的 智能体界面,然后我们在 ai 对 话框中输入,你好, ai 能够进行回复,就说明配置成功了,那么到此你的 opencll 就 正式运行起来了。 我们再来做一个测试,在 ai 对 话框中输入指令,在我的 mac 用户瞩目下,创建一个名为 jason 横线 opencll 的 文件夹,然后 ai 就 进行了文件夹创建,那么到此你就可以开始尝试让 opencll 为你做各种事情了, 那在这里我要强调一点,以上安装方式是直接在本机安装, windows 和 mac 是 一样的方法,运行的命令也是一样的。我们唯一需要注意的就是安全性问题,你不要把太多的个人隐私数据放到本地,以防 ai 一 不小心给你删了。 那接下来我们来看看如何安装插件和 skills, 以及在哪里可以找到 openclaw 的 优质资源。我们首先要知道 openclaw 本身自带了很多 skills, 我 们在 openclaw 的 网页上左侧菜单点击 skills, 然后点击这个 build in skills, 就 能展开它自带 skills 的 列表, 里面有一些 skills, 暂时被 block 的 话,你可以在右边看到对应的安装按钮,点击就可以安装依赖,然后这个 skills 就 可以使用了。 另外,当你在 github 上看到一些 skills 想要安装,你并不需要手动安装,你直接把 github 的 链接发给 openclaw, 让它自己安装就可以了。我们知道 openclaw 是 一个 ai 智能体,它已经足够智能,已经是一个成熟的智能体了,能能自己赚钱养家了啊,那它自己就可以给自己安装 skills。 那么我们从哪里寻找 skills 以及有哪些必装的 skills 呢?两个核心的社区,一个是 github 上的 awesome openclaw skills 这个仓库,那这里收集了几千个优质的 skills, 并且有详细的分类。那其次我们在 openclaw 的 官网 可以找到一个名为 clawhab 的 链接,点进去这里就是官方的 skill 市场。那我我总结了一些必装的 skills, 我 认为最核心的就是 fun skills, 这个 skill 也是目前社区中下载量最高的 skill, 当你提出一个具体的使用场景的时候,这个 skill 可以 帮助智能体找到并安装对应的 skills, 这样一来你就不再需要自己亲自去翻找 skills 了,它自己就能找了。 另外最好安装这几个联网和网络搜索的相关 skills 来增强网络搜索能力。那最后当你想要实现某一个具体功能的时候,你就可以直接向 ai 描述你的功能场景,并让它自己先分析需要安装哪些工具,然后自行安装就可以了。那么以上就是工具的安装, 到此,大家就可以无障碍的快速上手使用 open cloud 了。再次提醒一下,注意安全和隐私问题, 那接下来我们实现一个进阶功能,连接即时通讯软件,让你在手机上发送消息,就能操控智能体帮你干活。 我们在 opencloud 的 网页上左侧的 chinese 选项点进去就能看到它目前支持的通讯工具。那使用这些工具比较简单,以 whatsapp 为例 啊,我们在用户目录下的点 opencloud 文件夹里的 opencloud, 点 json 中配置自己的 whatsapp 号码,然后在命令行中运行 opencloud 空格 chines, 空格 log in, 然后用手机 whatsapp 扫描弹出的二维码就可以了。但是目前 openclaw 并不支持微信或者 qq 这一类中文通讯工具,那在中文环境中,截止到目前为止,最好用的就是飞书, 只需要创建一个聊天机器人就可以连接 openclaw 发消息了,而且这个方式不会造成安全隐患,因为飞书里没有你的私人通讯录,那接下来我就来讲一下如何把 openclaw 连接飞书。 首先我们要安装一个飞书插件,命令就是 opencloud 空格 plug ins 空格 install 卖家插件的名字。安装之后,我们来到飞书开放平台 注册登录,之后点击右上角开发者后台,然后点击创建企业自建应用,起一个名字,然后选择图标,点击创建,然后在左侧的菜单栏里点击添加应用能力,然后选择机器人,然后添加, 然后来到权限管理页面,我们可以点击开通权限,然后搜索关键词 message, 把有关收发消息的权限都勾选上。 那如果大家嫌麻烦,可以直接点击批量导入,然后把我笔记中的这段 jason 复制进去,然后点击开通就可以了。那这一步的目的是给与机器人相应的权限。然后我们点击左侧菜单的版本管理与发布,填入一个版本号,一点零点零,然后发布这个机器人, 然后点击左侧凭证与基础信息,把 app id 和 app secret 保存下来,然后我们回到 opencloud 页面, 点击左侧菜单中的 channel。 因为刚才安装了飞书插件,所以现在显示的就是飞书的配置界面。首先把 app id 和 app secret 配置进去,然后 connection mode, 选择 web socket, 我 们填飞书, dm policy 和 group policy 都选 open, 然后保存就可以了。 然后我们回到飞书界面,点击左侧的事件与回调事件配置,这里选择长链接,然后点击添加事件,搜索关键词 receive, 勾选这个接受消息,然后点击确认,然后再次重新发布一下机器人,到此所有配置就完成了。 然后我们来到飞书 app, 你 可以在手机上下载 app, 也可以在电脑上下载飞书 app, 在 聊天界面的搜索你创建的机器人名称,那我的机器人叫 jason bot。 然后就可以向机器人发送消息了。我们先发送一个,你好,你是谁?第一次发送消息的响应速度会比较慢,稍等一会我们能,我们就能接收到回复了。 然后我们再发送一个指令,在我的用户瞩目下,创建一个名字叫 jason 横线飞出的文件夹,点击发送,然后智能体就开始开始执行任务了, 马上文件夹就创建好了,那么到此我们就成功连通了飞书。只要我们的电脑是开机状态, open cloud 是 运行状态,我们出去玩的时候,用手机飞书 app 发送消息,就可以给智能体下命令,让它干活了。 到此你已经掌握了 open cloud 的 主要的基础功能,你现在就可以上手试用这个智能体工具了。那最后我来快速介绍一下如何在 docker 这个隔离环境中部署 open cloud 以及 token 相关问题。当你深入使用了 open cloud 这个工具, 觉得你确实需要一个这样的数字,员工来二十四小时为你干活,那么最好的方式就是在一个隔离环境中部署它。这也是为什么 open cloud 带动了 mac mini 的 销量,因为 mac mini 性价比高,运行功率低,适合二十四小时不间断运行,那还是一个全新的环境。 所以你也可以在本地使用 docker 这个隔离环境来部署 openclaw。 方法很简单,首先要安装 docker desktop 这个 app, 那 它也是我们的老朋友了,那之前安装 n 八 n 和 deepface 都是用它安装的。安装好之后,我们来到 openclaw 的 官方 get up 仓库,把这个仓库下载下来。 我们使用 git clone 命令把它下载到本地之后,在文件夹内就能看到一个名字叫 docker setup 点 s h 的 文件,我们在当前文件夹内打开 bash 工具。那这里要注意啊, mac 可以 直接用 terminal, 而 windows 则需要使用 git bash 这一类的 bash 工具。 我们输入点斜线 docker 横线, setup 点 s h, 然后它就自动安装了。那另外呢,你也要注意网络问题,开启代理 安装成功之后,就自动进入到了出场界面,那和之前是一样的,选择 ai 模型,然后配置 a p i p, 这里我就不多做展示了。那我个人更建议大家使用独立的电脑或者云服务器来部署这个 ai 数字员工, 因为本地刀客的使用还是需要一定的技术门槛,尤其是网络问题和权限问题。那如果你没有编程背景,确实是有一定难度的,那目前阿里云和腾讯云都集成了 open cloud, 非常方便。 那另一个就是 token 问题,智能体的运行非常消耗 token, 那 说不定一晚上过去你的卡就刷爆了。那这里建议大家订阅类似 coding plan 的 套餐,在五小时内允许几十次的访问, 那类似这种包月的方式就不会让你的 token 无限制消耗了。那目前最经济实惠的 ai 模型就是智普、 glm, mini max 以及 kimi, 大家选择自己喜欢的就可以了。那最后还是要强调,一定要注意安全和隐私问题,不要让 ai 访问自己的核心隐私数据, 那么到此本期视频内容就结束了,那具体的安装步骤我都整理成了文档,大家可以在我的主页频道信息中找到我的个人网站,在那里可以下载文档和资料。大家在使用过程中有任何问题都可以给我留言,记得点赞关注,谢谢大家!

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

到底是谁再花五百块上门安装 open cloud? 真的 没必要,今天这期视频就是给小白的 open cloud 安装教程,不会代码,不懂计算机,完全没有关系, 我会把每一步要干什么都讲清楚,而你要做的就是跟着我无脑复制,一步一步的执行。同时我也整理了图案版的教程,放到了视频的最后点,好收藏关注,我们正式开始。 第一步是环境部署,我这里推荐的是云端部署,因为云端部署是目前性价比最优的方式,我们可以用腾讯云的这个 open cloud 的 服务,然后我们找到 open cloud 云端部署,然后点击立即体验。接着呢,我们会进入到这个页面, 选这个二和二 g 二十 m 的 就可以,接下来我要扫码付款一下,点击这个立即购买,这里优先推荐的硅谷,但没有它,我们选新加坡也行,点击立即购买。接着我们点击头像,然后再点开站内信,就是这个地方, 到这里我们点击产品控制台,然后点击右上角的登录,扫码登录一下,登录好以后,我们去输入这行代码,可以看到它给了我们一个版本,就说明我们的 open cloud 已经配置成功了。第二步呢,就是配置模型, open cloud 里边支持非常多的 api 模型,比如说 open ai, ospec, kimi, mini max 都是支持的,我是从海鲜市场上去买了一个 mini max 的 a p i a p i 复制下来后面会用到。第三步呢,配置 boat, 找到飞书的开放平台,创建企业自应用,给我们的 boat 起一个名字,随便选一个颜色,点击创建。在凭证与信息基础这里找到 app 的 id 和 app secret, 然后回到我们刚刚的这个腾讯服务器里,点击一下,找到应用管理,输入 apikey, 点击添加应用,这里可以看到模型添加应用成功,我们的 channel 就 要选择非输, 然后填我们刚刚在飞书上获取的 app id 和 app secret, 点击添加并应用,然后点击确定,这里可以看到配置成功了。接着我们回到飞书的开放平台,找到这个权限管理,在这里批量导入导出权限,直接把这个代码块 复制进去,点击下一步确认新增权限,申请开通这六个权限,接着添加应用能力,然后选择添加机器人能力,然后点击事件与回调,点击订阅方式,然后使用长链接接收事件,点击保存,点击添加事件, 然后找到消息群组,选择消息已读消息取消,被 reaction 消息撤回,然后接受消息,点击确认添加,这样会保证我们知道机器人在干什么,点击确认开通权限,接着我们点击版本管理与发布, 点击创建版本,一点零,选择机器人机,这里随便写一个就行,然后点击保存,接着点击确认发布,这时候我们可以打开飞书, 可能会看到一个这样的问题,然后我们只需要把最后最后这个代码,然后返回到腾讯云的服务器里边,然后输入这行代码,进行一下飞书配对就可以了。

哈喽,大家好,我是你们的高产小伙伴博图,那今天我们来做一个稍微整合一点的视频啊,我们来用这个 open core 来帮我们做一个这个 nars 系统。那当然这里指的这个做并不指它从零到一变成做一个系统,然后做这个 nars 的 功能,而是 它通过这个呃 open 二四点零四 lts 基于这样的一个系统的版本呢,然后来为我们部署一些开源程序,从而实现这个 nasa 的 功能。那这种使用方式呢?其实之前我们在主频道里面我们也发过一篇这个视频啊,使用的是这个 qs, 但现在我们像开源这个 openclock 温扣他们这些 a i a 卷呢,都已经非常成熟了,我们有更多的一个选择,更低的一个门槛。所以今天呢,我们就来看一下,用这些软件来部署,那是什么样的一个体验。那我们这里再补充一句啊,由于我们这个视频比较长,如果说你想先看一下这种部署方式对比我们传统的这个, 那有什么样的一个优势和劣势的话,大家可以直接跳转到我们现在画面上时间轴的这个位置,我们后面这一部分其实我觉得还是蛮有意思的,如果说你不想看这个部署的话,你可以直接看一下,先了解一下我们到底实现了什么样的一个功能,然后他有什么样的一个缺陷,这都是没有问题的,大家可以直接进行跳转。 好,那现在我们就开始啊,直接来给大家进行一个演示啊,那现在画面上的这个网页呢,其实是我在虚拟机里面部署了一台这个 oppo 主的服务器,前面也说过是二十点零四的这个 lts 版本, 然后呢,我们在里面部署了 open core, 现在这个 api 呢,和我们这个 whatsapp 的 一个手机访问都已经配置好了。那接下来呢,我们就可以对他说说我们的需求,让他来给我们部署这个 nars。 当你使用这种方式来部署之前呢,我会建议大家对这个那是有一定的理解才这样来尝试啊,因为如果说他说的所有的这技术你都不懂的话,你是很难跟他进行沟通的,那除非你非常耐着性子去让他给你来进行一个解释啊。有些小伙伴我之前看到评论区会说什么 啊,每学一个软件啊,都要学一套这个 point, 其实现在完全不是这样一回事啊,你只要会表达自己的一个脑子里想的这个问题的话,你其实就可以做到跟他沟通,不需要特定的一个 point, 他 完全可以理解你说的是什么样的意思。 但是可能有些小伙伴还活在过去吧,对吧?那现在我们就在这个对话框来告诉他,我们需要他来干什么。将这台服务器部署为一台 nas, 我需要实现以下的功能,由于我们也是对那是了解一点吧,所以说我们可以告诉他我们需要的文件系统,那我个人会喜欢这个 zvs 文件系统,我可以告诉他我的文件系统我希望使用的是 zvs, 然后我要用快照 功能,请将系统中的四个两百 g 硬盘组成而睿的 z 一。 那其实啊,我这台机器他有一个系统盘是五百 g, 然后有四个两百 g 的 这个虚拟硬盘是模拟这个,那是里面的数据盘的,那其实在物理机里面这个操作,你就告诉他你具体的硬盘的一个配置就可以了。当然你如果说你不太清楚你想要怎么样的一个阵列的话,你也可以 让他给出你一定的这个建议,他都是可以给出来的。因为这个我们现在用的是这个 mini max 的 一个模型嘛,这种大规模的一个模型的话,他对这种文件的一个系统还是非常的一个了解的。请假是什么鬼?改一个错别字。好, 那这是第一个,那创建好阵列之后呢?第二步我们是要访问阵列里面的文件嘛?那我们最常见的只有使用方式,其实就是用这个 smb, 那 我就可以告诉他将创建好的阵列用户可以访问 好。接下来的话,呃,我们还有什么需求呢?但是权限我们可以在它创建好之后我们再来管理,那我们可以告诉他,我会需要使用这个多克,对吧?我需要使用多克来创建一些应用,然后 我需要使用虚拟机,同时请给我一个握操作界面。 那现在我创建了两个需求,一个是我需要使用 dico 来创建一些应用,那这里呢?其实我还可以告诉他,我需要使用 potina 来进行管理。 那当然,其实啊,这样的一个 ai 的 纳士啊,你即使没有 potina 的 话,你也可以让他来帮你创建这个,呃, dico 的 一个应用,但是有这个 potina 的 话,你可能会 操作起来更加直接一点。好,接下来下面是这个啊,虚拟机,然后这个虚拟机他需要设置很多参数吗?你可以用语音跟他说,但是我希望他还是给到一个 web 的 一个操作界面。那下面大家还想到什么呢 啊?那就是外网访问,那我就告诉他,我希望外网访问吧,希望外网 能够访问到这台内网的服务器。其实都说的非常笼统啊,我希望他是能够给到这个方案给我的啊,大家也不要觉得我这个是之前排练过,其实我每次这个需求都不太一样,而且每次 ai 呢,他给到你的这个实现方案也是不一样的。 ai 有 一个不确定性,就是他每次这个想法其实跟人一样,他每次注意力他不一定注意在一条路线上面,他可能会用另外的路线来给你实现。所以呢,接下来我还会跟他有一个需求,就是说请不要直接执行确认我的想法, 那这样的话呢,他就不会直接去开始创建这个 ai, 很 有意思的,他有时候他你说了需求给他之后,他就马上给你去 执行这个行动力报表,但是呢,有时候他又会反过来觉得他收集的资料不够,他会反过来问你,但是你一旦给他的这个需求的话呢,他就肯定会问你这个需求,同时也会把他的一些想法跟你进行一个沟通,那这样的做法呢,会更加稳妥一点。那现在呢,我们就把这个需求发给他, 我们看看他是怎么样来回答的,这里可能会需要一些时间了,因为,呃,这个我们 call 他 这个回答是多轮思考之后才给到你一个答复的,所以说他要等啊,好了, 不好意思啊,这个是还是挺快的这一步。 ok, 那 我们看一下,他说啊,他说很乐意帮我们搭建这个,然后硬盘是用于这个数据存储系统盘是另外独立的吗?因为他中间呢,其实没有经过任何的一个 验证啊,他直接就回答了我的一个问题,所以说他并不确定这个系统盘是否独立的。那有时候他又会 啊,去先去确认一下,然后再来跟我说,那这种不确定性就是我们在部署中可能会遇到的一些东西,而且你使用这个温控的话,你也要注意啊,他这个思维并不是一定固定的,你一定要用一些语句去限制他的这个做法, 这样才是更加稳妥的一种使用方式。那这里我觉得我暂时不回答他,计划只创建一个 rez。 第一个我觉得第一个问题请你 自己去确认,我不想回答他第二个问题,创建一个啊,开启数据压缩。第三个是多少个用户来使用这个 nars 暂时只有我的主用户。 第四个是外网访问的一个安全性。那他这里会问我用 vpn 返向代理加域名还是指开放特定的一个服务。那其实这里呢,我觉得是 a 的, 这个 一般来说我们会用 tail scale 啊,开源的一种方式,或者是用向日葵之类的东西。那第五呢?是啊,是否有这个异地备份? 不需要异地备份,快照每天创建一个啊。六、物理位置在哪里?这是一台一台虚拟机, 没有公网 ip, 虽然我不知道他问这些问题够不够关键。那我姑且先回答他,你打算运行什么类型的这个虚拟机?这个我不确定, 你不确定你就告诉他不确定就行了。那现在我的回答问题已经回答完毕了,那现在呢?其实我不想他直接来进一个部署啊,因为我还不知道他的这个计划,请你先 啊确认机器的一些硬件信息,再给出合适的部署方案 好了,他这样我们就跟他沟通了,然后我们再看他下一步会给我们做一个什么反馈。刚刚这里就是呃,一句话,他就直接回馈了,如果说他有进行这样的一个搜索的话呢?他中间会用一些命令啊,来确认这个机器的状态, 所以肯定不是一条的。那这样一种回复方式呢?是直接来进行来回复。那我们不管怎么样吧,反正你跟这样的一个 ai 沟通的话,你要把它当成是一个人呐,你要确定他是有这种不确定性的,你很难说让他一定很聪明的去执行你的这个 意图,因为本来我们这个表达他就是有这种理解的一种偏差的,是不可能非常精确的。好,那现在他回馈我们了,我们看一下。嗯, 那他现在就用不同的命令来进行一个检查,像 free h 啊,还有 ip 啊,然后呃,像一些反馈,然后再换了一种解决 方式,然后查到了一些这个信息。 ok, 那 现在呢?他获取了这个硬件信息,然后告诉我们,他我们使用的是这个虚拟机,然后内存三十 g, 然后有系统盘五百 g, 然后数据盘四个两百 g, 然后系统是这样,他全部都查的清清楚楚啊,这个没有问题的。 然后它的完整部署方案呢?它告诉我们,我们可以用这个 z f 的 s 的 一个纯主持,然后锐的一 可以达到六百 g 左右的可用空间,然后启动这个 lz 四的一个压缩,然后接下来呢,它告诉我们服务层会有呃多克 j d f 呢?然后还有 next cloud, 然后 虚拟机有这个 copy 加 word manager, 那 这是一个比较常见的这个 word 下的一个虚拟机管理页面吧。然后这是这个 kpn, 然后文件服务呢?它使用的 smb, 那 这里呢? vpn 它使用选择的方式是这个 while guard 啊,那这个方式我们已经很久没有用过了,我们可以试一下,让它来进行部署,对吧? 快到方式,每天一次,保留七天,然后存储位置是本地的这个 vfs 数据集,然后最后他还想跟我们确认一些问题啊,然后完全用于服务,会不会太浪费了啊?你不用管,不会浪费, 请维持现状。他还想把我们这个五百 g 给用到这个 nice 里面。不需要啊,这只是一个测试,然后虚拟机的用途,这个虚拟机我们是用来测试方案的。然后网络环境,你的主路由是什么?是否支持这个 dmz 和这个端口转发?哦,那他这里跟我们确认这个网络环境啊,因为我并没有公网 ip, 主路由是我们 w r t。 那 先告诉他吧,让他来帮我们想办法,然后是否需要计划自动执行啊?不需要,这个半夜重启之类的,这些东西不需要,是否需要对齐?不需要。然后 现在告诉他,那其实现在比较有疑问的可能是这个。第三点,这个没有公网 ip, 会不会对这个 wifi 的 一个安装产生问题,那这里他会告诉这个需求,已经明确了,关于 vpn wifi 也能可以不说,那我们需要从外网访问到这 nars 有 几种方案,然后他要画图,外网通过这个 open w r t, 然后通过这个啊 nars 的 wifi, 然后来访问 方案 a 是 用这个 tail scale, 方案 b 是 使用这个返向代理,我们用方案 a 吧,然后这边他会问我们一个时间,然后啊我还告诉他这个一,我们用方案 a, 二,那就啊开始执行步数, 那现在呢?如果说很久没有反馈给你的话,那就代表他已经开始了一个漫长的这个部署过程。那接下来呢?其实我们就嗯等到他部署完成,我们再给大家来进行汇报,那中间他其实是不会谈东西的,我们也没办法做这个 comment 啊评论,那我们就等他有结果吧。 好了,那其实现在他并没有正常的一个部署,那是因为我在安装这个啊 open core 的 时候,并没有把这个用户设为免密码的一个锁度,那我们要改一下这个配置,那这里我们也是演示下怎么配置啊,平时我们用我的这个教程的话,我会提示大家做这样的一个权限放开, 那现在我们就用这个 s s h 登录了我们的这台虚拟机服务器,那我们用这个锁,微锁锁,然后锁一下密码,然后接下来我们来最后一行,我们把这个 用户名,然后这个 or no password 需要的用这样的一种格式来表达一下,我们就以后就不用这个速度的一个密码了,那现在呢?我们直接关闭,也不需要重启这个服务,那我现在就告诉他,我已经通过,请为我继续部署吧。那现在他应该就开始一个正式的一个部署了。 好了,现在这个 openclock 呢,就已经运行完成了,但中间呢也出了一些问题啊,由于我一开始那个对话是在这个子的一个筛选里面,它的运行过程中呢,把我那个筛选给删掉了,实际开始的时间呢?应该是这个四点十三分,然后 大概它运行了呃,十几分钟吧,大概是差不多不到十分钟,它就已经把呃机器安装到这样的一个状态。 那现在呢,其实我们就可以查询一下它这些是不是已经部署完成了。首先第一个它部署好了 zfs 的 锐锐 z 一, 它可以呃通过这个速度来进行一个访问,我们来试一下。好,我们打开一个 mini 航,我们来看一下。哎,我们可以看到 这样的一个 z f s 的 状态,那这个跟我们出纳时是一样啊。然后它也创建好了这个 sm 共享,但是它没有告诉我们这个共享账号密码,那我们可以先用这个啊默认的这个用户名加密码来进行访问,我们来试一下。 哎,不行的,那这个呢,他不够体贴啊,他没有告诉我这样的一个 smb 密码,我们等一下再问他。那然后我们看一下这个多可吧,多可的查询命令是多可 ps 啊,然后这边他要数度, ok, 多可这个火腿肠已经跑起来了,我们打开一个 窗口,哎,这里也会出现一些问题,那我们等一下一个个来修复。这个其实是一个安全认证啊,如果说你这个网络访问可以支持 h t t p s 的 话,其实是可以访问的,其实没有这个问题。然后接下来是这个 copic, copic 是 那个呃,虚拟机的一个控制页面,我们可以在这里用我们的用户 零加密码来访问,这个就跟我们互关土自己的这个账号密码是一致的了。然后在这里呢,我们可以创建这个虚拟机,那这个是一个挺容易实现的操作,我们就不测试了,我们之前也试过一两次,一次安装成功。接下来是这个 tail scale, 然后还有自动快照,这个我就 等一下再来设置。首先我们让它修复这个 smb 共享啊, smb 共享的用户名和密码分别是什么? 然后当前 potty 呢?无法正常访问提示,然后把这个提示复制给他,让他去进行一个解决。行,那我们先修复两个问题,我们回车把这个问题丢给他。 好啊, portina 已经重启,他告诉我们修复完成了,然后 smb 需要这个我们自己来设置密码。我不想自己设置啊,那能不能帮我设置呢?我告诉他帮我把 smb 上密码设置为 s 的 一二三四。那我们先看 portina 能不能修好啊。 portina 应该是修好了,可以看到这个触手环界面,然后我们设置一个密码。 哎,那这些也没有问题,都可以正常使用的。那我就要他把这个 smb 给设置一下, 反正基本上是不需要你啊了解他的一个命令行的操作方法的,当然他也告诉你了这个明确的一个命令,对吧?我们再来试一下,这个是幺九二点幺六八点一百点幺四七。 好哦,他甚至还帮我们创建好了一个 nas 的 这个目录,一个是 public 的 一个目录,然后一个希尔的目录。 那我问一下他创建这个目录他的一个意图是什么?我看到 cnb 共享下有三个目录,他们分别代表什么? 好哦,那实际上这里这个 public 是 一个公共这个账号啊,它是任何人都可以访问的。还有我确认了一下,然后这个 nas 目录呢?是这个 tank 目录下面,然后这个 share 的是这个 share 目录下面。呃,这里就有这个私人共享文件夹, 所以呢,这里就就存在一个呃,信息反馈的一个问题啊, ai 它并没有告诉你它私底下创建了一个所有人都可以访问的这个 public 的 一个账号,所以说 如果他没有给你详细的解释的话,你需要自己去问他,这些东西都是需要你自己来打醒精神的,这就是 ai 所带来的一个不确定性,那我这样的话,我让他给我一个详细的说明吧。再次给我一个说明,有哪些我需要注意的地方? 刚刚的一些这个常见的命令我们一点点看,我们从上到下啊, 好存储系统,它告诉我们是这个 red z z 一, 然后 l z 四的一个分区,好在这个斜杠 tank 下面,然后它给了我们一些个 s m b 共享,然后 它有多可加普通的一个环境,这个 copy 我 们也测试过了,这个 tail scale 这边我们需要它来给辅助我们配置一下,它需要我们去进行一个验证啊,然后访问官方登录,然后查看状态,接下来是一个自动快照,然后这边快照我们可以确认一下,查看这个快照是否有成功, 我们来看一下。 ok, 这个快照是有的,手动创建快照,然后删除快照都有给我们这个命令。当然其实,呃,未来啊, 你使用这样的一个纳系统化,我觉得你是不需要记这些命令的,你只要告诉他我需要把我的这个快照恢复到哪一天的这个时间,其实他就可以为你来进行一个操作,但是你需要让他记住这样的一个使用说明 啊,请记住当前纳斯的配置,未来我会需要你为我执行一些配置操作, 这样呢,其实它就会像这个 open core, 它就会把这些你配置好的这信息给寄到它的这个记忆系统里面。那未来呢,你就不需要再告诉它你把这个什么 zfs 安装在哪里啊?然后这个是什么样的词,然后给它解释一遍,它就自己会调用 它存放的这个服务器的一个信息了,大概就是这样的一个记忆系统,一个逻辑。好了,那这边把记忆存放在了 memory 的 一个,那是配置点 md 里面,然后它这里有这样的一些东西。好,那接下来我们来配置这个 tail scale 吧,请引导 啊,那第一步你要在这个服务器上运行这个书斗,然后它会出现一个啊这个地址,然后 我们就访问那 tele skill 具体怎么用我们就不多说了。这边我是用这个谷歌账号来进行登录的, 然后我们点击一个 connect, 这台机器就加到了我这个虚拟局域网,然后我们看这边已经加入成功,然后这里呢就是我的虚拟局域网里面的设备,如果说你的这个手机上加入这个虚拟局域网,其实你就可以访问到你的这个 nasa, 这就是 tele skill 的 一个内网穿透的一个方式,其实它这样就已经配置完毕了, 然后我们可以用这样的一个命令来验证连接,我们来看一下, ok, 他 这里看到了我内网里面的其他设备,像有一些这个服务器啊之类的东西,那我让他仅为我确认当前 tail scale 是 否已经安装成功。 好,那现在这个配置就完成了,那接下来呢,下一个环节,我们来演示一下传统大厦的那些功能,在这里该怎么样一个实现,例如安装一些套件呢?相册啊,还有一些这个下载软件的这种安装。那另一方面呢,我也给大家演示一些,在这样的一种雨衣控制的这种,那上面 比传统纳斯更加有优势的一些这个地方, ok, 那 我们先来看一下传统纳斯上的一些这个功能啊,那其实就无外乎的几件套,对吧?相册,影音中心下载, 还有这个网盘同步,那我们看一下它怎么样来实现我们这个需求,请为我在纳斯上我确定 再进行安装,一定要加入这一句话,不然的话他可能会用一些各种奇奇怪怪的这种方案来给你执行。有时候他聪明一点的话呢,在那上用到可应该会 啊,安全点,它不影响整个系统的环境,但是有时候它不聪明起来也真的就是不聪明啊,直接帮你进行一个安装,那我们先看一下它给到我们的方案,如果说这个 ai 它不够聪明的话,其实你是要手动引导它去用这个 dog 来安装的,这样才是比较好的方法,我们来试一下。 ok, 它这边给出了一个方案,我们来看一下。那首先呢, 它这个相册选的是这个 image, 然后呃,告诉了我们一些这个功能,然后也给到我们优点。然后端口呢,它会用到这样的一个端口,然后影音中心呢,它会用这个 julietin, 也是 julietin 啊,几个经典的这个用法。然后下载呢,它会用这个 kippeteron, 然后加上一个 file browser, 等于是他给了我们一个网页上能够对这个文件进行管理的一个工具吧,他同时也被帮我们想到了这一点,然后他还告诉我们可以配合这个自动化工具 radar 和这个 sauna。 然后接下来呢,这个网盘的一个同步私人网盘 啊,他这里告诉我们是用这个 sync sync 啊,他并没有理解我们的意思是把这个文件放同步给这个网盘,而是给了我们一个网盘的这个方案 next call, 然后替代方案是这个 sync 也行吧,那你可以先帮我配置吧这个网盘。 好,接下来他会告诉我们这个存储的一个结构,这个 tank 上面的 photo media, 还有 download, 然后还有 share, 然后部署的架构也帮我们列了出来, 嗯,好像很专业的一个样子。然后它这里呢告诉我们至少要八 g 的 一个 run, 然后这边需要 cpu 的 一个转码支持,因为我这台机器它并没有这个啊, gp 的 一个转码,如果说你有这个硬件的话,其实它也是完全可以帮你把这个 显卡给到这个 jerry finn 的, 他问我有没有其他的一些偏好,下载工具想用哪个,然后网盘用这个 nextclock 还是帧帧啊?那我觉得其他的没有问题,你会建议使用 docker, 那这个还是要跟他进行一个确认的,因为这是涉及到比较大的一个东西。那当然这宿主也没有问题啊,如果说你这个 ai 它是足够聪明的话,其实完全可以解决这些环境之间的这个啊一些矛盾。但是我们看一下它的一个说法吧, 其实就是跟人在沟通的一个感觉,他并不是一个确定的方案,你需要反复的跟他进行聊天。当然有人会觉得这样的一种沟通方式比较麻烦吧,但是他的可操作性是挺强的,因为即使有什么问题的话,他也可以帮你进行一个修复。 好,那这里呢,他会强烈建议使用到可来进行部署啊,后面还发了一个已摸取,然后告诉我们到可里面是怎么样的一个样子,然后为什么适合这样的一个到可呢?方案确认之后,他会最后给出你的一些端口啊,没有问题,好像很完美的样子哦,帮我进行安装吧。 好,接下来我们就等它安装完毕,看一下每一个服务它用起来怎么样。那前面我们也已经配置好了这个 tail scale 的 一个穿透啊,所以说啊,这些服务呢,都是内网会给到你一个端口,你穿透进来之后,用内网的这个虚拟内网的 ip 加上这个端口就可以访问了。 如果说你想配置像蒲公英啊, d d m s two 啊,像其他的一些这个内网穿透方案的话,你也可以直接把那个项目说明书直接丢给这个 ai, 让他去读这个说明,然后帮你来进行部署,他会帮你分析出来你需要啊,哪些信息给他的这些东西都不需要人来动手的了。 我现在个人感觉就是只要一个软件,你人是能够看懂的话,他帮你来做基本上没有什么太多问题,但关键就是你要 为这个文件给他,如果说你不把这些说明书给他的话,他有时候可能会根据自己的一个理解啊进行一些骚操作, 因为他懂的东西实在是太多了,他不一定会沿着那条最好的一个方案去做。就算是再牛的这个工程师,你如果不给他说明书的话,他可能一个个文档去读,然后一个个程序去修改,但是这样的效率呢? 或者说成功率,或者说考虑的周全度,反而是不如那些提供了这个说明书官方的一些渠道来的这样精准的。所以说你是要辅助这个 ai 来进行一些这个判断的。当然我觉得未来这一部分他们也会有自己的一个方法去 保证他的这个理解是最优解吧,这个我觉得未来是可以解决的。像其实我们像 open call 啊里面的一些这个工作流,就是为了把他的一个行为准则规范在一定的这种啊路线上面, 让他不要有这种啊发展性的一个思维,其实这都是已经在做的一个事情了,我觉得未来还是啊很方便的这个 ai。 好, 那这里我们让他这个部署部署着,然后就卡住了,运行大概二十分钟,所以这里呢 open core 又显现出来他的一个问题,那我们问他,你啥事啊? 刚才发生了一次这个意外,这个报错,然后现在啊,我们通过这个刷新了,我们来看一下,他其实是有反应的,那我们等他继续进行这个执行, 我们看一下,在我们说了这个这句话之后啊,他又开始了进行这个修复,那没关系,他只要继续运作的话,他就会去检查我们这个软件有没有安装完成,那我们就等待这个时间过就好了。 好了,那其实没有多长时间之后呢,这个啊安装也已经完成了,我们来看一下它这个服务是否都已经可以正常的使用,大家可以看到这个手势使用,它还给了我们一个呃需要注意的地方,给了这个手势的一个密码账号, 然后这里就提醒我们注意啊, next call 需要几分钟进行这个出手话,然后前面呢,这里就是我每一个服务的这个啊 ip 地址了,然后我们可以看一下,哎,隐秘其实可以 仅使用的。然后这个 jeffery finn 呢,也是一个初步化的这个进程。然后啊 qq 团,那他说这个账处的账号是艾米,艾米艾米,那我们来试一下。 哎,这里出现问题,我们访问不了。然后这个 file browser 呢,他账号是艾米,密码是艾米啊,那这个也是访问不了啊,那我这里确定没有输错,那就啊怎么办呢?等一下再说吧。 然后这个啊 next call 呢,他就给到了这个八零的一个端口啊,这里也是一个数控安装流程,那暂时我先不管啊, partina, 这个是我们前面就已经装好的了,我们也是不用管它。那重点呢,就是我们要修复这两个 当前账号密码都无法访问,请为我修复。那我们让他先试一下修复 啊,理论上如果你有这个浏览器的这个 skill 啊,就是说如果你的这个 winq 它可以调用浏览器的话呢,它可以看到更详细的一个报错信息。那现在呢,理论上作为一个人来思考的话,他应该会去查这个 dog 的 一个啊 log 的 一个记录,那我们看他怎么样给我们解决可以解决掉这个问题。 理论上应该是没问题啊,这个 log 里面应该有详细的这个登录的一个信息,如果有什么报错的话,他应该可以查到具体的方案。 那大家也需要注意啊,其实这个 open core 它是可以部署这个搜索的一个权限的,也就是说你部署这个搜索的一个呃接口之后呢,它在遇到不会的问题的时候,它会直接通过这个搜索引擎来获取它所需要的这个信息,那我这边已经部署了,所以说解决问题的能力呢,是会比 你没有部署这个要强一些的。如果说你没有部署的话,他可能会去网页上来找,或者说先帮你部署一个网页这个浏览器,然后再去进行一个查找,可能会走这样的一个路径,然后如果你部署了,他就直接会去搜索资料,那这样会更加快一点, 头感的消耗也会更加少。因为如果是有用接口来防这个时候隐形的话呢,他反馈的这个信息是更加精简一点的。那,那我们现在等一下好了。 那这个,呃,他已经修复了,但他并没有告诉我们为什么会出现这样的一个问题啊?但是他告诉我们这个密码已经被我们修改了啊,我们来试一下。这个是 the main, 一 二三四。 嗯,那依然是出现了错误,那可能不是密码的问题了,那我们看这个 file browser 是 可不可以看啊? file browser, ok, 那 这个文件浏览器我们是已经搞定了,但是这个 q b t r 呢?可能就还有问题。那 q b t r 设置问题呢?给他一点引导吧,不然的话我觉得他早会费力一点。 嗯,其实你也可以加上一句,就是让他自己去尝试解决这个问题,然后解决好了再汇报,那我们就,嗯,让他在这里折腾也可以等。 ok, 那 现在他总算找到问题了,他会有一个临时的密码,那可能呢?他找的这个镜像是这种临时密码的一个镜像吧,我们来试一下。 ok, 那 我们这个 qq 托人也已经解决了,但是我不太清楚他们默认这个文件存放在哪里,对吧?因为他只给我这个服务,但如果说我们要严肃使用的话,得让他给出一个文件存放目录,我们让他来说一下, 好,可以使用了,我们也是给他汇报一下,请为我设置。那我们希望这个 qq 托管下载了影音文件啊,这个 j d f 它可以直接调用嘛?这个是一个比较常规的操作,我们也可以让它变回调整。 那以往如果说我们这个手动调的话,我们可能要知道这个目录的一些这个权限这些东西啊,那现在的话,我就啊一句话让他搞定就好了,当然这个时间速度上可能是不及你手动来操作啊,熟手的小伙伴应该是很容易操作这个东西的,但是 你胜在不用我操作吗?对吧?反正这个聊着聊着他就把这个东西给设置好了。好,那现在他给了一个 这个汇总,那所有文件呢?都存放在我 z y s 的 这个存有词里面,然后隐秘去啊,然后他这里有告诉我们一些这个路径,然后呢, julie 访问,他给了我们一个方案呢,但是没有直接帮我设置吧,我直接叫他直接帮我设置。 然后,呃,他让这个访问是要存放在这个 tank down list 里面, julie 是 可以直接访问的。哦,那可能, 可能已经设置好了,那我反正说也都说了,让他让他先去试吧,他去猜我们要干嘛。 那建议的目录是这个 movie tv, 还有这个 anime 是 分开进行一个存放的,那实际上应该它并没有这个互访啊。这个 julie finn 可以 访问的是这个 media 目录, 然后,呃,这个 qq 腾腾,它可以访问的是这个 tank 下的 down low 这个目录。那我们等它把这些给配置一下,理论上是需要重启几个容器和更改几个容器的,这个配置它才会调整好的。 好了,已经配置完成。那现在呢? qq 腾腾,他就是电影在这个木皮下面,然后电视剧在这个 download 的 tv 下面,然后音乐呢,在这个 music 下面,然后 jerry finn 里面,我们需要手动的去设置这样的一个向导啊,因为 jerry finn 他 是可以直接访问这些东西吧。那我们就不说这么多复杂的一个设置了, jerry finn 的 配置,我们不在这里说, 假如说现在我们这五个服务都已经配置完成了,那下一步呢?我们可能要考虑一下我们怎么样能最快的而访问到那上面的服务,对吧?那平时我们可能会有一个,那是这个管理页面,对吧?可以显示这个那是一些状态,还有这个服务的一些链接。但现在的话, 我们只能把啊刚刚这些服务直接收藏到收藏夹里面,那这种方式也可以啊,但是我们希望更加直观的话,怎么办呢?我们可以让他做一个这个 dashboard 的 一个呃,仪表台吧,我问他帮我制作一个啊,这台服务器的仪表台 t t p 网页请为我实现。那这样的一个说法,其实就让他做一个网站了,可以看到我们这个纳斯的一个状态,可以连接到我们纳斯服务器的这些链接,对吧?不需要这个密码了,它本来是内网的一个服务,而且你进每一个服务的时候其实是需要这个密码的, 那如果说你个人使用的话,其实不需要这个登录啊,如果说你真的要加密的话,你自己跟他说就好了,我们让他来制作一下 好了,那现在他就已经做好了这个仪表盘,由于我们这个刚刚八零端口啊给这个 nice 给占用了,他给我们设置了另外一个端口,是这个八八八八,那我们来看一下 哎,哈哈,可以看到他现在这个啊仪表台就已经做好了,当然这里会有一点 bug, 我 感觉他这个 cpu 占用率好像不是很对的样子,但内存是对的,然后这个 zfs 存储池也是对的,然后接下来呢这些服务, 呃,它也可以正常的一个访问 clipboard 呢?像 file browser 好 了,那这个是出现了一个问题, clipboard 它出现这个 on auto rise, 然后呃 file browser 是 对的, portender 也是对的,然后这个 copy 虚拟机是对的,然后 next cloud 也是对的, 那这个问题其实你可以跟他沟通来进行解决。哎, cpu 动了 cpu 其实也是正常之一,开始没有获取,那可能就存在一个小的问题,它基本上是一步就帮我们做好了。那现在呢,我们这台有 web 界面有服务的这个 nars 就 已经部署好了。 那下一个环节呢,我们就来看一下这样的部署方式,它有哪些这个独特的一个优势啊?就是比起我们传统 nas 来说,现在我们基本上还是局限在传统 nas 里面嘛,但是后面的话,我们来看一下它有什么独特的优势。 好,那接下来就是我们今天这个视频的最后一个环节啊,我们来探讨一下这样用 ai 做出来的 nas, 它跟传统 nas 有 哪些的这个 优势,有哪些这个劣势。那虽然说我们这个视频是做这样的一种实践方式,但我们也不鼓吹这种方式有多么先进,多么好用,其实它也并不是有很多的一个弊端。那我更希望的是呢,未来我们传统的那是可以加入像 ai 诊它的一些这个优势功能,从而也保留他们传统这个 那是一种使用方式,那这样的结合呢才是最好的。首先我们来看这个优势的部分呢,那首先呢,我们这个那 star 前面也看到了,它是一个用语义来操控的这个那系统,当然它也有这个 web 界面呢, 但它主要的一个不同肯定是通过这个语义来进行操控,所以呢,它就具备一些执行复杂任务的能力,我们可以用一句话表达出我们的这个需求,甚至直接实现我们的一些这个复杂的请求。 这里呢,我们首先来看第一个这个例子啊,那就是这个复杂工作人员的权限设置,以及这个 smb 的 一个权限设置。 那以我们工作室为例嘛,我们工作室肯定有不同的这个呃,工作人员,例如有剪辑师,有考考师,然后有摄影师,然后还有我,对吧?本人一个管理员。那如果说 我要在一个,那系统里面设置这样的一种啊,复杂的一个欠套关系的话呢?又有某些目录,某些人可以访问,某些人不能访问,那我可能会涉及到一些这个比较复杂的操作,一个一个人或一个个目录进行操作,但在这种语音操作系统里面呢,其实我们用一句话 就可以把它表述清楚了,甚至他还会给你一些相对更加专业的一种这种配置建议。那我现在可以告诉他,那这里打字我就略过了。 好,那下面我们输入一段话,那就是我告诉他,我们是一个工作室的场景,我们有两个剪辑师,一个摄影师,一个管理员,一个 d i t, 就是 考卡师。 那我会让他为我创建相关的一个目录,同时为我设置好每个用户的这个文件访问权限。那这其实是一个非常含糊的这个需求啊,我可以让他给我先做一个计划,那我们来发送。 当然如果说啊,我这里没有写这个计划,他可能就直接会帮我进行一个设置了,所以这里呢大家记得沟通上,你要明确的告诉他是直接帮你设置还是做这个计划,我这里是一个比较含糊的表述啊,当然也不是一个好的例子,那我们就等待他进行一个反馈 好了,那现在他就创建完成了,我们可以看到完成的时间呢,是十点五十五分,我们发送这个需求的时候,是这个十点五十三分,他用啊大概两分钟,为我们执行了 非常复杂的一个权限配置啊,这个时候十点五十三分,两分钟,我们可以看一下他到底是怎么样来做的。首先他做了一个规划,然后把这个目录结构给理清楚了,然后来创建这个用户, 接下来呢反正是设置这个 smb 的 一个共享,这是中间的一个过程啊。然后接下来还有一个就是,呃,直接给我们展示这样的一个用户信息,他设了一个储值密码,然后创建了这个用户,然后最后呢是告诉我们这个信息,我们来看看他给我们信息, 那这里有所有用户的一个信息,然后所有共享的目录,然后每个共享的目录每个人的一个权限访问权限可访问的一个用户,然后访问的方式, 那具体你可以跟他在细致的一些聊这个需求啊,例如某个人可以访问哪个目录,某个人可以怎么样来操作,他都是可以为你实现的,那这就是我们所谓的这个语义操作系统特有的一个优势,就是说他会想办法去完成你的一个需求表述, 那除了用户权限以外呢?当然他也可以操作我们安装在这里面的一些这个软件呢,我们不需要告诉他复杂的软件安装在哪里,访问页面在哪里,我们只需要告诉他我需要下载某个网站上的某一个资源,他都可以帮我们去找到并且添加到这个任务。这边呢,我们也来演示一下。 那现在画面上的是这个动画的一个下载网站呢?那我们就可以告诉他在这个网站里面帮我们下载某一个资源。当然你也可以直接告诉他你自己去搜这个资源,但是他会消耗过多的一个头肯 啊,也可以实现,但是可能并没有,智商还不是这么高。那我们先用这样的一种限制的方式来跟他说吧,那同样说这个对话的这个过程我们就略过了。好, 那就这么短短一句,我们来试一下。其实我也没有试过这样的一个实验方式,我们告诉他在这个网站帮我们下载周树回传最后一集的这个动画。那这里我就专门不提这个 qq 托人了,看他会不会直接调用这个 qq 托人,我们来看一下他怎么样来执行 好了。那我们在十点五十九分输的这个需求,然后他在这个十一点的啊三分用了四分钟帮我们找到了一个第二季的这个全二十三级的一个打包的这个种子。但其实这样的一个需求他是并没有满足的。我们所谓的这个最新一级呢, 他应该是第三季的第五六集吧,大概是这样的一个视频,所以说他这也并没有完全理解我们的一个需求。下下次的话我们可能要对他进行一个更加精确的一个描述,或者说啊给他限定说你必须要找第三季的某一集, 某一个单极,然后必须在某个字幕组,然后怎么样来进行他一个约束。那这里我们表述确实也有歧义啊,也不能完全怪他。然后呢,他这里并没有帮我们呃直接添加这个任务,而是告诉我们可以自己手动去添加,我们可以看到这里并没有添加,我们看一下他能不能直接添加, 因为我这边还没有装这个浏览器的一个扩展,它基本上都是在命令行帮我们做这个操作的,所以这里它的一些操作也会受到一定限制。 qq 浏览器应该是可以通过 api 来进行这个控制的,它应该自己可以找到这个方法,可能时间需要久一点。 那这里跟大家提一下,像所谓刚刚我们的这个限制呢,是可以做成这个 skill 的, 然后限制他必须从哪个方向来完成这样的一个任务,对他进行一些限制。那这样呢,他的一个执行呢,就会更加 有这个规范性,也不会说每次去重新思考啊,怎么样来执行这个任务,直接调用工具就好了,这样可以节省这个操作的一个精准度。那这个也是呃,需要你来进行这个维护的。 其实像网上很多演示这个 open curl 的 一个操作,就像我们那样给一些比较犯的这个问题啊,但往往呢这样就会出现一些错误,你必须要经常的去整理你自己的这个工作流,然后丢给他,让他以一种更加高效的方式来完成,这才是一个正确的使用方式。 那这一部分的内容我们以后也可能会跟大家来啊做一下这个演示吧。 ok 啊,他这边 api 无法添加这个种子啊,配置的一个限制,他让我们手动来进行添加 啊,你是否可以直接用种子的链接来进行添加? 这里就出现了一个知识库的一个盲区了,其实他是应该可以直接把那个种子的这个下载链接添加到这个任务里面,这个是完全可以用这个 api 的 使用 api 添加任务, 那如果说你要做这个 skill 的 话,你要告诉他你添加任务的时候,你必须要用这个链接,然后来添加任务,这样的话他未来就不会产生这样的一个错误。 同时还有一个要规范的,就是啊,像对我们这个所谓的描述的这个级数啊进行一个甄别,比如说我说某一级的话,他就必须要啊针对我们那一级去下载,而不是下载这个合集,这个大家也是可以进行这个规范的。 像之前我们在这个 m 八 n 的 那个工作流里面,我们就写了很多的一个约束,大概有差不多五六千字吧,里面对每种情况都进行了约束, 但是我这边也是其实通过这个 ai 来进行生成的,你你可以咨询 ai 怎么样来约束另外一个 ai, 这样都是可以实现的,所以说并不是让你来手写, 反正这也是一些小技巧吧。呃,它根据我们提示之后呢,它这个就已经开始下载了,那这里再给呢跟大家分享一个小技巧啊,就是说你可以在这里就让它总结前面的一个操作流程,然后把它生成一个 skill, 比如说在某个网站上,然后用某个链接来进行这个生成任务。好了,那我们就用这两个例子来给大家介绍了这个其实羽翼的一个操控啊,它是可以实现的,但是中间大家也可以看到它会存在一定的这个不确定性, 你需要跟他进行一个呃沟通,将他一些这个行为进行这个归案判他才会更加好用。那第二个优势呢,就是我们这些操作啊,其实都是可以在这个手机上完成的。例如我们绑了这个 whatsapp 的 一个操作,那你就可以在 app 上输入我们刚刚那些命令, 然后来控制他完成这个任务。因为有一天我在我的床上,我想看某个动画的话,那我就直接输刚刚的命令给他,然后如果我 skill 做好了,那我只要想到我就可以在手机上一步就可以 玩这个动画了。那以往传统的这些纳斯的话,我可能还要在网站上找链接,然后再复制回我这个下载器,然后我还得再刷刷刷刷刷刷,对吧?那如果说你可以用我羽翼的话,那这个操作就可以让手机完成。 那第三个优势呢?其实就是,呃,我们这是一台基于乌班图的一个纳斯嘛,它并没有任何的一个限制,其实我们可以在里面部署,呃,比较复杂的,需要复杂硬件来实现的这种,呃,像大圆模型啊,或者说一些特殊的这个应用, 传统的纳斯除了这个昂瑞的可能对这个硬件兼容比较好以外呢?那其他的这些纳系统,他们对硬件的这个驱动都是有一定的限制的,无论是出纳斯啊、飞牛啊, 那传统的品牌呢?是就更加不要说了,他们都会在这个硬件上产生一些这个啊限制,有些硬件不能装,这个不能装,那个不能装,但在这个物管组上他就啥都可以装,只要你不怕破坏这个系统的话,然后我们也可以通过这个 open call 来帮我们进行一个啊,快速的一个部署 好了,那这就是我想到的几个比较大的这个优势啊。电视方面其实大家在这个部署过程中应该也看到了很多,对吧?那一个就是这个操作的这个精准度 是有待商榷的,除非你表达的非常清楚,或者说你每一步的这个操作都给它制定了这个准则,用 skill, 例如说创建阵列啊,或者说创建 s m d 共享啊这些东西,不然的话你的所有的命令都是一个概率性的,这个 啊命令他并不是一个精准的操作,你要期待他给你一个更好的结果,这就跟你手下管人一样,你说的不清楚的话,他就做的不清楚,如果你说的清楚的话,他就,呃可以完成的很好。那这个东西要看你的一个表达能力, 或者说你前期的一个培训呢,给他植入的一个 skill, 对 于 nas 来说我觉得是非常不好的一点呐,其实在 nas 上面,我们为什么要选择一个 nas 系统呢?就是因为它的这个 web 界面把很多操作给你进行了一个规范化,你是很难进行一个误操作伤害到你的这个系统的,而且在必要的时候呢, 也会有一定的这个提示,他会限时你不能做某些操作,只要你操作的话就是一个精准的操作,这个是呃大的一个缺陷。如果未来说传统的人呢,那厂商他要加入这种 a 卷的话,他必须要 对这个模型进行一些微调啊,或者是对他的一个准则进行一个限制,那这样才是会是一个好用的这个 nars。 那 第二个其实跟前面是类似的,就是说 我们并没有一个非常好用的这个 ui 或者说手机 app, 那 我本身只是想看一个视频的话,那我像飞牛或者说绿点的话,我都会有一个 app 来播放那上面的这个视频,对吧?但是在这里呢,我们依然是需要先要用 tail scale 来进行这个内网穿透,然后再用 jiffy finn 来进入,会多几步。它的这个人性化肯定操作是没有这么好的,我们也不可能说叫 open core 帮我们翻译, 直接做一个非常复杂的这个手机应用,然后可以直接 tele skill 登录,然后再用这个语音播放器来播放,对吧?这样的操作是对一般用户来说是没有这么容易实现的,可能对专业用户来说,你可以确实可以现场编程啊,但是这个没有这么容易。 而第三个呢,就是它只能用一些这个开源的程序,你自己作为一个开发团队,你只能做一些这个前端呢,或者说一些简单的一些开源的程序的应用,对吧?你像绿联或者是其他一些上市公司,他们都是 有较大的一个这个开发团队的,那肯定他的这个用户体验也是经过长时间的一个迭代,然后会有更好的一个体验,这个都是没有办法来进行一个对比的。 那最后一点呢,就是我们这个系统他是没有长时间的一个确认的,他每一个应用都是东拼西凑的过来的,虽然说这些软件可能经过时间迭代,他们会比较稳定,但是你装在一起之后,你不知道哪个软件跟哪个软件会不会产生一定的这个冲突, 然后再加上前面第一点的这个操作的不确定性,你就更加不知道这个部署过程中他会不会把你某个配置啊,产生一些这个高危的一些操作,或者说一些这个风险都是不确定的。所以说 如果你要长时间使用这样的一个纳斯的话,你可能还需要经过一个长时间的这个对系统进行这个检测,我也不推荐大家用,在这个生产环境中, 基本上我觉得优势劣势,我就说到这里了,不知道大家啊能不能听懂 get 我 的一个意思呢?我比较倾向的就是未来我们的这个传统的厂商,它能够集成我们前面的一部分这个操作,并且将它的这个 操作给流程化。那这样的话一台这个传统 nars 它也会具备我们刚刚所说的这个快速部署啊,或者说下载添加有这样的一种方式,那这样就最好了。那当然我不指望它这个 nars 里面可以集成说高智商这个 l m 模型啊,这个肯定 不可行的,你给我一个接口设置的位置,我觉得也已经足够了,那这就是我对未来那形态的一个畅想吧。好了,那今天视频的内容就这么多,我觉得我们也说了很多这个一些想法,对吧?希望能够帮到大家,那我们就下期再见了,拜。

上周大家催我的 openclaw 部署教程来啦,先说结论,顺利的话整个过程只需要三十分钟左右,但如果你不是用虚拟机,而是想在你自己的电脑上部署,整个过程大概要二十分钟左右。 现在网上很多的博主教程大多是直接让你在本地环境安装,但我们考虑到 openclaw 的 权限过高,为了系统安全呢,我更建议大家搭建一个 linux 无斑图的虚拟环境来运行。 很多国内教程呢,写的比较简略,新手操作呢容易踩坑报错,所以我专门整理了一套编程小白也能跟着做的新手无痛安装文档,想要的可以来找我拿。第一步呢,我们要先做一个环境的前置检查,这是一个必做的内容啊。第一个要检查一下我们这个 windows 系统的版本,按下 windows 加 r 键, 然后呢在输入框里面输入 win, 然后按回车。这里呢,我们可以看到我这边呢是个 windows 十一的一个系统啊,这个就是目前符合版本要求的,如果你那边不达标话呢,就根据文档里黄色的地方重新更新一下。接下来呢,要确认 cpu 的 虚拟化已开启, 按照操作打开这个任务管理器,看这里,右下角呢,一定要显示已启动,如果未启动的话呢,你就要根据提示重新操作一下,基本上电脑默认都是起用的。 再接下来一步,按照操作到急用或关闭 windows 功能这边去, windows 系统啊,一定要确保有两个按钮是勾选的,一个是适用于 linux 的 windows 系统,还有一个呢就是虚拟机平台,这两个必须是勾选的,如果没勾选的话呢,你把它勾选上,然后再重启电脑一下就行了。 第二步呢是安装 ws l 二平台。首先呢,你要先安装一下更新包,安装在自己的盘里面,装完之后呢,会显示安装完成。接下来那一步,把这段代码复制到 power shell 里面, power shell 你 就直接在 windows 搜索里面打开就可以了,你就可以看到它这边版本设置为 version two, 然后操作就完成了。 接下来一步呢,我们就是安装误班图,我们可以通过 microsoft store, 就 像 app store 这个东西进去搜索 版本的话呢,我比较推荐二二点零四 lts, 一定要选 lts 的, 因为呢,这个代表的 long term support 起码有三十个月的维护期,然后再挑那种评分比较高的,所以我们就选了这个版本。 安装好之后呢,你打开打开误班图之后,它会要你输入用户名,你自己写个英文的小写就可以了。输入你的 user name, 然后回车按照提示呢输入密码, 小白要注意啊,密码在输入的时候呢,它是不显示的,你自己输入,然后重复输入两遍即可。后面呢就是要验证并安装 wsl 版本,你重新呢,打开一个管理员身份的 power shell, 输入这行命令, 然后看它是否成功,它这边会有三列,首先呢,你要满足乌班图那个版本是对的, state 那 一列要显示是运行的状态。第三列,它的 version 这边显示是二就可以了。 然后你再以管理员的身份进入 power shell 中,然后输入一个创建防火墙的规则,然后把这行代码复制进去,检查他是否创建成功。接下来这一步,我们就可以在虚拟环境里面直接安装 open call 了,我们先把乌班图打开,输入这个命令, 它会自动安装 node js 版本,需要大于等于二十二,你只要运行这个安装脚本就可以了,它自己会装好的。安装完毕之后呢,你就可以检验它是否能用。后面直接进入 openclaw 的 部署了,我们输入这行命令,等待 openclaw 安装成功。 安装好后呢,跟着我的步骤,首先选择 yes, 用键盘来选择,这边鼠标没有用,然后选择 quickstart, 到后面选择模型呢,我觉得国内的话呢,选择 mini max 性价比比较高,因为它比较多的免费的 tokyo, 如果想要修改的话,其实可以后面再调选,调换模型也可以。 然后呢,选 minimax o o s, 然后选 china 这个节点到了这边呢,你打开这个网址,然后第一次登录的话, minimax 要注册好。登录好后呢,再打开同样的网址授权。 授权之后呢,会跳出来一个选项,大家选择第一个 keep current, 也就是默认的这个就可以了。接下来我们再配置 open call 的 交互模式, 我觉得啊,你这边可以先暂缓配置,还有 openclaw 这个技能 skills, 我 觉得在这一步啊,也可以先选 no, 暂时跳过。在 hooks 这边呢,也可以先选 skip 跳过。重点来了,我们建议啊,打开 openclaw 的 方式,你选第二个 open web ui, 这时候会显示一个令牌,你要记住你的自己的令牌啊,我自己的这边就先打码了,你把自己的令牌输入到 openclaw 里面, 就可以把它对接成功。最后呢,你再验证一下,再打开一个新的雾斑图的窗口,输入这一行,如果呢它的显示版本号正确,那就恭喜你安装成功啦。最后一步就是启动网关,快速验证,检查你的网关状态,在这边输入这行代码,然后执行下面这一组命令, 可以快速检查 openclock 目前状态是否健康。如果一切正常呢,你会看到服务器有个健康的提示。最后你在 windows 系统中直接访问这个链接,把你的令牌呢贴近控制台的仪表盘, 你就可以开始聊天了。如果在安装过程中遇到了 bug, 欢迎呢?在视频下方,滴滴我关注我,我是陈凡,带你用 ai 早点下班,我们下期见!

最近为大家做了多期 openclaw 相关的视频,而且昨天我还发了一期 openclaw 的 高级用法的视频。但最近我发现几乎每期视频的评论区都会有留言提到 openclaw 调用 cloud code 会非常消耗 token。 因为在之前的视频中,我有为大家演示过,用 openclaw 来调用 cloud code 进行编程开发,我们只需要为 openclaw 全程操作 cloud code, 为我们实现编程开发。 但是我们如果采用传统的方式,也就是常规的方式让 open cloud 直接调用 cloud code 的 话,那么 open cloud 每隔几秒就会轮循一次,检查一下 cloud code 的 状态以及 cloud code 的 输出。使用这种传统方式的话, open cloud 必须时刻盯着 cloud code, 所以 openclaw 就 会消耗非常多的 token。 所以 我发现在评论区大家抱怨 openclaw 调用 cloud code 会消耗更多的 token。 因为大家采用的是这种常规的传统方式, 所以 openclaw 要采用不断轮询的方式来查询 cloud code 的 状态,也就是 cloud code, 它执行的任务越久,在 openclaw 中它轮询的次数就越多,所消耗的 token 也越多。 所以我们可以完全不需要用这种传统的方式直接让 opencloud 来调用 cloud code。 因为无论是 opencloud 还是 cloud code, 它们都非常非常的灵活,所以越灵活就越强大,就越有利于我们去自定义一些功能,从而轻松解决用 opencloud 调用 cloud code 的 时候, 产生大量的 token 消耗。尤其是 cloud code 在 前几天新增了 agent teams 这个新特性,因为 agent teams 相当于在 cloud code 中随时可以创建一个完整的开发团队, 而且每个 agent 呢都是独立的进程,所以是真正的并行执行,而且每个 agent 之间还可以相互通信,还能共享任务列表,能自动认领,还能实现专职角色分工,比如说负责开发前端的 agent, 负责开发后端的 agent, 还有负责测试的 agent。 所以在 cloud code 中有了 agent teams 这个最强大的新特性,在 open cloud 中就可以更加轻松地向 cloud code 委派任务,让 cloud code 全自动完成整个开发工作流。 想让 open cloud 以更节省 token 的 方式来调用 cloud code, 其实非常简单,我们只需要用到 cloud code hux 功能, 在 open cloud 中可以结合 cloud code 的 hooks 功能,真正实现调用 cloud code 进行自主开发,并且能够实现真正的零轮询,而且还能非常节省 token。 当开发任务完成之后, 我们还能在聊天软件的群组中自动接收到任务完成的通知,包括实现的是什么任务, 项目存储的路径,还有耗时,还有 cloud code 的 agent teams 是 否已经起用,还有具体完成的功能,还有项目的文件结构等内容。下面我们就看一下我是如何通过 cloud code 的 hux 来实现了整个流程。 下面我们先通过这个流程图,让大家更直观的感受一下在 cloud code 中通过 hux 回调来实现的整个步骤是怎样的。 首先是由 opencloak 将我们要开发的任务委派给 cloud code, 像这个委派只执行一次,而且它是后台运行,不会阻设 opencloak 的 对话窗口和它的主 agent。 当 cloud code 接到任务之后,它就会进行自主开发还有测试,当任务完成之后,它就会触发 stop 事件。 第三步就是 cloud code 中 hooks 自动触发,它会先将执行结果写入到这个文件中,然后再发送 wake event 来唤醒。 open cloud 在 这里采用了 stop event 以及 session end event 实现双重保障,来保障在聊天软件中,我们能够真正收到它的任务完成的通知, 然后 opencll 就 会读取这个文件中的这些结果和状态,当它读取完这些结果和状态之后,它就会回复给我们,也就是通过我们的聊天软件来回复给我们这些状态。 像这个流程的话, opencll 只在给 cloud code 派发任务的时候调用一次 cloud code, 然后这中间的流程不需要 opencll 参与。在最后这里, opencll 再读取一下这个执行的结果,并且将执行结果发送给用户。 所以在第一步, opencloud 只是给 cloudcode 下发一个任务,它下发任务的过程所消耗的 token 几乎可以忽略不计。在最后这里,它只是读取一下结果,将处理结果发送给用户,而且这个结果里的内容非常少,甚至不超过一千字, 所以在最后一个步骤,它所消耗的 token 也几乎可以忽略不计。在 cloudcode 的 自主完成这个任务的过程中, opencloud 不 需要对 cloudcode 进行轮询。 好,下面为大家讲解一下我是如何实现的。在 cloud code 中通过 stop hook 来达到任务完成自动回调的效果。在刚才也提到了我们使用了 stop hook, 还用到了 cloud code 的 session end。 下面我们简单看一下为什么要用到这两个 hooks。 在 cloud code 中一共有十四个 hooks, 之所以我们选择这两个, 是因为我们构建的这个工作流,在 cloud code 中,它完成开发之后才会触发这个 hooks, 所以 使用 stop hook 作为主回调,就可以保证 cloud code 的 真正完成开发时才会触发。在这里我们还用到了 session and 作为兜底回调, 也就是假设 stop hook 它没有触发成功,还有这个 session and 它能够作为兜底。像这样的话,我们就能够真正保证 open cloud 向 cloudcode 发送一条开发任务,然后 cloudcode 独立运行。在 cloudcode 独立运行的这个过程中,它并不会消耗 opencloud 的 上下文。当 cloudcode 完成开发后才会触发 hux, 然后我们的聊天软件就会收到通知, 下面我们就可以看一下具体的代码。在这个代码中,我们先看一下这一个脚本,它的作用就是将要开发的任务来写入到这一个文件中,然后再通过这个脚本来启动 cloud code。 当 cloud code 完成开发后,这个 stop hook 就 会自动触发,然后就会调用这一个脚本,我们可以点开看一下, 这一个脚本就会将任务发送给 openclaw, 所以 这个自动回调流程,它会读取这两个文件里的内容,并且写入到这一个文件,然后 openclaw 就 会将这些信息推送到我们的聊天软件,这样的话我们就能够实现 在 open cloud 中向 cloud code 下达开发任务,然后由 cloud code 自主完成开发。当完成开发之后再触发这两个 hux, 最后我们的聊天软件就会收到推送通知。好,下面我们可以先用一个简单的开发案例来测试一下。在主 a 选项这里,我们直接在对话框中输入我们的任务, 我是为了是用 cloud code 的 a g and team 协助模式构建一个基于物理引擎还有 h t m l c s s 的 带材质系统的落沙模拟游戏,然后我们直接发送,看一下这个效果, 这里很快输出提示,它已经将这个任务派发给 cloud code 的 agent teams。 这个开发模式就是调用 cloud code 的 agent teams 多智能体写作,这里还给出了这个工作路径,然后这里它提到完成后会自动通知到群里, 像这样的话,这个主 agent 的 线称并没有被阻塞,它还可以继续为我们执行其他的任务。比如说我们在这个主 agent 中继续输入任务,比 比如说让他查询新加坡今天的天气,然后我们直接点击发送,看一下最终的效果。像我们如果采取传统的方式在 open cloud 中来调用 cloud code, 在 主 agent 中必须等到 cloud code 真正完成开发之后,这个主 agent 呢才会继续执行我们的其他任务。 像我们采取了现在这种方式,这个主 agent 的 进程并没有被阻塞,所以我们让他查询新加坡的天气,然后这里他就很快查询了一个天气,然后我们还可以继续输入其他人物,比如说讲个笑话,然后这里他就很快输出了一个笑话。而 cloud code 在 后台完全是自主运行,不需要我们去干预, 然后我们只需要等待 cloud code 完成之后,将完成后的消息推送到这一个群组里就可以了。之所以设置为将完成后的消息单独推送到一个群组,是因为我们在这个 agent 中可能还在进行其他任务的操作, 比如说让他讲个笑话,他在讲笑话的时候突然多出来一条任务完成提示,这样会导致这个上下文窗口比较混乱,所以我们就将他完成后的这个消息推送单独推送到一个群组里,这样的话就不会占用这个主 a 智能的这个聊天窗口。在这个群组里我们就看到了这个消息推送,我们点开群组 查看一下,在这里我们就看到了这个任务推送,这里提示 cloud 的 任务完成。这里是开发的这个游戏,然后这里是游戏的路径, 在 cloud 的 code 中使用的就是 agent teams, 这里就是给出的项目文件,然后这里它还推送了第二条消息,这里还给出了完成时间大概六分钟,然后这里还包含一百八十四个测试通过, 然后这里就是给出的交付,然后这里还给出了这些性能,下面我们可以输入提示词,让他将代码文件打包发给我,这样的话我们就可以在本地打开进行测试,因为我的 open cloud 是 运行在云端的 好,这里他将为我们开发的这个项目文件发送给了我们,这里还提示解压后在浏览器中就可以打开使用,然后我们直接点开,然后我们在浏览器中打开看一下这个效果,就是他开发的这个落沙游戏,我们可以先测试一下,我们选择这个沙子 好,这样点击之后这个沙子就落在了底下,然后我们再点击这个水 好,可以看到水落在了沙子上,然后我们再给它加一把火,可以看到这个火会往天上飘,再给它加一些木头, 然后再给它加一些蒸汽,可以看到这个蒸汽飘到木头上会变成雨。像这样的话,我们就真正实现了在 open cloud 中调用 cloud code 进行开发。大家就不用担心在 open cloud 中调用 cloud code 非常浪费。 token, opencloud 所消耗的 token 几乎可以忽略不计,哪怕我们不在电脑前,也可以通过手机向 opencloud 下达开发指令。当完成开发之后,我们就可以在群组中查看推送的这些消息。

看看我的 agent 团队们,有写图文的、网站运营的、监控金价的、记账的,还有提供情绪价值的,后面还要增加一个视频剪辑的 open cloud 小 龙虾 用上多 agent 的 模式了吗?但像我这样每个 agent 对 应一个机器人的配置是有点广泛。在飞书上其实有一种更简单的方式,就是通过拉群,实现一个机器人多个 agent 多个群聊分别管理的模式。我们来以选择题、写作和神稿三个事情为例,完整的配置一遍, 一共三个步骤。首先用这样的命令创建多个 agent, 分 别负责不同的工作,然后给每个 agent 的 职责拉一个飞书群,并且把我们的唯一的这一个 飞书机器人添加到群里面。接着把每一个群聊和 agent 绑定起来,在这里查看群的 id, 通过这样的 bindings 配置把两者映设起来。最后不要忘记给飞书 channel 增加这两张配置,开放群聊和群聊中,不需要艾特机器人也能回复。 配置完成之后,在各个群里和 agent 对 话,给他们安排好职责和身份,让他们记录下来,你就可以在不同的群里指挥不同的员工工作了。像这样的流程,先选择题再写作,审稿,审完再改, 最后得到一篇完整的内容就可以发布了。这样做配置简单,效果强大,快来把你的 agent 军团也安排起来吧!关注我,带你玩转 open club!

好的,昨天我的朋友和我提到了 openclaw, 我 也很感兴趣。呃,所以呢,我就让 deepsea 给了我一些 openclaw 的 使用和安装的教程。 呃,那么 deepsea 它给了我三种方案。第一种呢,也是现在大家使用 openclaw 最多的一种方式, 就是直接付费,就是每个月花一点钱,像 kimi klo 啊,或者说像这个阿里云, 它也有嫁接这个 open klo 的 这个服务的产品,那么每个月费用可能在一百到两百元不等。 那么但是呢,这个方案它有一个弊端,就是相当于你可以很快速的使用这个 open k 二点五模型的一些强大的功能, 但是他控制权不在自己的手上,因为相当于你需要把指令发到云服务器上,然后由这个比如说 kimi 在 云服务器上的这个呃模型来进行这个工作,再给你反馈结果。 那么这个呢?第一个是数据隐私的问题。呃,比如说我的职业是律师,那我对于用户的数据保密的工作是要求非常高的,这也是为什么我一直很少使用 ai 智能工具的原因。 第二个呢,就是控制权不在自己的手上,如果有一天这个云服务器上他因为这个模块更新,或者说因为这个呃数据泄露的问题,如果嗯发生了这种问题, 这个自己是控制不了的。呃,那么呃,而且呢,包括就是你的这个数据和你所训练出来的这个呃 open call 也有可能会被别人去窃取。 呃,那么第二种方案的话呢,就是进行本地化部署,那这个的话呢,就是 deepsea 他 强调是需要有一定的呃,这个就是软件方面的编程方面的一些基础,基础 按理说我是没有的,但是呢,我还是想试一下。那很幸运,就是最后我还是完成了本地化部署。 它相当于是首先你要先用这个,呃微软的 power share 去输入一些指令去安装 plo, 然后呢再去拉取一些这个模型,比如说,呃,用奥拉玛去拉取这个,呃,千问千问,呃,比如说二点五,三点零, 呃,我选择的呢是 moonlight, 就是 也是 kimi, 但只不过我和他们的区别就在于我的控制权在本地,我呢是先注册了一个 api 的, 一个就是一个账户,呃,然后呢,我,嗯 会发送指令,然后呢也是由这个这个 kimi 的 这个二点五的模型来帮我去工作,但是呢,我的控制权在本地,包括我的数据也在本地,数据是不会上传到云服务器的啊,这是第一个区别,第二个区别就是我是没有固定的费用的。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

今天给大家出一期 open call 大 龙虾,格式化全免费部署,无需担心偷个人消耗,也不用命令行三分钟小白也能够轻松拿下。今天要使用的就是这款开源的项目 coox, 这个 项目可以让 open call 部署变得非常简单,不需要命令行,全部都是格式化操作。而在原项目的基础上做了一点点优化和一些汉化处理,更加适合我们中国宝宝的体质,哈哈, ok, 废话不多说,直接开始操作,这里直接点击下一步环境检查这里,等它全部变成绿色,然后直接点击下一步,这些需要的环境它项目都自带了,所以这里基本上也不需要怎么管。然后这里是 f 无商配置的界面, 这里有 topic cloud、 openidact, 还有 google 的 gemini 等等。然后这里还有智普的 g l m 系列的模型,然后这边我还增加了一个硅基流动。翰讯飞星辰的模型提供商为什么要增加这两个?首先硅基流动是因为我这边有一些官方给的奖励券,我就想着给这个渠道加入进来,因为新用户注册,官方也都会赠送奖励券,所以我想着这样大家也可以先低成本体验一下 opencloud。 然后讯飞星辰的话,官方目前的活动是不分模型,限时免费至三月五日。 这里我看了一下最新的 g m t m k 二点五,还有 mini max i 二点一也是可以免费使用的,对于我们大部分的小伙伴来说,主要还是先体验为主,所以这些免费的模型当然是最合适的了。这里我使用讯飞星辰的做个演示,自己注册一下讯飞星辰,然后生成一个 ipad, 填到这里模型,这里选择你想使用的,这里稍等一下,它需要校验一下。 ok, 密奥校验通过,我们点击下一步, 这里需要选择消息频道,我今天使用飞速来进行演示,这里飞速的具体配置大家可以自行看一下官方文档,这个非常的简单,跟着一步做就行。我这里已经配置好了,它会有 r i d 和 up sequence, 直接把这两个复制到我们的部署向导中即可,复制进来之后点击这个验证并保存。 ok, 这样飞速也就配置好了。直接点击下一步 好了。到此为止,我们的 open call 就 已经部署好了,现在让我去试一下。 这里是我之前测试过的消息,这里不用管。飞书中出现这个小图标就说明你的 open 客户在运行中。 ok, 成功回复了,说明没问题。接下来我先给他设置一个称呼,让他以后叫我老板。 ok, 称呼配置好了,接下来我给他安排些小任务试一下。 这里可能是模型的问题,也可能是系统的问题,反正是出了点小插曲,不过没事,让他自己搞一下, 嘿,没毛病哈。 ok, 这是电脑版飞书,现在我来试一下手机版飞书, 好像也是没什么毛病。这出门再也不焦虑了。确实好使啊,我不喜欢表格,让他给我格式化处理一下。 你模型操作有点小慢,稍等一下,毕竟是免费的。 好了,这里已经给我生成了 s, d, m l 文件,然后我叫他帮我打开一下 好了,确实没毛病。本期作品就到这里,马上就要过年了,主播祝各位小伙伴新年快乐,万事!

o 本 klo 是 一款可本地部署,能自动执行网页操作的开源 ai 代理工具,用它操控 boss 直聘,核心是让它自动帮你刷岗位,发消息、投简历,跟踪进度,大幅提升求职效率。下面是完整可落地的方法,先搞懂 o 本 klo 能帮你做什么? 自动搜索筛选岗位,自动给 hr 发定制化打招呼消息自动投递简历收藏岗位自动刷新,监控新岗位并提醒。自动记录沟通记录面试邀约进度统计。 二、准备工作必须先做本地部署,推荐个人使用云端部署二十四小时运行,用 docker 或阿里云一键部署,安装必备插件 skills 准备。八、四、直聘账号 三、核心用 opencloud 操控 boss 直聘,让 opencloud 打开并登录 boss 直聘,自动搜索加筛选岗位最常用,自动给 a 乔发打招呼,消息自动投递加收藏加跟踪,定时刷新加监控,新岗位 自动统计求职进度。四、安全与合规账号安全,不要共享账号,不要频繁切换 ip, 不要短时间大量投币。平台规则, boss 直聘禁止自动化批量操作,仅用于个人辅助,少量使用。隐私保护 open core 本地部署账号密码仅存在本地,不上传第三方频率控制,每个岗位间隔二到五分钟,每天投递不超过五十个模拟真行为。 五、常见问题与解决问题一, open call 无法登录 bus 之屁问题二,发送消息被限制 问题三,筛选结果不准确,大家可以尝试一下,有什么问题欢迎沟通。

哈喽哈喽,今天分享一下 opencloud 接入飞书,以及建立多个不同的飞书群聊 agent 来处理不同的任务。自己呢是在本地以及云服务器都部署了 opencloud, 但是呢本地部署可以做一些像浏览器,网页之类的任务, 但是电脑关了之后,你跟他交流就不是特别方便。一服务器的优点呢,就是他可以七乘以二十四小时随时工作,像电脑关了之后也可以处理很多的任务,所以呢我基本上两个同时在用, 如果你还不会部署 open class 的 话,可以去看我上一期的视频,非说多 a 证,它的原理是搭建了一个机器人,然后可以创建不同的群聊。 a 证可以看到呢,我这里有很多不同的群聊,比如说任务呀,编程,然后理财群,然后这边是写作, 然后这边是资讯,通过这种建立多个群聊的方式,让他们每个群聊都可以实现不同的任务,这样的话处理工作事情的时候的效率会更高。 首先呢是 open club, 跟我们的飞书做一个连接,通过飞书对话呢,就可以跟我们的 open club 的 小机器人来进行交流。首先呢要打开这个飞书开放平台,然后打开这个开发者的一个后台,先点击创建企业自建应用, 然后你可以给他起一个名字,比如说我起一个机器人的名字叫三号描述这里呢随便输入一下,然后选择一个机器人的图标以及颜色, 然后创建就可以了。在这个添加应用能力这里选择这个机器人添加, 添加完了之后呢,在这个凭证与基础信息这里,它又有一个 apple id 和 apple secret, 将这个里面的这个复制到这个腾讯云的这个后台里后,应用管理 在这个腾讯云后台的这个 channel 里,然后选择飞书,把这个刚才的这个 id 粘贴进来,然后把这个 secret 也粘贴进来,然后添加并应用,它就会添加了 显示已接入通道,在运行当中。先在这个事件回调,然后这有一个订阅方式,选择以长使用长事件接收事件,这个地方点保存,然后选择添加事件, 这里输入接收消息,点击一下,然后点击一下,然后确认添加确认开通权限, 然后点击这个左侧的这个权限管理,需要开通一些获取群聊,获取单聊群组,但是呢,我们这里一个挨个的输入会比较麻烦,我们这里有一行代码啊,然后把这行代码直接粘贴进来就可以了。 在这个批量导入,导入导出权限这里把这个全选覆盖掉,然后点击下一步申请开通 确认,再确认一下,现在的可以检查一下这些权限都已经开通了。然后呢再在这个版本管理与发布里,然后点击创建版本, 默认的画线是一点零点零,然后机器人更新,说明伟大的机器人将诞生。好呀,好重啊。嗯,然后保存一下, 保存之后呢,可以看到这个当前版本已经发布了,他这个绿色的就说明已经发布成功了。发布了成功了之后呢,我们去这个飞书里面这个搜索这个消息里搜索三号刚才我们创建的这个机器人, 然后点击他啊,说明我们已经创建成功了,先给他随意的发送一些消息, 发送了消息,这说明他已经创我们已经创建成功了。然后把下面最最下面这一行的命令 啊,发送给我们的这个服务器啊,我们打开我们的云服务器,点击这个登录,然后点击登录,将我们的这行命令 粘贴给他,看到这行命令就说明我们已经成功了,然后我们再去跟这个机器人发个消息, 现在呢就说明我们的这个机器人已经配置成功了。然后呢我们创建飞书的多个群聊,先去建立单独的一个群聊,让每个机器人在不同的群聊里做不同的工作, 这样的优点就是可以同时进行不同的任务,他不会被打断,而且对话的效率会更高一点。首先呢我们要在视频的左上角点击这个加号创建群组,我们这里随意起个名字,比如说资讯, 然后点击创建,然后右上角的三个点点击设置,这里有个群机器人,然后添加机器人,我们把我们刚添加的这个三号的机器人添加进来,添加进来之后我们要在设置里到最底部,然后复制这个 id, 然后粘贴进来。如果你的电脑有些版本,他可能会不显示这个 id, 然后粘贴进来,如果你的电脑有一些版本,复制这个 id 就 可以了。 跟他对话的命令之前一定要艾特这个机器人,如果在群聊里不艾特他,他是接收不到你的消息的。行,帮我配置成新闻资讯 agent, 可以 看到他已经回复了,现在呢这个群聊就是已经是一个新闻资讯的一个群聊了,你可以问他一些新闻资讯的内容,然后呢,像现在还缺少一些 skills, 你 可以让他学习一些 skills, 就 比如说 通过一些 api, 然后他会自动的帮你抓取一些新闻。你可以像我这样呢,创建多个不同的群聊,每个群聊负责不同的任务,这样的话你跟 open club 布置任务的时候,他的工作效率会更高一些,然后的话也可以同时处理多个不同的任务。 好了,以上就是今天的全部内容,如果感觉视频对你有用的话,记得点赞、转发、收藏、关注我。如果你还不会使用 open club 的 话,可以看我上一期视频,我们下期再讲。

今天给大家介绍一个方法,就是让 openclaw 当一个调度员,去指挥多个 ai 编程工具,帮你完成编程任务。 那为什么这么做呢?我今天遇到一个问题,就是我让我的研发的 agent 去帮我写代码的时候,发现他很长时间没有回复我,我看代码也没有提交,我就问他,我说你根本就没有提交代码,是任务超时了吗?你把原因告诉我。 最后他给我的回复确实是超时了,因为 openclock 他的机制,如果说一个任务时间过长的话,他有可能被杀掉,所以任务就 终止了,而且他甚至他都不会主动告诉你。那怎么去解决呢?现在有一种办法,就是用一个叫 t m u x 的工具来解决,这是个什么东西呢?你就可以理解,它就是一个不会被关掉的,在后台运行的这么一个程序窗口, 那在这个窗口当中你去调用 cloud code 或者 codex, 就是 这个逻辑。那让 chat gpt 给大家解释一下,就这么一个结构,我们 让 openclaw 去调度在 t m u x 当中的各个编程工具, cloud code x, gemini 都可以,说白了你就把它当一个人去用,它打开了多个命令行工具去写代码,就这么一个道理。 那这有个什么好处呢?第一, openclaw 的 这个上下文你就可以随时跟他交流了,因为他只是一个调度员,他不是原来那个写代码的人。 像之前如果他又要写代码,又要跟你回复,他要停下他代码的工作才能回复你,或者他在写代码的时候,他就没有办法回复你,因为他的绘画是一直在持续的。那怎么去用?也很简单,就直接告诉他让去安装 t m u x, 并且安装这些命令行工具,然后让他把授权的链接发给你,你在本地授权之后把 code 给他就可以了。 那你也可以让他定时的去检查这些命令行工作的进度,汇报给你,并且最后让他去审一下修改的代码,如果他们有任何的讨论, 让他们自己处理,处理完讨论一致之后把结果汇报给你。所以这是用 t m u x 去解决 这种长时间的编程任务的一种办法。那给大家看一下,目前我有个任务还在进行当中,那在这里你就可以看到他在改哪些代码,他都会告诉你。好,大家可以去试试。

这个开源项目简直不要太酷,只要十来块钱的 esp 三二 s 三,插上 usb 电源就能丝滑运行 open 框。 mini 框没有 linux 和 note gs, 只有纯粹的语言,堪称 open 框基础平替。只要零点五 w 功率,八 mb 三内存,十六 mb flash 存储的开发板,连上 wifi 就能二十四小时不间断运行 open 框,性价比直接拉满 flash 持久化存储上下文重启后直接从 flash 加载,根本不怕忘掉对话,并且支持 telegram 接入,所有设备都在十几块芯片上运行。这套方案不仅便宜还优雅,非常值得研究研究。