粉丝13获赞136

兄弟们,就在刚刚扣子编程推出了一键部署安装可乐的 boss 小 龙虾的功能,之前很多人就卡在安装上,需要处理环境依赖后台服务、配置文件等等,那现在不用你到处搜索安装教程了,扣子直接帮你解决了这些繁琐的流程, 只需要简单几步,就能在扣子编程上用自然语言编排。小龙虾的 ai 助理目前支持飞出和钉钉消息渠道的配置,完成助理上线, 而且你还可以把自己开发的技能和扣子技能商店里的开源技能安装到自己的可 out 的 boss 项目里来,增强垂直领域的能力。需要的小伙伴赶紧去试一下吧!

openclaw 这么火,你还没用上吗?是不是还没考虑好部署方案?要不来扣子看看?扣子编程现已支持一键安装, openclaw 开发者可在扣子编程沙箱环境快速安装部署,打造定制个人 ai 助理。相比本地运行,扣子编程安装便捷,保护数据和 api 隐私,安全保障二十四小时稳定运行,是开发者快速搭建体验新一代 ai 助理的便捷方案。 相比云服务器运行,扣子编程无需手动选购服务器开通模型,通过自然语言交互,让扣子 ai 填写配置文件,实现开箱即用。相关部署教程有需要的请联系我,免费发给您。关注我,教你如何使用扣子。

今天我们用 opencloud 的 安装技能,同时呢做一个应用,什么样的应用呢?我们去监控这个网站的,然后这个商品的价格,如果说他低于五十刀了,那么自动用我们的邮件技能给我们的邮箱发一份邮件。好,我们开始干。 然后呢这边其实就是呃, cloud 的 一个技能的一个库,那么我们可以怎样的去查找技能呢?比如说我们这里可以搜索 email, 然后就可以找到很多的技能,比如说我们这一次其实要装的就是 这个。好,那我们直接在这里执行命令行,找到我们的控制台好,执行命令行, 好,已经安装完了。好,我们继续。然后呢我们看一下它这边需要怎么样去配置,它说需要在你的 skill 技能里面呢,创建这么一个文件,同时呢要放上你的邮箱还有你的一个密码,这里呢我们就要去找 gmail 的 这个密码。然后呢我们可以打开这个, 好,打开这个网址,好,登录一下, 好,这里呢我们就起一个 boat 创建, 看,这里它给了我一串密码,对吧?那我们要记住这个密码。然后呢把我们刚才的内容填充一下,比如说这里 your password, 是 吧?这里也是 your password。 好, ok 啊,但是这里应该是不要有空格的。对, 好,然后他说的是到我们的一个目录文件里面,我们去看一下那个目录文件。呃,在 这里,然后我们去 cd 的 它,它安装到这里了嘛? cd 的 它,然后呢他要求我们去创建一个点 e n v, 那 我们就 v i v i 一个它,然后去搞我们的文件,这里把我们的用户名和密码相关的都给它怼进去, 粘贴 esc 冒号 w q。 好, 这个时候呢,我们可以去测试一下,然后来到这里,比如说给二八二八六七九零八 qq 点 com 发送一封邮件,标题为啊, open cloud 测试邮件内容和标题一样,直接发送就可以了,看看它能不能生效。它说邮件正在处理中, 缺这个邮件工具。嗯,我现在正在为你安装他,请稍后片刻让他自己装。嗯,你安装好了吗?安装好了继续发送邮件。 嗯,安装已经完成了,哎,已经发掉了,我们来 qq 邮箱这边收一下看,哎,邮件收到了是吧? 好,我们去监控网站的一个商品价格变动,比如说这边,然后这个商品就是比较好看,对不对?我们去监控他的一个价格,如果说低于五十刀的话,让他们给我们发一份邮件,然后这边呢,我们就可以直接这样子去操作,比如说发送给他, 然后双手举起来,等他自己去操作。好,你看他这边已经执行完成了,然后同时呢向我们发了一封邮件,这边呢, qq 邮箱也收到了,说,哎,这个商品降价了。 好,这样子呢,我们就完成了邮件这个技能的一个安装和使用,以及实际的应用场景。

你肯定没见过比这更简单的 oppo pro 安装教程,只需要一句话,直接自动安装。打开 mini max, 桌面端,输入帮我配置 oppo pro 低整将自动完成相关配置。安装完成后,输入 mini max 的 api key, 等待一会后配置自动完成,就可以在前端测试效果了。输入你是什么模型,可以看到 oppo pro 已经配置完成。

最近爆火的 opencloud 大 龙虾大家都用上了吗?我已经在我的 windows 电脑和 mac 电脑上都用上了,而且连通了飞书,现在我在我手机上的飞书 app 上发送消息,我的智能体就能接收到信息,并且按照我的要求为我执行任务了。 今天我就来为大家介绍一下 opencloud 的 安装和使用方法,以及如何连接通讯软件。比如飞书,让你在手机上就可以发送指令,操控智能体。 所有的安装步骤和注意事项我都整理成了文档视频的最后我会分享给大家。今天的视频主要有以下几个部分,首先,我们来快速的安装并使用 openclaw, 包含 windows 和 mac 两个系统,这一步是为了让大家快速的用上并熟悉 openclaw。 然后我们来看一下如何为 openclaw 安装插件和 skill, 以及去哪里寻找相关的 skill 资源。 第三,我们来连接即时通讯软件,让你能够在手机端实时发送消息,操控智能体。这里我们以飞书为例。 第四,我快速的为大家展示一下如何在 dalker 这个隔离环境中安装 openclaw, 以及安全性问题和 token 相关问题。那这一步是当你真的想把 openclaw 当成你的 ai 数字员工,让它在生产环境中为你打工, 那我们就正式开始。首先,在本机快速安装 opencloud, 我 们需要保证我们的电脑上已经安装了 node js, 版本号大于二十二,以及安装了 git。 其实 node js 已经是我们的老朋友了,我们之前安装 cloud code, open code, java 都是通过 node js 安装的,那在 ai 时代, node js 是 你电脑上必不可少的工具,直接到 node js 官网下载,然后双击安装即可。 git 也是一样, 当我们想要在 github 上下载开源项目和资源的时候, git 是 最好的工具,安装方式也是一样,到 git 官网下载,然后双击安装即可。那注意,这一步对于 windows 和 mac 来说是完全一样的,没有任何差别。 然后我们打开命令行工具, windows 就是 cmd, mac 就是 terminal。 在 命令行里输入 node 空格横线 v 查看 node js 版本,输入 npm 空格横线 v 查看 npm 版本, 输入 get 空格横线 v 查看 get 版本,能够输出版本号,那就说明一切准备就绪,然后我们来安装 openclaw, 其实一共就两个命令,首先我们在命令行里输入 npm 空格 install 空格横线 g 空格 openclaw at latest, 然后回车。那这一步会在你的电脑上安装 openclaw。 这里我们要注意一点,你要确保你的电脑的网络环境是 ok 的, 如果出现网络问题,尤其是网络连接超时,你可以使用 n p m 的 国内镜像来安装。那具体的方法就是先运行一行命令,把 n p m 转向国内的镜像,然后再进行 n p m 意识到具体的命令我也展示在屏幕上了。 在 n p m 意识到成功后,我们运行第二个命令, open clock 空格横线横线意识到横线低蒙。这一步是进行驶出话点击回车之后,稍等一会儿就会进入驶画界面。 在初次化界面,第一个问题,我们用键盘的上下左右箭头按键切换到 yes, 然后回车。那第一个问题呢,是让你知道这个工具的风险。然后第二个问题,我们选择 quick start, 也就是快速开始,然后点击回车。 那第三个问题就是选择一个 ai 大 模型,你可以使用你常用的 ai 大 模型,要注意一点啊,这里使用的是 a p i p。 那 建议大家用一个有免费额度的 ai 先进行体验,等你熟悉了这个工具之后呢,再去购买 ai 的 订阅套餐。 这里我选择的是智普 g l m, 然后我们到智普的官网进入后台创建一个 a p i t, 然后复制出来,到命令行里进行粘贴,然后回车,然后模型,我们这里选择 g l m 四点七, 然后继续。那后面的问题我们都选择跳过或者 no, 包括是否安装 skill 以及是否配置聊天软件,那因为这些呢,我们都可以过后在图形界面中进行设置。那最后一个问题 就是 how do you want to hatch your boot? 意思就是说你想通过什么方式访问你的机器人,那这里我们选择 open the web ui, 也就是说通过网页版图形界面进行访问,那图形界面适合我们绝大多数人,如果你有编程背景,你也可以选择通过命令行访问,那之后它就会自动弹出网页, 进入到 opencll 的 智能体界面,然后我们在 ai 对 话框中输入,你好, ai 能够进行回复,就说明配置成功了,那么到此你的 opencll 就 正式运行起来了。 我们再来做一个测试,在 ai 对 话框中输入指令,在我的 mac 用户瞩目下,创建一个名为 jason 横线 opencll 的 文件夹,然后 ai 就 进行了文件夹创建,那么到此你就可以开始尝试让 opencll 为你做各种事情了, 那在这里我要强调一点,以上安装方式是直接在本机安装, windows 和 mac 是 一样的方法,运行的命令也是一样的。我们唯一需要注意的就是安全性问题,你不要把太多的个人隐私数据放到本地,以防 ai 一 不小心给你删了。 那接下来我们来看看如何安装插件和 skills, 以及在哪里可以找到 openclaw 的 优质资源。我们首先要知道 openclaw 本身自带了很多 skills, 我 们在 openclaw 的 网页上左侧菜单点击 skills, 然后点击这个 build in skills, 就 能展开它自带 skills 的 列表, 里面有一些 skills, 暂时被 block 的 话,你可以在右边看到对应的安装按钮,点击就可以安装依赖,然后这个 skills 就 可以使用了。 另外,当你在 github 上看到一些 skills 想要安装,你并不需要手动安装,你直接把 github 的 链接发给 openclaw, 让它自己安装就可以了。我们知道 openclaw 是 一个 ai 智能体,它已经足够智能,已经是一个成熟的智能体了,能能自己赚钱养家了啊,那它自己就可以给自己安装 skills。 那么我们从哪里寻找 skills 以及有哪些必装的 skills 呢?两个核心的社区,一个是 github 上的 awesome openclaw skills 这个仓库,那这里收集了几千个优质的 skills, 并且有详细的分类。那其次我们在 openclaw 的 官网 可以找到一个名为 clawhab 的 链接,点进去这里就是官方的 skill 市场。那我我总结了一些必装的 skills, 我 认为最核心的就是 fun skills, 这个 skill 也是目前社区中下载量最高的 skill, 当你提出一个具体的使用场景的时候,这个 skill 可以 帮助智能体找到并安装对应的 skills, 这样一来你就不再需要自己亲自去翻找 skills 了,它自己就能找了。 另外最好安装这几个联网和网络搜索的相关 skills 来增强网络搜索能力。那最后当你想要实现某一个具体功能的时候,你就可以直接向 ai 描述你的功能场景,并让它自己先分析需要安装哪些工具,然后自行安装就可以了。那么以上就是工具的安装, 到此,大家就可以无障碍的快速上手使用 open cloud 了。再次提醒一下,注意安全和隐私问题, 那接下来我们实现一个进阶功能,连接即时通讯软件,让你在手机上发送消息,就能操控智能体帮你干活。 我们在 opencloud 的 网页上左侧的 chinese 选项点进去就能看到它目前支持的通讯工具。那使用这些工具比较简单,以 whatsapp 为例 啊,我们在用户目录下的点 opencloud 文件夹里的 opencloud, 点 json 中配置自己的 whatsapp 号码,然后在命令行中运行 opencloud 空格 chines, 空格 log in, 然后用手机 whatsapp 扫描弹出的二维码就可以了。但是目前 openclaw 并不支持微信或者 qq 这一类中文通讯工具,那在中文环境中,截止到目前为止,最好用的就是飞书, 只需要创建一个聊天机器人就可以连接 openclaw 发消息了,而且这个方式不会造成安全隐患,因为飞书里没有你的私人通讯录,那接下来我就来讲一下如何把 openclaw 连接飞书。 首先我们要安装一个飞书插件,命令就是 opencloud 空格 plug ins 空格 install 卖家插件的名字。安装之后,我们来到飞书开放平台 注册登录,之后点击右上角开发者后台,然后点击创建企业自建应用,起一个名字,然后选择图标,点击创建,然后在左侧的菜单栏里点击添加应用能力,然后选择机器人,然后添加, 然后来到权限管理页面,我们可以点击开通权限,然后搜索关键词 message, 把有关收发消息的权限都勾选上。 那如果大家嫌麻烦,可以直接点击批量导入,然后把我笔记中的这段 jason 复制进去,然后点击开通就可以了。那这一步的目的是给与机器人相应的权限。然后我们点击左侧菜单的版本管理与发布,填入一个版本号,一点零点零,然后发布这个机器人, 然后点击左侧凭证与基础信息,把 app id 和 app secret 保存下来,然后我们回到 opencloud 页面, 点击左侧菜单中的 channel。 因为刚才安装了飞书插件,所以现在显示的就是飞书的配置界面。首先把 app id 和 app secret 配置进去,然后 connection mode, 选择 web socket, 我 们填飞书, dm policy 和 group policy 都选 open, 然后保存就可以了。 然后我们回到飞书界面,点击左侧的事件与回调事件配置,这里选择长链接,然后点击添加事件,搜索关键词 receive, 勾选这个接受消息,然后点击确认,然后再次重新发布一下机器人,到此所有配置就完成了。 然后我们来到飞书 app, 你 可以在手机上下载 app, 也可以在电脑上下载飞书 app, 在 聊天界面的搜索你创建的机器人名称,那我的机器人叫 jason bot。 然后就可以向机器人发送消息了。我们先发送一个,你好,你是谁?第一次发送消息的响应速度会比较慢,稍等一会我们能,我们就能接收到回复了。 然后我们再发送一个指令,在我的用户瞩目下,创建一个名字叫 jason 横线飞出的文件夹,点击发送,然后智能体就开始开始执行任务了, 马上文件夹就创建好了,那么到此我们就成功连通了飞书。只要我们的电脑是开机状态, open cloud 是 运行状态,我们出去玩的时候,用手机飞书 app 发送消息,就可以给智能体下命令,让它干活了。 到此你已经掌握了 open cloud 的 主要的基础功能,你现在就可以上手试用这个智能体工具了。那最后我来快速介绍一下如何在 docker 这个隔离环境中部署 open cloud 以及 token 相关问题。当你深入使用了 open cloud 这个工具, 觉得你确实需要一个这样的数字,员工来二十四小时为你干活,那么最好的方式就是在一个隔离环境中部署它。这也是为什么 open cloud 带动了 mac mini 的 销量,因为 mac mini 性价比高,运行功率低,适合二十四小时不间断运行,那还是一个全新的环境。 所以你也可以在本地使用 docker 这个隔离环境来部署 openclaw。 方法很简单,首先要安装 docker desktop 这个 app, 那 它也是我们的老朋友了,那之前安装 n 八 n 和 deepface 都是用它安装的。安装好之后,我们来到 openclaw 的 官方 get up 仓库,把这个仓库下载下来。 我们使用 git clone 命令把它下载到本地之后,在文件夹内就能看到一个名字叫 docker setup 点 s h 的 文件,我们在当前文件夹内打开 bash 工具。那这里要注意啊, mac 可以 直接用 terminal, 而 windows 则需要使用 git bash 这一类的 bash 工具。 我们输入点斜线 docker 横线, setup 点 s h, 然后它就自动安装了。那另外呢,你也要注意网络问题,开启代理 安装成功之后,就自动进入到了出场界面,那和之前是一样的,选择 ai 模型,然后配置 a p i p, 这里我就不多做展示了。那我个人更建议大家使用独立的电脑或者云服务器来部署这个 ai 数字员工, 因为本地刀客的使用还是需要一定的技术门槛,尤其是网络问题和权限问题。那如果你没有编程背景,确实是有一定难度的,那目前阿里云和腾讯云都集成了 open cloud, 非常方便。 那另一个就是 token 问题,智能体的运行非常消耗 token, 那 说不定一晚上过去你的卡就刷爆了。那这里建议大家订阅类似 coding plan 的 套餐,在五小时内允许几十次的访问, 那类似这种包月的方式就不会让你的 token 无限制消耗了。那目前最经济实惠的 ai 模型就是智普、 glm, mini max 以及 kimi, 大家选择自己喜欢的就可以了。那最后还是要强调,一定要注意安全和隐私问题,不要让 ai 访问自己的核心隐私数据, 那么到此本期视频内容就结束了,那具体的安装步骤我都整理成了文档,大家可以在我的主页频道信息中找到我的个人网站,在那里可以下载文档和资料。大家在使用过程中有任何问题都可以给我留言,记得点赞关注,谢谢大家!

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

好,那么接下来啊,我们本期空白课所有的这个内容都是围绕着刚才我们所说这两个命题展开,首先讲它的底层架构,第二个呢,看看它的有哪些境界玩法。当然在讲这些内容之前,我们还是需要快速大家看一下这个呃, open club 到底怎么样来进行部署啊? 当然这个部署这个内容其实我之前已经讲过很多次了,我们上一场空白课,包括我的视频也有讲到过啊,包括本身 open club 这个这样的一个项目,他的部署起来也不会特别复杂啊,所以呢,我们这就快速大家看一下啊,怎么样来进行部署。大家如果 确实对部署这个流程不太熟悉的话,也可以找到我们助教老师领取到本期公开课的课,也可以参照着课间里面的这个文字内容呢来进行学习啊,也是可以的。那么首先哈,现在对 open club 来说,总共呢是有这么 啊三种部署这样的个方法啊,呃呃,三个不同的这个平台都是可以来进部署的啊,比如说这个 mac os, linux 和这个 windows, 那 么其中呢,这个 windows 部署起来会稍微有点复杂,因为它会需要这个 ws l 二的这样的这个环境,这个 ws l 二是个什么东西啊?它呢实际上是一个运行在 windows 系统上, windows 系统上的一个 linux 虚拟机。 然后呢,对于像 openclaw 这样的一个项目来说,由于啊它需要有有守护进程啊,它呢还需要有一些啊这个唤醒的这样的功能,然后再比如它还有很高的一些,比如操作你本地文件这样的权限。 所以呢,对于这个项目来说,它的运行的稳定性和安全性要求是比较高的。那么 windows 操作系统啊,它由于一些问题啊,所以它可能没有办法很好地支持像 openclaw 这样项目的运行。所以呢, openclaw 这个项目如果要运行在 windows 上的话,实际上你是需要 在 windows 里面安装一个 wsl 这样的一个环境的,那么这个环境呢,其实安装起来并不会特别复杂,只需要增加额外命令就可以了啊,这个其实呃也不至于把你劝退,但确实,如果我们说你是呃 microsoft 或者 linux 服务器的话,那么安装起来其实会非常简单。 那么同时呢,由于这个 openclock 本身它并不是一个特别复杂的一个这个项目哎哈,这点是不是有有点反常识哈,有很多同学觉得说啊,通用智能体 它的这很多场景都能用,哎啊,高效稳定这样的东西,它居然不会特别不特,不是特别复杂。是的, opencloud 它本身呢,是一个基于这个 java script 和和这个 java script 开发的这样的一个项目。然后呢, 它底层的这个 agent core 啊,一个 agent 的 运行时,实际上是一种嵌入式的这样的一个架构,所以呢,它其实并不是主流意义上的我们之前所看到的啊,很加很复杂的前后段分离的这样的一个 agent 的 架构啊,所以呢,它的安装部署包括运行都不会那么的复杂 啊。当然其实也是因为他不那么复杂啊,所以呢,他的运行状态相对来说会比较稳定一些,那么一个不是特别复杂的这样的项目,他是怎么样拥有这么多的功能的呢啊,实际上啊,一会我们会说是因为他底层的这些基础设施发展的都很好,比如说之前的啊,我们很长段时间大模型的这些 啊,击中模型的性能实际上是,呃,在在过去的一年是有长足的这个进步,然后同时呢,在过去一年啊,关于 a 政的开发领域里边, cloud 他 们公司对不对? anselpric 啊,是贡献了 mcp 跟 skills 两个非常核心这样的一个技术 有了。呃,有了这个 m c p 跟 skills 之后呢,现在他还在进行 a 证开发的时候,实际上在很多时候都是一种组装的啊,这样的一个这个过程啊,就是把很多的一些零部件啊给它组装起来,哎,很多时候就能够组装出一个非常不错的这样的 agent。 那 么对于 opencloud 来说,其实就是这样的这个情况,它其实是基于一个非常好的一些底层的基础架构上来进行的 一个组装啊,只不过他的组装的应用场景非常不错,再加上他的这个底层的这些东西给他提供了非常好的性能保障啊,所以呢,大家会发现现在用起来非常好啊,这个他的价格我们一会会说啊,总的来说呢,他其实本身这个项目并不会特别复杂啊,所以呢,我们实际上在进行安装的时候呢, 也其实不会有太大的这样的个门槛啊,你只需要安装好这个 note g s 这样的个环境,然后呢,在 windows 里边你需要额外安装好 wsl 二啊,这样的一个呃虚拟机就可以来进行运行了。 ok, 那 下面啊,有详细的这个安装的这个步骤啊,大家回头可以 哎啊,稍等啊,大家回头可以啊,自己再去看一下啊,这下面有详细的啊,这图可能现在没有刷出来,我们一会稍等一下啊,他说不定就刷出来了, 那么这个呢,是它的一个这个基本的安装流程,那么我在上面啊是给大家详细的提供了啊,关于现在的这个 windows 操作,呃, mac os 和 linux 操作系统的安装流程,然后同时呢也 会给大家提供啊关于 windows 的 一个 wsl 的 这样的一个基本的部署流程啊,这个大家回头可以自己去看一下这个文档啊,稍等,我再回头再看一下这些图片啊,是什么?是什么情况? 那总之呢,其实对于 windows 系统来说,它唯一的这个区别就在于说它前期需要安装好这个 wsl 二,这个 wsl 二它的这个安装是一个什么样的这个情况哈,稍等一下啊,我把这个呃,我直接打开我们的这个,呃,直接打开 pdf 给大家看一下 啊,因为没有图片展示,确实呃确实效果不太好。那么这个 wsl 同样你只需要在命令呃,你只需要在命令行里边啊,给他这个来 install 一下啊,就可以来完成安装啊。然后呢, 呃这个 wsl 它的这个全称啊,是这个 linux 系统在 windows 系统里边的一个这个虚拟机,然后安装完了之后呢,你只需要啊输入这个 wsl, 然后杠 d 啊,就可以来这个呃 启动啊它的这样的一个虚拟机子,这样的这个服务。这个也是因为之前有很多同学一直会问到哈,说这个 windows 系统里边到底是呃怎么样去进行安装?安装时候会不会有很多的这个问题,很多的 bug 啊,正好我这里快速给大家看一下, 当然对于像 macos 和 linux 操作系统啊,其相对来说会比较简单一些。 ok 啊,那 windows 系统怎么样来进部署啊?我们快速给大家看一下啊,因为之前有很多同学都要问到啊,说这个关于 windows 怎么样来进部署,首先呢,这个 wsl 呢,是这个 a windows 服务器 for linux 二代啊这样的一个虚拟机啊,然后呢啊,你在进行安装之前,你就要看一下啊,你是不是 win 十一或者是 win 十的这个幺九零三这个版本啊,然后才能够去安装 wsl。 这你可以在系统信息里面去看啊,当前 windows 系统这样的版本啊,然后呢就要打开啊,这个命令行的这个提示符啊, sorry 这个命令提示符啊,打开这个命令行,然后呢,在命令行里面输入 wsl 杠 install 啊,就可以完成这个 wsl 这个安装啊,这个其实并不会特别的这个复杂, 安装完了之后,接下来就可以通过这个类似的这样的方式去看一下你当前的啊这个 linux 虚拟机,它到底叫什么样的这个名字,比如说啊,我这里是叫做无斑图, 然后呢就可以输入啊 ws l 杠 d 无斑图呢,去启动当前这样的虚拟机,启动完了之后,你发现这个命令行的这个颜色都不一样了,对不对啊,这命令行都变成这个绿色的了,当你看到这个命令行都变成前面都变成绿色了之后,那说明,哎,你现在的这个啊, ws l 的 环境呢,就已经是安装好的,那么接下来我们说你就可以 按照这个 macos 啊,或者是 linux 操作系统完全一样的安装流程去走后面的啊这些安装步骤了啊,就比如说如果啊,你现在安装好了之后呢,那么接下来你需要这个 app get update 一下啊,来去更新你的这个软件镜像源。 更新完了之后呢,接下来我们说通过这样的命令呢,去下载啊这个,呃, note g s 二十二点零的啊,这个最新版下载完了之后呢,接下来我们说就可以啊,来运行这个命令呢,来进行安装了啊。当然首先你需要先运行这个命令呢,去安装这个 note g s 啊这样的一个基本运行环境啊。然后接下来你确认一下这 note 这个版本啊,是不是大于二十二点零,那么接下来呢,我们说你就可以啊,去来进行这个输入 npm install 杠 g 啊, cloud 啊杠 g, 然后 open cloud at the latest 啊,就可以去完成关于你现在的 open cloud 这样最新版的这个安装。 当然 open cloud 现在是一天更新好几版哈,你去看安装的时候,其实你会发现每天的更新,每天安装的版本都不太一样啊,所以你也可以考虑定期来着更新一下, 也就说你整个的安装过程基本上啊,就是这么这么两三步啊。首先第一个呢,你需要安装 node js 这个环境,对不对啊?那安装完 node js 的 环境之后呢,那么接下来我们说你需要 去这个使用 npm 啊这样的个命令呢,去安装你的这个 openclaw, openclaw 这样的一个项目安装完之后,接下来就会进入到这个具体的配置这样的页面,然后呢,在具体配置的这个流程当中,我们需要稍微讲一讲啊,因为呃,有很多同学觉得说 openclaw 会不会这个 talk 量消耗特别大呀? 其实我们说现在 openclaw 是 提供了很多的一些这个免费的 a p i 哈,而且很多免费 a p i 用起来还是非常不错的啊,所以呢,其实你也不用特别担心关于 talkin 这样的问题啊,由于 openclaw 火,所以现在很多厂商都在争夺关于前端的这个流量入口这样的问题 啊,所以呢,有很多厂商啊,包括 mini max 二点一啊,包括这 kimi 二点五啊,包括千问都给它提供了这个免费的这个 a p i 可以 来进行使用啊,而且呢,目前我们来使用 openclaw, 基本上啊,国内用户也是一样的,处于一个完全免费这样的状态。 ok, 好, 那我们刚刚说,其实你整个安装过程啊,差不多啊,其中有一个非常核心的环节,就是当你已经完成了 node js 环境安装之后呢,那么接下来我们说你需要输入 npm install 对 不对? open 啊 clock 来进行 open clock 这样的这个安装,那么安装完成之后哈,那么我们需要输入 open clock on board 这样的个命令来进行设置 这个设置的过程啊,其实里边就会涉及到非常关键的啊,一些这个流程的安装啊,相关的这个内容啊,这个我们也快速的看一下。 那么在设置过程当中啊,当然首先呢,我们选择的 quick start 啊,来进行这个安装,然后同时呢,关于这个模型的供应商啊,我们这里你可以选择啊,这里有很多很多可以来进行选择哈,当然现在 如果啊,你是想这个选择免费的哈,这个呃免费的这个 api 的 话,那么在上面这个选项栏里边啊,你可以选择 这个 skip for now 啊,就暂时跳过,那么它就会直接给你弹出很多的一些免费的啊,一些这个 api 啊,然后供你来进行这个使用,也不需要输入 api key 啊,就可以直接呢来进行使用啊,包括这个前几天啊,一月三十号 彭科老最新的这个更新啊,还说了啊,这 kimi 二点五跟跟跟这个 mini max 啊,都加入了这个免费的全家桶的这个套餐啊,对不对?但是呢,这个免费的套餐稍微啊,就是呃会有一些这个问题,就是 mini max 二点一和 mini 二点五的这个免费套餐啊,运行起来不是很稳定啊,所以呢,如果想运行这免费套餐的话,目前最稳定的是 这个千问啊,就是中间这个选项啊,然后呢,这个呢,是调用千问的这个 app 啊,就是千问的那个呃对话应用他的 api 啊来进行对话,这个 api 呢,效果非常好啊,而且呢响应速度很快,而且完全免费 啊,所以大家其实也可以考虑直接呢用这个免费的这个 api 来进行使用啊。那么接下来我们这些实验也是使用这个免费的 api, 那 么这个东西它怎么样来进行这个获取呢?非常简单,首先我们选择啊千问,然后选选选,选 完了之后呢,这里我们选择啊,让千问来进行授权,授权完了之后就会自动跳出一个这个呃浏览器的一个对话框啊,然后他会提醒你,你需要先去登录啊,这个千问的这个聊天这个 app, 然后这个 app 呢 是免费的啊,然后你需要稍微进行一个注册,注册完了之后呢,需要通过前端网页去确认啊,你是不是给你现在的 open color 来进行授权,授权完了之后呢,那么接下来呢就可以来进行使用了,这里模型选择我们可以直接选择它默认的这个模型,不用改啊,然后接下来呢就进入到啊后面的这个设置, 当然我们这里给大家演示一下,如果你刚刚选择这个 skipphoneout 的 话,那么接下来就会有很多的啊,这一系列的模型都是可以这个免费来进行使用的啊,只不过这些免费模型用起来不是很稳定啊,不如先问的这个模型使用的稳定好。 那么紧接着接下来啊,进入到下一个环节叫 channel, 那 么 channel 我 相信啊,大家之前的时间的使用过程当中,或多或少都知道它是干嘛的,对不对?网关嘛,通过不同的啊计时通信软件去跟你的这个 cloud 呃,去跟你的 opencloud 来进行对话,那么这里大家一看 啊,会有很多的一些这个计时通信软件,但是绝大多数呢都是呃国外的啊,在国内的话可能只能用这个 imessage 啊,这一个啊,是苹果的这样的一个通信软件啊,所以这部分可以先挑过啊,没有什么太大关系。但是如果你是使用腾讯云部署的这个魔改版的 opencloud 的 话,那么其中啊这个选项里面还会包含 qq 跟飞书,哈哈。 啊,那个是魔改版啊,那个我们就不考虑来进行这个使用和讲解啊,因为现在魔改版确实没有太大的这个意义啊,因为它的 opencll 本身它的更新迭代就非常快啊,然后呢,你这个魔改啊,确实 可能跟不上它最新版的更新的这个速度,所以意义不大,这里面我们直接啊跳过就好了,之后我们会来讲解关于怎么样去啊,为怎么样去把飞书接进来啊,飞书现在应该是对 opencll 这是最好的这样的个场景啊,它其实或多或少都是和你的啊工作 搭上边的啊,这个我们一会再说。好,那么紧接着接下来啊,就会问你啊,是不是安装 skus 啊,这个也可以先跳过,问题不大啊。然后接下来呢,他会问你啊,你的钩子如何来进行选择?这里面钩子如何进行选择,实际上它代表的含义是怎么样去组装你未来 a 阵的记忆? 关于 open cloud a 阵的记忆呢,一会是我们重点需要来探讨的一个部分的这样的环节,因为我们如果想把它打造成是个垂玉专属的这样的 a 阵的话,实际上你需要围绕它整个的 那么三级的这个记忆系统啊来进行改进的,从它的这个 so 啊,到它的这 agent 啊,到它的这个 memory 啊,这三层的记忆系统都是需要来进行改进的啊,所以这里面呢,我们这里也是首先会选择这个 session memory 代表的含义呢是它的每次对话这个记忆我们都会来进行一个永久的这样的保存。 那么接下来啊,这个重启下你的这个 get 位啊,重启下它的网关系统,接下来就可以来进行运行和使用了,那么实践使用过程当中,这里面我们可以直接选择这个 t u i t u i 的 含义是同时开启命令,行啊,跟前端的这个啊对话这个页面啊来进行对话是什么样的这个情况, ok, 好, 那么到这啊,我们整个的这个部署过程呢,就快速大家看了一下啊,差不多就这么样的这个流程,那么其中呢,这个设置的过程,我相信大家接下来去使用 open cloud 肯定是经常都会用到啊,它的这个啊设置的这样的过程啊, 再差不多大家跑几遍也比较熟悉了啊,包括刚才 opencloud 那 样的命令,其实你也是可以反复来进行用的啊,因为你可以一直反复调整它底层这样的一个配置是没有任何问题的。然后同时呢, 下面这里还有一段啊,是关于阿里云的呃,这个 motboat 啊,这上一个名字对不对?阿里云的这个 motboat, 它的一个这个呃 部署这样的这个流程啊,这个大家可以稍微看一下啊,总之呢,这个呢是可以使用阿里云的这个轻量服务器,然后呢来进行快速这样的个部署,那么其中每一步呢,这里面我都写的非常清楚啊,但是我们不展开讲啊,因为,呃,你不管是使用阿里云的这个轻量服务器也好,还是使用腾讯云的这个轻量服务器也好,它其实主要还是 呃给非开发人员来进行的一个使用啊,它主要是主打一个轻便快捷,但是实际上呢,它的定制化功能是很难很难来进行开发和实现的啊,包括如果你想修改它的一些 skill 啊,你想让它自己运行一些你自定义的这样的脚本等等等等啊,其实都会非常困难啊,所以呢,呃,这个我们就不展开讲了,确确实它不太适合来进行定制化的开发啊,但是这里面有非常详细的它整个的安装部署流程的这个介绍和截图啊,这个大家回头给自己去看一下。 ok, 好, 那么我们接下来啊,重点是要来讲解啊,关于 open cloud 的 一个啊,核心架构啊,对不对啊?我想这个也是很多同学今天晚上来听我们直播的一个啊,非常呃想要听到的一部分的这个内容就是。

哈喽,大家好,我是你们的高产小伙伴博图,那今天我们来做一个稍微整合一点的视频啊,我们来用这个 open core 来帮我们做一个这个 nars 系统。那当然这里指的这个做并不指它从零到一变成做一个系统,然后做这个 nars 的 功能,而是 它通过这个呃 open 二四点零四 lts 基于这样的一个系统的版本呢,然后来为我们部署一些开源程序,从而实现这个 nasa 的 功能。那这种使用方式呢?其实之前我们在主频道里面我们也发过一篇这个视频啊,使用的是这个 qs, 但现在我们像开源这个 openclock 温扣他们这些 a i a 卷呢,都已经非常成熟了,我们有更多的一个选择,更低的一个门槛。所以今天呢,我们就来看一下,用这些软件来部署,那是什么样的一个体验。那我们这里再补充一句啊,由于我们这个视频比较长,如果说你想先看一下这种部署方式对比我们传统的这个, 那有什么样的一个优势和劣势的话,大家可以直接跳转到我们现在画面上时间轴的这个位置,我们后面这一部分其实我觉得还是蛮有意思的,如果说你不想看这个部署的话,你可以直接看一下,先了解一下我们到底实现了什么样的一个功能,然后他有什么样的一个缺陷,这都是没有问题的,大家可以直接进行跳转。 好,那现在我们就开始啊,直接来给大家进行一个演示啊,那现在画面上的这个网页呢,其实是我在虚拟机里面部署了一台这个 oppo 主的服务器,前面也说过是二十点零四的这个 lts 版本, 然后呢,我们在里面部署了 open core, 现在这个 api 呢,和我们这个 whatsapp 的 一个手机访问都已经配置好了。那接下来呢,我们就可以对他说说我们的需求,让他来给我们部署这个 nars。 当你使用这种方式来部署之前呢,我会建议大家对这个那是有一定的理解才这样来尝试啊,因为如果说他说的所有的这技术你都不懂的话,你是很难跟他进行沟通的,那除非你非常耐着性子去让他给你来进行一个解释啊。有些小伙伴我之前看到评论区会说什么 啊,每学一个软件啊,都要学一套这个 point, 其实现在完全不是这样一回事啊,你只要会表达自己的一个脑子里想的这个问题的话,你其实就可以做到跟他沟通,不需要特定的一个 point, 他 完全可以理解你说的是什么样的意思。 但是可能有些小伙伴还活在过去吧,对吧?那现在我们就在这个对话框来告诉他,我们需要他来干什么。将这台服务器部署为一台 nas, 我需要实现以下的功能,由于我们也是对那是了解一点吧,所以说我们可以告诉他我们需要的文件系统,那我个人会喜欢这个 zvs 文件系统,我可以告诉他我的文件系统我希望使用的是 zvs, 然后我要用快照 功能,请将系统中的四个两百 g 硬盘组成而睿的 z 一。 那其实啊,我这台机器他有一个系统盘是五百 g, 然后有四个两百 g 的 这个虚拟硬盘是模拟这个,那是里面的数据盘的,那其实在物理机里面这个操作,你就告诉他你具体的硬盘的一个配置就可以了。当然你如果说你不太清楚你想要怎么样的一个阵列的话,你也可以 让他给出你一定的这个建议,他都是可以给出来的。因为这个我们现在用的是这个 mini max 的 一个模型嘛,这种大规模的一个模型的话,他对这种文件的一个系统还是非常的一个了解的。请假是什么鬼?改一个错别字。好, 那这是第一个,那创建好阵列之后呢?第二步我们是要访问阵列里面的文件嘛?那我们最常见的只有使用方式,其实就是用这个 smb, 那 我就可以告诉他将创建好的阵列用户可以访问 好。接下来的话,呃,我们还有什么需求呢?但是权限我们可以在它创建好之后我们再来管理,那我们可以告诉他,我会需要使用这个多克,对吧?我需要使用多克来创建一些应用,然后 我需要使用虚拟机,同时请给我一个握操作界面。 那现在我创建了两个需求,一个是我需要使用 dico 来创建一些应用,那这里呢?其实我还可以告诉他,我需要使用 potina 来进行管理。 那当然,其实啊,这样的一个 ai 的 纳士啊,你即使没有 potina 的 话,你也可以让他来帮你创建这个,呃, dico 的 一个应用,但是有这个 potina 的 话,你可能会 操作起来更加直接一点。好,接下来下面是这个啊,虚拟机,然后这个虚拟机他需要设置很多参数吗?你可以用语音跟他说,但是我希望他还是给到一个 web 的 一个操作界面。那下面大家还想到什么呢 啊?那就是外网访问,那我就告诉他,我希望外网访问吧,希望外网 能够访问到这台内网的服务器。其实都说的非常笼统啊,我希望他是能够给到这个方案给我的啊,大家也不要觉得我这个是之前排练过,其实我每次这个需求都不太一样,而且每次 ai 呢,他给到你的这个实现方案也是不一样的。 ai 有 一个不确定性,就是他每次这个想法其实跟人一样,他每次注意力他不一定注意在一条路线上面,他可能会用另外的路线来给你实现。所以呢,接下来我还会跟他有一个需求,就是说请不要直接执行确认我的想法, 那这样的话呢,他就不会直接去开始创建这个 ai, 很 有意思的,他有时候他你说了需求给他之后,他就马上给你去 执行这个行动力报表,但是呢,有时候他又会反过来觉得他收集的资料不够,他会反过来问你,但是你一旦给他的这个需求的话呢,他就肯定会问你这个需求,同时也会把他的一些想法跟你进行一个沟通,那这样的做法呢,会更加稳妥一点。那现在呢,我们就把这个需求发给他, 我们看看他是怎么样来回答的,这里可能会需要一些时间了,因为,呃,这个我们 call 他 这个回答是多轮思考之后才给到你一个答复的,所以说他要等啊,好了, 不好意思啊,这个是还是挺快的这一步。 ok, 那 我们看一下,他说啊,他说很乐意帮我们搭建这个,然后硬盘是用于这个数据存储系统盘是另外独立的吗?因为他中间呢,其实没有经过任何的一个 验证啊,他直接就回答了我的一个问题,所以说他并不确定这个系统盘是否独立的。那有时候他又会 啊,去先去确认一下,然后再来跟我说,那这种不确定性就是我们在部署中可能会遇到的一些东西,而且你使用这个温控的话,你也要注意啊,他这个思维并不是一定固定的,你一定要用一些语句去限制他的这个做法, 这样才是更加稳妥的一种使用方式。那这里我觉得我暂时不回答他,计划只创建一个 rez。 第一个我觉得第一个问题请你 自己去确认,我不想回答他第二个问题,创建一个啊,开启数据压缩。第三个是多少个用户来使用这个 nars 暂时只有我的主用户。 第四个是外网访问的一个安全性。那他这里会问我用 vpn 返向代理加域名还是指开放特定的一个服务。那其实这里呢,我觉得是 a 的, 这个 一般来说我们会用 tail scale 啊,开源的一种方式,或者是用向日葵之类的东西。那第五呢?是啊,是否有这个异地备份? 不需要异地备份,快照每天创建一个啊。六、物理位置在哪里?这是一台一台虚拟机, 没有公网 ip, 虽然我不知道他问这些问题够不够关键。那我姑且先回答他,你打算运行什么类型的这个虚拟机?这个我不确定, 你不确定你就告诉他不确定就行了。那现在我的回答问题已经回答完毕了,那现在呢?其实我不想他直接来进一个部署啊,因为我还不知道他的这个计划,请你先 啊确认机器的一些硬件信息,再给出合适的部署方案 好了,他这样我们就跟他沟通了,然后我们再看他下一步会给我们做一个什么反馈。刚刚这里就是呃,一句话,他就直接回馈了,如果说他有进行这样的一个搜索的话呢?他中间会用一些命令啊,来确认这个机器的状态, 所以肯定不是一条的。那这样一种回复方式呢?是直接来进行来回复。那我们不管怎么样吧,反正你跟这样的一个 ai 沟通的话,你要把它当成是一个人呐,你要确定他是有这种不确定性的,你很难说让他一定很聪明的去执行你的这个 意图,因为本来我们这个表达他就是有这种理解的一种偏差的,是不可能非常精确的。好,那现在他回馈我们了,我们看一下。嗯, 那他现在就用不同的命令来进行一个检查,像 free h 啊,还有 ip 啊,然后呃,像一些反馈,然后再换了一种解决 方式,然后查到了一些这个信息。 ok, 那 现在呢?他获取了这个硬件信息,然后告诉我们,他我们使用的是这个虚拟机,然后内存三十 g, 然后有系统盘五百 g, 然后数据盘四个两百 g, 然后系统是这样,他全部都查的清清楚楚啊,这个没有问题的。 然后它的完整部署方案呢?它告诉我们,我们可以用这个 z f 的 s 的 一个纯主持,然后锐的一 可以达到六百 g 左右的可用空间,然后启动这个 lz 四的一个压缩,然后接下来呢,它告诉我们服务层会有呃多克 j d f 呢?然后还有 next cloud, 然后 虚拟机有这个 copy 加 word manager, 那 这是一个比较常见的这个 word 下的一个虚拟机管理页面吧。然后这是这个 kpn, 然后文件服务呢?它使用的 smb, 那 这里呢? vpn 它使用选择的方式是这个 while guard 啊,那这个方式我们已经很久没有用过了,我们可以试一下,让它来进行部署,对吧? 快到方式,每天一次,保留七天,然后存储位置是本地的这个 vfs 数据集,然后最后他还想跟我们确认一些问题啊,然后完全用于服务,会不会太浪费了啊?你不用管,不会浪费, 请维持现状。他还想把我们这个五百 g 给用到这个 nice 里面。不需要啊,这只是一个测试,然后虚拟机的用途,这个虚拟机我们是用来测试方案的。然后网络环境,你的主路由是什么?是否支持这个 dmz 和这个端口转发?哦,那他这里跟我们确认这个网络环境啊,因为我并没有公网 ip, 主路由是我们 w r t。 那 先告诉他吧,让他来帮我们想办法,然后是否需要计划自动执行啊?不需要,这个半夜重启之类的,这些东西不需要,是否需要对齐?不需要。然后 现在告诉他,那其实现在比较有疑问的可能是这个。第三点,这个没有公网 ip, 会不会对这个 wifi 的 一个安装产生问题,那这里他会告诉这个需求,已经明确了,关于 vpn wifi 也能可以不说,那我们需要从外网访问到这 nars 有 几种方案,然后他要画图,外网通过这个 open w r t, 然后通过这个啊 nars 的 wifi, 然后来访问 方案 a 是 用这个 tail scale, 方案 b 是 使用这个返向代理,我们用方案 a 吧,然后这边他会问我们一个时间,然后啊我还告诉他这个一,我们用方案 a, 二,那就啊开始执行步数, 那现在呢?如果说很久没有反馈给你的话,那就代表他已经开始了一个漫长的这个部署过程。那接下来呢?其实我们就嗯等到他部署完成,我们再给大家来进行汇报,那中间他其实是不会谈东西的,我们也没办法做这个 comment 啊评论,那我们就等他有结果吧。 好了,那其实现在他并没有正常的一个部署,那是因为我在安装这个啊 open core 的 时候,并没有把这个用户设为免密码的一个锁度,那我们要改一下这个配置,那这里我们也是演示下怎么配置啊,平时我们用我的这个教程的话,我会提示大家做这样的一个权限放开, 那现在我们就用这个 s s h 登录了我们的这台虚拟机服务器,那我们用这个锁,微锁锁,然后锁一下密码,然后接下来我们来最后一行,我们把这个 用户名,然后这个 or no password 需要的用这样的一种格式来表达一下,我们就以后就不用这个速度的一个密码了,那现在呢?我们直接关闭,也不需要重启这个服务,那我现在就告诉他,我已经通过,请为我继续部署吧。那现在他应该就开始一个正式的一个部署了。 好了,现在这个 openclock 呢,就已经运行完成了,但中间呢也出了一些问题啊,由于我一开始那个对话是在这个子的一个筛选里面,它的运行过程中呢,把我那个筛选给删掉了,实际开始的时间呢?应该是这个四点十三分,然后 大概它运行了呃,十几分钟吧,大概是差不多不到十分钟,它就已经把呃机器安装到这样的一个状态。 那现在呢,其实我们就可以查询一下它这些是不是已经部署完成了。首先第一个它部署好了 zfs 的 锐锐 z 一, 它可以呃通过这个速度来进行一个访问,我们来试一下。好,我们打开一个 mini 航,我们来看一下。哎,我们可以看到 这样的一个 z f s 的 状态,那这个跟我们出纳时是一样啊。然后它也创建好了这个 sm 共享,但是它没有告诉我们这个共享账号密码,那我们可以先用这个啊默认的这个用户名加密码来进行访问,我们来试一下。 哎,不行的,那这个呢,他不够体贴啊,他没有告诉我这样的一个 smb 密码,我们等一下再问他。那然后我们看一下这个多可吧,多可的查询命令是多可 ps 啊,然后这边他要数度, ok, 多可这个火腿肠已经跑起来了,我们打开一个 窗口,哎,这里也会出现一些问题,那我们等一下一个个来修复。这个其实是一个安全认证啊,如果说你这个网络访问可以支持 h t t p s 的 话,其实是可以访问的,其实没有这个问题。然后接下来是这个 copic, copic 是 那个呃,虚拟机的一个控制页面,我们可以在这里用我们的用户 零加密码来访问,这个就跟我们互关土自己的这个账号密码是一致的了。然后在这里呢,我们可以创建这个虚拟机,那这个是一个挺容易实现的操作,我们就不测试了,我们之前也试过一两次,一次安装成功。接下来是这个 tail scale, 然后还有自动快照,这个我就 等一下再来设置。首先我们让它修复这个 smb 共享啊, smb 共享的用户名和密码分别是什么? 然后当前 potty 呢?无法正常访问提示,然后把这个提示复制给他,让他去进行一个解决。行,那我们先修复两个问题,我们回车把这个问题丢给他。 好啊, portina 已经重启,他告诉我们修复完成了,然后 smb 需要这个我们自己来设置密码。我不想自己设置啊,那能不能帮我设置呢?我告诉他帮我把 smb 上密码设置为 s 的 一二三四。那我们先看 portina 能不能修好啊。 portina 应该是修好了,可以看到这个触手环界面,然后我们设置一个密码。 哎,那这些也没有问题,都可以正常使用的。那我就要他把这个 smb 给设置一下, 反正基本上是不需要你啊了解他的一个命令行的操作方法的,当然他也告诉你了这个明确的一个命令,对吧?我们再来试一下,这个是幺九二点幺六八点一百点幺四七。 好哦,他甚至还帮我们创建好了一个 nas 的 这个目录,一个是 public 的 一个目录,然后一个希尔的目录。 那我问一下他创建这个目录他的一个意图是什么?我看到 cnb 共享下有三个目录,他们分别代表什么? 好哦,那实际上这里这个 public 是 一个公共这个账号啊,它是任何人都可以访问的。还有我确认了一下,然后这个 nas 目录呢?是这个 tank 目录下面,然后这个 share 的是这个 share 目录下面。呃,这里就有这个私人共享文件夹, 所以呢,这里就就存在一个呃,信息反馈的一个问题啊, ai 它并没有告诉你它私底下创建了一个所有人都可以访问的这个 public 的 一个账号,所以说 如果他没有给你详细的解释的话,你需要自己去问他,这些东西都是需要你自己来打醒精神的,这就是 ai 所带来的一个不确定性,那我这样的话,我让他给我一个详细的说明吧。再次给我一个说明,有哪些我需要注意的地方? 刚刚的一些这个常见的命令我们一点点看,我们从上到下啊, 好存储系统,它告诉我们是这个 red z z 一, 然后 l z 四的一个分区,好在这个斜杠 tank 下面,然后它给了我们一些个 s m b 共享,然后 它有多可加普通的一个环境,这个 copy 我 们也测试过了,这个 tail scale 这边我们需要它来给辅助我们配置一下,它需要我们去进行一个验证啊,然后访问官方登录,然后查看状态,接下来是一个自动快照,然后这边快照我们可以确认一下,查看这个快照是否有成功, 我们来看一下。 ok, 这个快照是有的,手动创建快照,然后删除快照都有给我们这个命令。当然其实,呃,未来啊, 你使用这样的一个纳系统化,我觉得你是不需要记这些命令的,你只要告诉他我需要把我的这个快照恢复到哪一天的这个时间,其实他就可以为你来进行一个操作,但是你需要让他记住这样的一个使用说明 啊,请记住当前纳斯的配置,未来我会需要你为我执行一些配置操作, 这样呢,其实它就会像这个 open core, 它就会把这些你配置好的这信息给寄到它的这个记忆系统里面。那未来呢,你就不需要再告诉它你把这个什么 zfs 安装在哪里啊?然后这个是什么样的词,然后给它解释一遍,它就自己会调用 它存放的这个服务器的一个信息了,大概就是这样的一个记忆系统,一个逻辑。好了,那这边把记忆存放在了 memory 的 一个,那是配置点 md 里面,然后它这里有这样的一些东西。好,那接下来我们来配置这个 tail scale 吧,请引导 啊,那第一步你要在这个服务器上运行这个书斗,然后它会出现一个啊这个地址,然后 我们就访问那 tele skill 具体怎么用我们就不多说了。这边我是用这个谷歌账号来进行登录的, 然后我们点击一个 connect, 这台机器就加到了我这个虚拟局域网,然后我们看这边已经加入成功,然后这里呢就是我的虚拟局域网里面的设备,如果说你的这个手机上加入这个虚拟局域网,其实你就可以访问到你的这个 nasa, 这就是 tele skill 的 一个内网穿透的一个方式,其实它这样就已经配置完毕了, 然后我们可以用这样的一个命令来验证连接,我们来看一下, ok, 他 这里看到了我内网里面的其他设备,像有一些这个服务器啊之类的东西,那我让他仅为我确认当前 tail scale 是 否已经安装成功。 好,那现在这个配置就完成了,那接下来呢,下一个环节,我们来演示一下传统大厦的那些功能,在这里该怎么样一个实现,例如安装一些套件呢?相册啊,还有一些这个下载软件的这种安装。那另一方面呢,我也给大家演示一些,在这样的一种雨衣控制的这种,那上面 比传统纳斯更加有优势的一些这个地方, ok, 那 我们先来看一下传统纳斯上的一些这个功能啊,那其实就无外乎的几件套,对吧?相册,影音中心下载, 还有这个网盘同步,那我们看一下它怎么样来实现我们这个需求,请为我在纳斯上我确定 再进行安装,一定要加入这一句话,不然的话他可能会用一些各种奇奇怪怪的这种方案来给你执行。有时候他聪明一点的话呢,在那上用到可应该会 啊,安全点,它不影响整个系统的环境,但是有时候它不聪明起来也真的就是不聪明啊,直接帮你进行一个安装,那我们先看一下它给到我们的方案,如果说这个 ai 它不够聪明的话,其实你是要手动引导它去用这个 dog 来安装的,这样才是比较好的方法,我们来试一下。 ok, 它这边给出了一个方案,我们来看一下。那首先呢, 它这个相册选的是这个 image, 然后呃,告诉了我们一些这个功能,然后也给到我们优点。然后端口呢,它会用到这样的一个端口,然后影音中心呢,它会用这个 julietin, 也是 julietin 啊,几个经典的这个用法。然后下载呢,它会用这个 kippeteron, 然后加上一个 file browser, 等于是他给了我们一个网页上能够对这个文件进行管理的一个工具吧,他同时也被帮我们想到了这一点,然后他还告诉我们可以配合这个自动化工具 radar 和这个 sauna。 然后接下来呢,这个网盘的一个同步私人网盘 啊,他这里告诉我们是用这个 sync sync 啊,他并没有理解我们的意思是把这个文件放同步给这个网盘,而是给了我们一个网盘的这个方案 next call, 然后替代方案是这个 sync 也行吧,那你可以先帮我配置吧这个网盘。 好,接下来他会告诉我们这个存储的一个结构,这个 tank 上面的 photo media, 还有 download, 然后还有 share, 然后部署的架构也帮我们列了出来, 嗯,好像很专业的一个样子。然后它这里呢告诉我们至少要八 g 的 一个 run, 然后这边需要 cpu 的 一个转码支持,因为我这台机器它并没有这个啊, gp 的 一个转码,如果说你有这个硬件的话,其实它也是完全可以帮你把这个 显卡给到这个 jerry finn 的, 他问我有没有其他的一些偏好,下载工具想用哪个,然后网盘用这个 nextclock 还是帧帧啊?那我觉得其他的没有问题,你会建议使用 docker, 那这个还是要跟他进行一个确认的,因为这是涉及到比较大的一个东西。那当然这宿主也没有问题啊,如果说你这个 ai 它是足够聪明的话,其实完全可以解决这些环境之间的这个啊一些矛盾。但是我们看一下它的一个说法吧, 其实就是跟人在沟通的一个感觉,他并不是一个确定的方案,你需要反复的跟他进行聊天。当然有人会觉得这样的一种沟通方式比较麻烦吧,但是他的可操作性是挺强的,因为即使有什么问题的话,他也可以帮你进行一个修复。 好,那这里呢,他会强烈建议使用到可来进行部署啊,后面还发了一个已摸取,然后告诉我们到可里面是怎么样的一个样子,然后为什么适合这样的一个到可呢?方案确认之后,他会最后给出你的一些端口啊,没有问题,好像很完美的样子哦,帮我进行安装吧。 好,接下来我们就等它安装完毕,看一下每一个服务它用起来怎么样。那前面我们也已经配置好了这个 tail scale 的 一个穿透啊,所以说啊,这些服务呢,都是内网会给到你一个端口,你穿透进来之后,用内网的这个虚拟内网的 ip 加上这个端口就可以访问了。 如果说你想配置像蒲公英啊, d d m s two 啊,像其他的一些这个内网穿透方案的话,你也可以直接把那个项目说明书直接丢给这个 ai, 让他去读这个说明,然后帮你来进行部署,他会帮你分析出来你需要啊,哪些信息给他的这些东西都不需要人来动手的了。 我现在个人感觉就是只要一个软件,你人是能够看懂的话,他帮你来做基本上没有什么太多问题,但关键就是你要 为这个文件给他,如果说你不把这些说明书给他的话,他有时候可能会根据自己的一个理解啊进行一些骚操作, 因为他懂的东西实在是太多了,他不一定会沿着那条最好的一个方案去做。就算是再牛的这个工程师,你如果不给他说明书的话,他可能一个个文档去读,然后一个个程序去修改,但是这样的效率呢? 或者说成功率,或者说考虑的周全度,反而是不如那些提供了这个说明书官方的一些渠道来的这样精准的。所以说你是要辅助这个 ai 来进行一些这个判断的。当然我觉得未来这一部分他们也会有自己的一个方法去 保证他的这个理解是最优解吧,这个我觉得未来是可以解决的。像其实我们像 open call 啊里面的一些这个工作流,就是为了把他的一个行为准则规范在一定的这种啊路线上面, 让他不要有这种啊发展性的一个思维,其实这都是已经在做的一个事情了,我觉得未来还是啊很方便的这个 ai。 好, 那这里我们让他这个部署部署着,然后就卡住了,运行大概二十分钟,所以这里呢 open core 又显现出来他的一个问题,那我们问他,你啥事啊? 刚才发生了一次这个意外,这个报错,然后现在啊,我们通过这个刷新了,我们来看一下,他其实是有反应的,那我们等他继续进行这个执行, 我们看一下,在我们说了这个这句话之后啊,他又开始了进行这个修复,那没关系,他只要继续运作的话,他就会去检查我们这个软件有没有安装完成,那我们就等待这个时间过就好了。 好了,那其实没有多长时间之后呢,这个啊安装也已经完成了,我们来看一下它这个服务是否都已经可以正常的使用,大家可以看到这个手势使用,它还给了我们一个呃需要注意的地方,给了这个手势的一个密码账号, 然后这里就提醒我们注意啊, next call 需要几分钟进行这个出手话,然后前面呢,这里就是我每一个服务的这个啊 ip 地址了,然后我们可以看一下,哎,隐秘其实可以 仅使用的。然后这个 jeffery finn 呢,也是一个初步化的这个进程。然后啊 qq 团,那他说这个账处的账号是艾米,艾米艾米,那我们来试一下。 哎,这里出现问题,我们访问不了。然后这个 file browser 呢,他账号是艾米,密码是艾米啊,那这个也是访问不了啊,那我这里确定没有输错,那就啊怎么办呢?等一下再说吧。 然后这个啊 next call 呢,他就给到了这个八零的一个端口啊,这里也是一个数控安装流程,那暂时我先不管啊, partina, 这个是我们前面就已经装好的了,我们也是不用管它。那重点呢,就是我们要修复这两个 当前账号密码都无法访问,请为我修复。那我们让他先试一下修复 啊,理论上如果你有这个浏览器的这个 skill 啊,就是说如果你的这个 winq 它可以调用浏览器的话呢,它可以看到更详细的一个报错信息。那现在呢,理论上作为一个人来思考的话,他应该会去查这个 dog 的 一个啊 log 的 一个记录,那我们看他怎么样给我们解决可以解决掉这个问题。 理论上应该是没问题啊,这个 log 里面应该有详细的这个登录的一个信息,如果有什么报错的话,他应该可以查到具体的方案。 那大家也需要注意啊,其实这个 open core 它是可以部署这个搜索的一个权限的,也就是说你部署这个搜索的一个呃接口之后呢,它在遇到不会的问题的时候,它会直接通过这个搜索引擎来获取它所需要的这个信息,那我这边已经部署了,所以说解决问题的能力呢,是会比 你没有部署这个要强一些的。如果说你没有部署的话,他可能会去网页上来找,或者说先帮你部署一个网页这个浏览器,然后再去进行一个查找,可能会走这样的一个路径,然后如果你部署了,他就直接会去搜索资料,那这样会更加快一点, 头感的消耗也会更加少。因为如果是有用接口来防这个时候隐形的话呢,他反馈的这个信息是更加精简一点的。那,那我们现在等一下好了。 那这个,呃,他已经修复了,但他并没有告诉我们为什么会出现这样的一个问题啊?但是他告诉我们这个密码已经被我们修改了啊,我们来试一下。这个是 the main, 一 二三四。 嗯,那依然是出现了错误,那可能不是密码的问题了,那我们看这个 file browser 是 可不可以看啊? file browser, ok, 那 这个文件浏览器我们是已经搞定了,但是这个 q b t r 呢?可能就还有问题。那 q b t r 设置问题呢?给他一点引导吧,不然的话我觉得他早会费力一点。 嗯,其实你也可以加上一句,就是让他自己去尝试解决这个问题,然后解决好了再汇报,那我们就,嗯,让他在这里折腾也可以等。 ok, 那 现在他总算找到问题了,他会有一个临时的密码,那可能呢?他找的这个镜像是这种临时密码的一个镜像吧,我们来试一下。 ok, 那 我们这个 qq 托人也已经解决了,但是我不太清楚他们默认这个文件存放在哪里,对吧?因为他只给我这个服务,但如果说我们要严肃使用的话,得让他给出一个文件存放目录,我们让他来说一下, 好,可以使用了,我们也是给他汇报一下,请为我设置。那我们希望这个 qq 托管下载了影音文件啊,这个 j d f 它可以直接调用嘛?这个是一个比较常规的操作,我们也可以让它变回调整。 那以往如果说我们这个手动调的话,我们可能要知道这个目录的一些这个权限这些东西啊,那现在的话,我就啊一句话让他搞定就好了,当然这个时间速度上可能是不及你手动来操作啊,熟手的小伙伴应该是很容易操作这个东西的,但是 你胜在不用我操作吗?对吧?反正这个聊着聊着他就把这个东西给设置好了。好,那现在他给了一个 这个汇总,那所有文件呢?都存放在我 z y s 的 这个存有词里面,然后隐秘去啊,然后他这里有告诉我们一些这个路径,然后呢, julie 访问,他给了我们一个方案呢,但是没有直接帮我设置吧,我直接叫他直接帮我设置。 然后,呃,他让这个访问是要存放在这个 tank down list 里面, julie 是 可以直接访问的。哦,那可能, 可能已经设置好了,那我反正说也都说了,让他让他先去试吧,他去猜我们要干嘛。 那建议的目录是这个 movie tv, 还有这个 anime 是 分开进行一个存放的,那实际上应该它并没有这个互访啊。这个 julie finn 可以 访问的是这个 media 目录, 然后,呃,这个 qq 腾腾,它可以访问的是这个 tank 下的 down low 这个目录。那我们等它把这些给配置一下,理论上是需要重启几个容器和更改几个容器的,这个配置它才会调整好的。 好了,已经配置完成。那现在呢? qq 腾腾,他就是电影在这个木皮下面,然后电视剧在这个 download 的 tv 下面,然后音乐呢,在这个 music 下面,然后 jerry finn 里面,我们需要手动的去设置这样的一个向导啊,因为 jerry finn 他 是可以直接访问这些东西吧。那我们就不说这么多复杂的一个设置了, jerry finn 的 配置,我们不在这里说, 假如说现在我们这五个服务都已经配置完成了,那下一步呢?我们可能要考虑一下我们怎么样能最快的而访问到那上面的服务,对吧?那平时我们可能会有一个,那是这个管理页面,对吧?可以显示这个那是一些状态,还有这个服务的一些链接。但现在的话, 我们只能把啊刚刚这些服务直接收藏到收藏夹里面,那这种方式也可以啊,但是我们希望更加直观的话,怎么办呢?我们可以让他做一个这个 dashboard 的 一个呃,仪表台吧,我问他帮我制作一个啊,这台服务器的仪表台 t t p 网页请为我实现。那这样的一个说法,其实就让他做一个网站了,可以看到我们这个纳斯的一个状态,可以连接到我们纳斯服务器的这些链接,对吧?不需要这个密码了,它本来是内网的一个服务,而且你进每一个服务的时候其实是需要这个密码的, 那如果说你个人使用的话,其实不需要这个登录啊,如果说你真的要加密的话,你自己跟他说就好了,我们让他来制作一下 好了,那现在他就已经做好了这个仪表盘,由于我们这个刚刚八零端口啊给这个 nice 给占用了,他给我们设置了另外一个端口,是这个八八八八,那我们来看一下 哎,哈哈,可以看到他现在这个啊仪表台就已经做好了,当然这里会有一点 bug, 我 感觉他这个 cpu 占用率好像不是很对的样子,但内存是对的,然后这个 zfs 存储池也是对的,然后接下来呢这些服务, 呃,它也可以正常的一个访问 clipboard 呢?像 file browser 好 了,那这个是出现了一个问题, clipboard 它出现这个 on auto rise, 然后呃 file browser 是 对的, portender 也是对的,然后这个 copy 虚拟机是对的,然后 next cloud 也是对的, 那这个问题其实你可以跟他沟通来进行解决。哎, cpu 动了 cpu 其实也是正常之一,开始没有获取,那可能就存在一个小的问题,它基本上是一步就帮我们做好了。那现在呢,我们这台有 web 界面有服务的这个 nars 就 已经部署好了。 那下一个环节呢,我们就来看一下这样的部署方式,它有哪些这个独特的一个优势啊?就是比起我们传统 nas 来说,现在我们基本上还是局限在传统 nas 里面嘛,但是后面的话,我们来看一下它有什么独特的优势。 好,那接下来就是我们今天这个视频的最后一个环节啊,我们来探讨一下这样用 ai 做出来的 nas, 它跟传统 nas 有 哪些的这个 优势,有哪些这个劣势。那虽然说我们这个视频是做这样的一种实践方式,但我们也不鼓吹这种方式有多么先进,多么好用,其实它也并不是有很多的一个弊端。那我更希望的是呢,未来我们传统的那是可以加入像 ai 诊它的一些这个优势功能,从而也保留他们传统这个 那是一种使用方式,那这样的结合呢才是最好的。首先我们来看这个优势的部分呢,那首先呢,我们这个那 star 前面也看到了,它是一个用语义来操控的这个那系统,当然它也有这个 web 界面呢, 但它主要的一个不同肯定是通过这个语义来进行操控,所以呢,它就具备一些执行复杂任务的能力,我们可以用一句话表达出我们的这个需求,甚至直接实现我们的一些这个复杂的请求。 这里呢,我们首先来看第一个这个例子啊,那就是这个复杂工作人员的权限设置,以及这个 smb 的 一个权限设置。 那以我们工作室为例嘛,我们工作室肯定有不同的这个呃,工作人员,例如有剪辑师,有考考师,然后有摄影师,然后还有我,对吧?本人一个管理员。那如果说 我要在一个,那系统里面设置这样的一种啊,复杂的一个欠套关系的话呢?又有某些目录,某些人可以访问,某些人不能访问,那我可能会涉及到一些这个比较复杂的操作,一个一个人或一个个目录进行操作,但在这种语音操作系统里面呢,其实我们用一句话 就可以把它表述清楚了,甚至他还会给你一些相对更加专业的一种这种配置建议。那我现在可以告诉他,那这里打字我就略过了。 好,那下面我们输入一段话,那就是我告诉他,我们是一个工作室的场景,我们有两个剪辑师,一个摄影师,一个管理员,一个 d i t, 就是 考卡师。 那我会让他为我创建相关的一个目录,同时为我设置好每个用户的这个文件访问权限。那这其实是一个非常含糊的这个需求啊,我可以让他给我先做一个计划,那我们来发送。 当然如果说啊,我这里没有写这个计划,他可能就直接会帮我进行一个设置了,所以这里呢大家记得沟通上,你要明确的告诉他是直接帮你设置还是做这个计划,我这里是一个比较含糊的表述啊,当然也不是一个好的例子,那我们就等待他进行一个反馈 好了,那现在他就创建完成了,我们可以看到完成的时间呢,是十点五十五分,我们发送这个需求的时候,是这个十点五十三分,他用啊大概两分钟,为我们执行了 非常复杂的一个权限配置啊,这个时候十点五十三分,两分钟,我们可以看一下他到底是怎么样来做的。首先他做了一个规划,然后把这个目录结构给理清楚了,然后来创建这个用户, 接下来呢反正是设置这个 smb 的 一个共享,这是中间的一个过程啊。然后接下来还有一个就是,呃,直接给我们展示这样的一个用户信息,他设了一个储值密码,然后创建了这个用户,然后最后呢是告诉我们这个信息,我们来看看他给我们信息, 那这里有所有用户的一个信息,然后所有共享的目录,然后每个共享的目录每个人的一个权限访问权限可访问的一个用户,然后访问的方式, 那具体你可以跟他在细致的一些聊这个需求啊,例如某个人可以访问哪个目录,某个人可以怎么样来操作,他都是可以为你实现的,那这就是我们所谓的这个语义操作系统特有的一个优势,就是说他会想办法去完成你的一个需求表述, 那除了用户权限以外呢?当然他也可以操作我们安装在这里面的一些这个软件呢,我们不需要告诉他复杂的软件安装在哪里,访问页面在哪里,我们只需要告诉他我需要下载某个网站上的某一个资源,他都可以帮我们去找到并且添加到这个任务。这边呢,我们也来演示一下。 那现在画面上的是这个动画的一个下载网站呢?那我们就可以告诉他在这个网站里面帮我们下载某一个资源。当然你也可以直接告诉他你自己去搜这个资源,但是他会消耗过多的一个头肯 啊,也可以实现,但是可能并没有,智商还不是这么高。那我们先用这样的一种限制的方式来跟他说吧,那同样说这个对话的这个过程我们就略过了。好, 那就这么短短一句,我们来试一下。其实我也没有试过这样的一个实验方式,我们告诉他在这个网站帮我们下载周树回传最后一集的这个动画。那这里我就专门不提这个 qq 托人了,看他会不会直接调用这个 qq 托人,我们来看一下他怎么样来执行 好了。那我们在十点五十九分输的这个需求,然后他在这个十一点的啊三分用了四分钟帮我们找到了一个第二季的这个全二十三级的一个打包的这个种子。但其实这样的一个需求他是并没有满足的。我们所谓的这个最新一级呢, 他应该是第三季的第五六集吧,大概是这样的一个视频,所以说他这也并没有完全理解我们的一个需求。下下次的话我们可能要对他进行一个更加精确的一个描述,或者说啊给他限定说你必须要找第三季的某一集, 某一个单极,然后必须在某个字幕组,然后怎么样来进行他一个约束。那这里我们表述确实也有歧义啊,也不能完全怪他。然后呢,他这里并没有帮我们呃直接添加这个任务,而是告诉我们可以自己手动去添加,我们可以看到这里并没有添加,我们看一下他能不能直接添加, 因为我这边还没有装这个浏览器的一个扩展,它基本上都是在命令行帮我们做这个操作的,所以这里它的一些操作也会受到一定限制。 qq 浏览器应该是可以通过 api 来进行这个控制的,它应该自己可以找到这个方法,可能时间需要久一点。 那这里跟大家提一下,像所谓刚刚我们的这个限制呢,是可以做成这个 skill 的, 然后限制他必须从哪个方向来完成这样的一个任务,对他进行一些限制。那这样呢,他的一个执行呢,就会更加 有这个规范性,也不会说每次去重新思考啊,怎么样来执行这个任务,直接调用工具就好了,这样可以节省这个操作的一个精准度。那这个也是呃,需要你来进行这个维护的。 其实像网上很多演示这个 open curl 的 一个操作,就像我们那样给一些比较犯的这个问题啊,但往往呢这样就会出现一些错误,你必须要经常的去整理你自己的这个工作流,然后丢给他,让他以一种更加高效的方式来完成,这才是一个正确的使用方式。 那这一部分的内容我们以后也可能会跟大家来啊做一下这个演示吧。 ok 啊,他这边 api 无法添加这个种子啊,配置的一个限制,他让我们手动来进行添加 啊,你是否可以直接用种子的链接来进行添加? 这里就出现了一个知识库的一个盲区了,其实他是应该可以直接把那个种子的这个下载链接添加到这个任务里面,这个是完全可以用这个 api 的 使用 api 添加任务, 那如果说你要做这个 skill 的 话,你要告诉他你添加任务的时候,你必须要用这个链接,然后来添加任务,这样的话他未来就不会产生这样的一个错误。 同时还有一个要规范的,就是啊,像对我们这个所谓的描述的这个级数啊进行一个甄别,比如说我说某一级的话,他就必须要啊针对我们那一级去下载,而不是下载这个合集,这个大家也是可以进行这个规范的。 像之前我们在这个 m 八 n 的 那个工作流里面,我们就写了很多的一个约束,大概有差不多五六千字吧,里面对每种情况都进行了约束, 但是我这边也是其实通过这个 ai 来进行生成的,你你可以咨询 ai 怎么样来约束另外一个 ai, 这样都是可以实现的,所以说并不是让你来手写, 反正这也是一些小技巧吧。呃,它根据我们提示之后呢,它这个就已经开始下载了,那这里再给呢跟大家分享一个小技巧啊,就是说你可以在这里就让它总结前面的一个操作流程,然后把它生成一个 skill, 比如说在某个网站上,然后用某个链接来进行这个生成任务。好了,那我们就用这两个例子来给大家介绍了这个其实羽翼的一个操控啊,它是可以实现的,但是中间大家也可以看到它会存在一定的这个不确定性, 你需要跟他进行一个呃沟通,将他一些这个行为进行这个归案判他才会更加好用。那第二个优势呢,就是我们这些操作啊,其实都是可以在这个手机上完成的。例如我们绑了这个 whatsapp 的 一个操作,那你就可以在 app 上输入我们刚刚那些命令, 然后来控制他完成这个任务。因为有一天我在我的床上,我想看某个动画的话,那我就直接输刚刚的命令给他,然后如果我 skill 做好了,那我只要想到我就可以在手机上一步就可以 玩这个动画了。那以往传统的这些纳斯的话,我可能还要在网站上找链接,然后再复制回我这个下载器,然后我还得再刷刷刷刷刷刷,对吧?那如果说你可以用我羽翼的话,那这个操作就可以让手机完成。 那第三个优势呢?其实就是,呃,我们这是一台基于乌班图的一个纳斯嘛,它并没有任何的一个限制,其实我们可以在里面部署,呃,比较复杂的,需要复杂硬件来实现的这种,呃,像大圆模型啊,或者说一些特殊的这个应用, 传统的纳斯除了这个昂瑞的可能对这个硬件兼容比较好以外呢?那其他的这些纳系统,他们对硬件的这个驱动都是有一定的限制的,无论是出纳斯啊、飞牛啊, 那传统的品牌呢?是就更加不要说了,他们都会在这个硬件上产生一些这个啊限制,有些硬件不能装,这个不能装,那个不能装,但在这个物管组上他就啥都可以装,只要你不怕破坏这个系统的话,然后我们也可以通过这个 open call 来帮我们进行一个啊,快速的一个部署 好了,那这就是我想到的几个比较大的这个优势啊。电视方面其实大家在这个部署过程中应该也看到了很多,对吧?那一个就是这个操作的这个精准度 是有待商榷的,除非你表达的非常清楚,或者说你每一步的这个操作都给它制定了这个准则,用 skill, 例如说创建阵列啊,或者说创建 s m d 共享啊这些东西,不然的话你的所有的命令都是一个概率性的,这个 啊命令他并不是一个精准的操作,你要期待他给你一个更好的结果,这就跟你手下管人一样,你说的不清楚的话,他就做的不清楚,如果你说的清楚的话,他就,呃可以完成的很好。那这个东西要看你的一个表达能力, 或者说你前期的一个培训呢,给他植入的一个 skill, 对 于 nas 来说我觉得是非常不好的一点呐,其实在 nas 上面,我们为什么要选择一个 nas 系统呢?就是因为它的这个 web 界面把很多操作给你进行了一个规范化,你是很难进行一个误操作伤害到你的这个系统的,而且在必要的时候呢, 也会有一定的这个提示,他会限时你不能做某些操作,只要你操作的话就是一个精准的操作,这个是呃大的一个缺陷。如果未来说传统的人呢,那厂商他要加入这种 a 卷的话,他必须要 对这个模型进行一些微调啊,或者是对他的一个准则进行一个限制,那这样才是会是一个好用的这个 nars。 那 第二个其实跟前面是类似的,就是说 我们并没有一个非常好用的这个 ui 或者说手机 app, 那 我本身只是想看一个视频的话,那我像飞牛或者说绿点的话,我都会有一个 app 来播放那上面的这个视频,对吧?但是在这里呢,我们依然是需要先要用 tail scale 来进行这个内网穿透,然后再用 jiffy finn 来进入,会多几步。它的这个人性化肯定操作是没有这么好的,我们也不可能说叫 open core 帮我们翻译, 直接做一个非常复杂的这个手机应用,然后可以直接 tele skill 登录,然后再用这个语音播放器来播放,对吧?这样的操作是对一般用户来说是没有这么容易实现的,可能对专业用户来说,你可以确实可以现场编程啊,但是这个没有这么容易。 而第三个呢,就是它只能用一些这个开源的程序,你自己作为一个开发团队,你只能做一些这个前端呢,或者说一些简单的一些开源的程序的应用,对吧?你像绿联或者是其他一些上市公司,他们都是 有较大的一个这个开发团队的,那肯定他的这个用户体验也是经过长时间的一个迭代,然后会有更好的一个体验,这个都是没有办法来进行一个对比的。 那最后一点呢,就是我们这个系统他是没有长时间的一个确认的,他每一个应用都是东拼西凑的过来的,虽然说这些软件可能经过时间迭代,他们会比较稳定,但是你装在一起之后,你不知道哪个软件跟哪个软件会不会产生一定的这个冲突, 然后再加上前面第一点的这个操作的不确定性,你就更加不知道这个部署过程中他会不会把你某个配置啊,产生一些这个高危的一些操作,或者说一些这个风险都是不确定的。所以说 如果你要长时间使用这样的一个纳斯的话,你可能还需要经过一个长时间的这个对系统进行这个检测,我也不推荐大家用,在这个生产环境中, 基本上我觉得优势劣势,我就说到这里了,不知道大家啊能不能听懂 get 我 的一个意思呢?我比较倾向的就是未来我们的这个传统的厂商,它能够集成我们前面的一部分这个操作,并且将它的这个 操作给流程化。那这样的话一台这个传统 nars 它也会具备我们刚刚所说的这个快速部署啊,或者说下载添加有这样的一种方式,那这样就最好了。那当然我不指望它这个 nars 里面可以集成说高智商这个 l m 模型啊,这个肯定 不可行的,你给我一个接口设置的位置,我觉得也已经足够了,那这就是我对未来那形态的一个畅想吧。好了,那今天视频的内容就这么多,我觉得我们也说了很多这个一些想法,对吧?希望能够帮到大家,那我们就下期再见了,拜。

最近为大家做了多期 openclaw 相关的视频,而且昨天我还发了一期 openclaw 的 高级用法的视频。但最近我发现几乎每期视频的评论区都会有留言提到 openclaw 调用 cloud code 会非常消耗 token。 因为在之前的视频中,我有为大家演示过,用 openclaw 来调用 cloud code 进行编程开发,我们只需要为 openclaw 全程操作 cloud code, 为我们实现编程开发。 但是我们如果采用传统的方式,也就是常规的方式让 open cloud 直接调用 cloud code 的 话,那么 open cloud 每隔几秒就会轮循一次,检查一下 cloud code 的 状态以及 cloud code 的 输出。使用这种传统方式的话, open cloud 必须时刻盯着 cloud code, 所以 openclaw 就 会消耗非常多的 token。 所以 我发现在评论区大家抱怨 openclaw 调用 cloud code 会消耗更多的 token。 因为大家采用的是这种常规的传统方式, 所以 openclaw 要采用不断轮询的方式来查询 cloud code 的 状态,也就是 cloud code, 它执行的任务越久,在 openclaw 中它轮询的次数就越多,所消耗的 token 也越多。 所以我们可以完全不需要用这种传统的方式直接让 opencloud 来调用 cloud code。 因为无论是 opencloud 还是 cloud code, 它们都非常非常的灵活,所以越灵活就越强大,就越有利于我们去自定义一些功能,从而轻松解决用 opencloud 调用 cloud code 的 时候, 产生大量的 token 消耗。尤其是 cloud code 在 前几天新增了 agent teams 这个新特性,因为 agent teams 相当于在 cloud code 中随时可以创建一个完整的开发团队, 而且每个 agent 呢都是独立的进程,所以是真正的并行执行,而且每个 agent 之间还可以相互通信,还能共享任务列表,能自动认领,还能实现专职角色分工,比如说负责开发前端的 agent, 负责开发后端的 agent, 还有负责测试的 agent。 所以在 cloud code 中有了 agent teams 这个最强大的新特性,在 open cloud 中就可以更加轻松地向 cloud code 委派任务,让 cloud code 全自动完成整个开发工作流。 想让 open cloud 以更节省 token 的 方式来调用 cloud code, 其实非常简单,我们只需要用到 cloud code hux 功能, 在 open cloud 中可以结合 cloud code 的 hooks 功能,真正实现调用 cloud code 进行自主开发,并且能够实现真正的零轮询,而且还能非常节省 token。 当开发任务完成之后, 我们还能在聊天软件的群组中自动接收到任务完成的通知,包括实现的是什么任务, 项目存储的路径,还有耗时,还有 cloud code 的 agent teams 是 否已经起用,还有具体完成的功能,还有项目的文件结构等内容。下面我们就看一下我是如何通过 cloud code 的 hux 来实现了整个流程。 下面我们先通过这个流程图,让大家更直观的感受一下在 cloud code 中通过 hux 回调来实现的整个步骤是怎样的。 首先是由 opencloak 将我们要开发的任务委派给 cloud code, 像这个委派只执行一次,而且它是后台运行,不会阻设 opencloak 的 对话窗口和它的主 agent。 当 cloud code 接到任务之后,它就会进行自主开发还有测试,当任务完成之后,它就会触发 stop 事件。 第三步就是 cloud code 中 hooks 自动触发,它会先将执行结果写入到这个文件中,然后再发送 wake event 来唤醒。 open cloud 在 这里采用了 stop event 以及 session end event 实现双重保障,来保障在聊天软件中,我们能够真正收到它的任务完成的通知, 然后 opencll 就 会读取这个文件中的这些结果和状态,当它读取完这些结果和状态之后,它就会回复给我们,也就是通过我们的聊天软件来回复给我们这些状态。 像这个流程的话, opencll 只在给 cloud code 派发任务的时候调用一次 cloud code, 然后这中间的流程不需要 opencll 参与。在最后这里, opencll 再读取一下这个执行的结果,并且将执行结果发送给用户。 所以在第一步, opencloud 只是给 cloudcode 下发一个任务,它下发任务的过程所消耗的 token 几乎可以忽略不计。在最后这里,它只是读取一下结果,将处理结果发送给用户,而且这个结果里的内容非常少,甚至不超过一千字, 所以在最后一个步骤,它所消耗的 token 也几乎可以忽略不计。在 cloudcode 的 自主完成这个任务的过程中, opencloud 不 需要对 cloudcode 进行轮询。 好,下面为大家讲解一下我是如何实现的。在 cloud code 中通过 stop hook 来达到任务完成自动回调的效果。在刚才也提到了我们使用了 stop hook, 还用到了 cloud code 的 session end。 下面我们简单看一下为什么要用到这两个 hooks。 在 cloud code 中一共有十四个 hooks, 之所以我们选择这两个, 是因为我们构建的这个工作流,在 cloud code 中,它完成开发之后才会触发这个 hooks, 所以 使用 stop hook 作为主回调,就可以保证 cloud code 的 真正完成开发时才会触发。在这里我们还用到了 session and 作为兜底回调, 也就是假设 stop hook 它没有触发成功,还有这个 session and 它能够作为兜底。像这样的话,我们就能够真正保证 open cloud 向 cloudcode 发送一条开发任务,然后 cloudcode 独立运行。在 cloudcode 独立运行的这个过程中,它并不会消耗 opencloud 的 上下文。当 cloudcode 完成开发后才会触发 hux, 然后我们的聊天软件就会收到通知, 下面我们就可以看一下具体的代码。在这个代码中,我们先看一下这一个脚本,它的作用就是将要开发的任务来写入到这一个文件中,然后再通过这个脚本来启动 cloud code。 当 cloud code 完成开发后,这个 stop hook 就 会自动触发,然后就会调用这一个脚本,我们可以点开看一下, 这一个脚本就会将任务发送给 openclaw, 所以 这个自动回调流程,它会读取这两个文件里的内容,并且写入到这一个文件,然后 openclaw 就 会将这些信息推送到我们的聊天软件,这样的话我们就能够实现 在 open cloud 中向 cloud code 下达开发任务,然后由 cloud code 自主完成开发。当完成开发之后再触发这两个 hux, 最后我们的聊天软件就会收到推送通知。好,下面我们可以先用一个简单的开发案例来测试一下。在主 a 选项这里,我们直接在对话框中输入我们的任务, 我是为了是用 cloud code 的 a g and team 协助模式构建一个基于物理引擎还有 h t m l c s s 的 带材质系统的落沙模拟游戏,然后我们直接发送,看一下这个效果, 这里很快输出提示,它已经将这个任务派发给 cloud code 的 agent teams。 这个开发模式就是调用 cloud code 的 agent teams 多智能体写作,这里还给出了这个工作路径,然后这里它提到完成后会自动通知到群里, 像这样的话,这个主 agent 的 线称并没有被阻塞,它还可以继续为我们执行其他的任务。比如说我们在这个主 agent 中继续输入任务,比 比如说让他查询新加坡今天的天气,然后我们直接点击发送,看一下最终的效果。像我们如果采取传统的方式在 open cloud 中来调用 cloud code, 在 主 agent 中必须等到 cloud code 真正完成开发之后,这个主 agent 呢才会继续执行我们的其他任务。 像我们采取了现在这种方式,这个主 agent 的 进程并没有被阻塞,所以我们让他查询新加坡的天气,然后这里他就很快查询了一个天气,然后我们还可以继续输入其他人物,比如说讲个笑话,然后这里他就很快输出了一个笑话。而 cloud code 在 后台完全是自主运行,不需要我们去干预, 然后我们只需要等待 cloud code 完成之后,将完成后的消息推送到这一个群组里就可以了。之所以设置为将完成后的消息单独推送到一个群组,是因为我们在这个 agent 中可能还在进行其他任务的操作, 比如说让他讲个笑话,他在讲笑话的时候突然多出来一条任务完成提示,这样会导致这个上下文窗口比较混乱,所以我们就将他完成后的这个消息推送单独推送到一个群组里,这样的话就不会占用这个主 a 智能的这个聊天窗口。在这个群组里我们就看到了这个消息推送,我们点开群组 查看一下,在这里我们就看到了这个任务推送,这里提示 cloud 的 任务完成。这里是开发的这个游戏,然后这里是游戏的路径, 在 cloud 的 code 中使用的就是 agent teams, 这里就是给出的项目文件,然后这里它还推送了第二条消息,这里还给出了完成时间大概六分钟,然后这里还包含一百八十四个测试通过, 然后这里就是给出的交付,然后这里还给出了这些性能,下面我们可以输入提示词,让他将代码文件打包发给我,这样的话我们就可以在本地打开进行测试,因为我的 open cloud 是 运行在云端的 好,这里他将为我们开发的这个项目文件发送给了我们,这里还提示解压后在浏览器中就可以打开使用,然后我们直接点开,然后我们在浏览器中打开看一下这个效果,就是他开发的这个落沙游戏,我们可以先测试一下,我们选择这个沙子 好,这样点击之后这个沙子就落在了底下,然后我们再点击这个水 好,可以看到水落在了沙子上,然后我们再给它加一把火,可以看到这个火会往天上飘,再给它加一些木头, 然后再给它加一些蒸汽,可以看到这个蒸汽飘到木头上会变成雨。像这样的话,我们就真正实现了在 open cloud 中调用 cloud code 进行开发。大家就不用担心在 open cloud 中调用 cloud code 非常浪费。 token, opencloud 所消耗的 token 几乎可以忽略不计,哪怕我们不在电脑前,也可以通过手机向 opencloud 下达开发指令。当完成开发之后,我们就可以在群组中查看推送的这些消息。

翻箱倒柜啊,从仓库里找了一台不用的小主机,把它清空之后装一装 cloud boot, 把小主机清理干净之后,打开 tree 的 官网,然后点击这里下载,下载完成之后,我们双击安装, 点击同意之后,我们就下一步就可以了。工具安装完成之后呢,默认打开这一个界面,让我们新建项目给他起一个名字啊,他已经改了两次名字了,我用了最新的一个,在这个聊天框输入了这么一句话,帮我 get 开源项目 cloud bot, 他 就开始准备在我的电脑上安装 get。 哦,出问题了,他安装 get 的 时候遇到了一些问题, 当然我还有别的办法安装 git 管他,我就是想演示一下如何自动化的部署 cloud bot, 这个时候他就换了一种方法,这种方法呢,看了一下啊,就是就是下载那个压缩包,看没有在下载压缩包 这边有终端,这边显示了下载的一个进度,我们等他下载完啊,然后呢,你看啊,过几分钟之后,他开始检检查是否下载成功,他发现成功之后呢,就开始告诉我说要解压缩这个项目文件。 跟着他在解压缩的过程当中啊,我们看一下在我建的这个目录里边是否有这个压缩包,看这就是他下载的压缩包,然后把它解压到这里。 ok, 他 已经完成了解压工作,还做了一个总结,炫耀一下 他的工作成绩啊,现在的开发工具啊,已经不是写代码的作用了。在他操作的过程当中呢,我们就可以打开 deepsafe 的 官网,进入平台之后呢,在左侧啊,这里有 a p r t 的配置页面,官网的下方有一个开放平台,点击进入啊,之前我已经配置过几个了,让我们再创建一个新的啊,然后在这里的话,我们就输入一个名称,他就会给你一个密钥的值, 我们再回到翠的开发界面啊,嗯,在刚才我们配置 deepsea 的 过程当中呢,开发工具呢,已经自己罗列了他应该处理的代办事务 啊,然后一顿操作。到了这里的时候呢,就出了一个新的问题啊,是我在上一期视频讲到的,只要使用这些开发工具,你最好先把这个 node 点 js 安装了, 那因为我这个电脑是一个清空的新电脑,也有这个 node 环境,所以呢,翠会帮我进行安装,以前我都是自己手动安装的。 这个安装过程呢,会有点小小的漫长,你可以去泡杯茶,等一会再回来。 看这个大模型有时候也挺神经的,他下载完成之后呢,他告诉自己说我要安装了,但实际上他并没有进行安装的动作,也没有安装成功,搞到半天又说好像是没有安装成功,我还需要下载并安装一个 m v m, 那这个是啥呢?是 node 的 版本管理的一个工具,它又开始安装 nvm 了,然后所以整个过程你会发现就是它不断的执行,不断的安装,你不断的点确认。 以前像这样的工作啊,对于专业的工程师来说呢,都会在的自己的电脑上安装多个 node 的 版本,会安装 nvm 这样的版本管理工具,包括前面提到的 get 工具等等, 都会完全准备好。人们会打开这个 powershell 的 命令窗口,通过命令去下载这个小龙虾的系统,下载完之后呢,通过命令去安装和执行。 那现在对于我们很多非技术出身的小白来说,那种指令型的东西呢,虽然不复杂,但是对你来说一看就会,一学就废。今天都是一个 ai 时代了,那我们要学会用 ai 的 方法来处理这些问题。 你就把这个翠啊,开发工具啊,当一个大模型聊天工具,你就跟他聊,让他去配合你执行自动化。很多人说呢,过程当中会不会涉及到流量啊?所以前面我也说了,翠免费,大胆的用, 我不建议你用那种命令式的安装方式呢。这个原因,比如说在安装这个很多工具的时候,尤其是像 note 工具的时候呢,是要在电脑里面配置一个这个概念啊,要 pass 环境变量的 这个东西啊,是看教程非常简单,真让你操作的时候,那是千难万难呢,很多人就直接懵掉了。所以原来的那种指令型的,在 power 设备窗口的安装方式是不太适合小白用户的。 这里边插一句啊,就是在他的执行过程当中呢,会经常调到这里的终端的命令,可是我们这里的终端呢,受一些权限上的限制,如果你遇到了,他一直告诉你说命令不可执行啊,这种错误,你就在 这个窗口里边输入这么一段英文来记下来啊,这么一段英文,如果实在不会呢,可以去网上找能够解除这个编辑器里边的终端的一个呃,命令的一个执行 啊,快要大功告成了啊,这个项目的依赖已经安装完了,现在是构建项目的一个阶段, 这里他告诉你构建完毕之后呢,实际上你在浏览器输入这个地址啊,会有一段英文的提醒,其实是 u i 界面没有够构建完成,所以呢,他还得继续构建,构建完成之后呢,再输入这个地址就可以了。 我们输入这个地址之后呢,可以打开了啊,能看到底栏的这个对话框了,我把窗口缩小一点啊,能看到了这个样子的,但是这里呢,看一下啊里 连接错误啊,我们把这一段红色的英文告诉编辑器,最后呢,他还贴心的帮我创建了两个启动文件,一个是那个 getv 的, 另外一个是窗口的,每次启动点这两个文件就好了。 好在这台小主机上又成功的装了一个小龙虾。细心的朋友应该听到我视频的最后有狗叫的声音啊,我家里的两只神犬,然后急了想出来玩,所以我就没办法再继续拍视频了, 我就在散步的过程当中就被对今天的这个安装过程做个总结啊。呃,首先一点呢是安装这个东西呢,谈不上复杂,谈不上难, 但是确实对于很多非技术专业的小白来说呢,有一环节呢比较挠头,其中一个呢是 环境的安装,他会反反复复的出错,这个问题呢在视频里其实也很难讲的清楚, 呃,能是有问题大家在评论区留言交流,或者是加入我的公开群交流了。然后第二个呢,就是 在小龙虾官方的文档里边,实际上是没有对国内模型的一个授权的,所以呢,呃,这里面其实是要改动代码的,这个过程呢,你就要借助翠的 a r 开发能力来解决了,所以这个过程我也很难去表述他是怎么改的, 那也只能是在评论区留言交流哈,所以大家有任何问题请关注我,请在评论区留言或加入我的公开群私信我。

最近硅谷最火的 ai agent 项目 openclock, 你 肯定刷到了,全网都在传它能当你的数字员工,但是原版全是英文,配置复杂,网络还经常报错,劝退了不少人。别急,救星来了,我挖到了这个 openclock cn 项目, 专为国内开发者打造的中文优化版,部署有多简单?看好了,只需要这一行命令,不需要折腾复杂的环境,一键安装启动后,这里是全中文的配置向导。最重要的是,它完美支持国内大模型 deep ck, 通用千万 mini 随便选, 速度快,成本低,彻底告别昂贵的美元 a p i。 重点来了,它还能直接接入飞书,以后在飞书群里 at 一下你的 ai 员工就开始干活了,写代码,查资料,做总结。链接我放在评论区了,有需要的小伙伴自取。

想用 openclaw, 结果被安装劝退了, whatsapp 在 国内注册根本过不去,飞书机器人配置又复杂的要命,简直是折磨。网上那些教程看着就头就大, 谁顶得住啊?别慌,今天教你一招极简安装法,根本不用装那些聊天工具! openclaw 自带 t u i 字幕界面,直接在 windows 十一 power 七本地就能跑起来。 如果想要,我发如何在 macos 上极简安装的方法,评论区扣 mac mac。 其实 opencloud 之父彼得斯坦伯格当初设计这些聊天工具的初衷是满足他在厨房做饭时也能编程的特殊爱好。如果没有这个特殊爱好,就大可不必安装聊天工具哦! 来看我操作。如果你的 windows 十一从来没安装过 open cloud, 那 么请继续观看。如果你之前已经安装了一半,就被繁琐的步骤劝退了,那么可以用本视频后面演示的方法卸载干净,以便重新安装。 如果你想把已经安装过但没配置好的 open cloud 卸载干净,以便重新安装,那么先按我下面的操作卸载之后再用本视频前面演示的步骤进行安装, 就这么简单。 t o i 界面虽然朴素,但该有的功能一个都不少,而且响应速度那叫一个快。 安装 ai 工具不该这么复杂,会用 t u i 才是真。即刻关注我,带你解锁更多 openclos 骚操作!

clubbot 最近很火,如今又改名叫 openclaw 了,今天就给大家分享一下 openclaw 在 自己电脑上部署的方法。因为手动部署的方法确实有一定门槛,操作流程比较复杂,还容易出现一些系统错误,所以建议新手直接使用棋游加速器的一键部署功能,编程小白也能轻松搞定。 打开棋游,搜索 openclaw 并加速一下,在右上角输入,不吃香菜就能白嫖时长。用于后续操作之后,点击右侧输入一键部署,这里需要设置两个存放路径,建议在硬盘中新建两个不含中文的文件夹, 勾选用户协议,点击一键部署按钮,系统就会自动拉取模型依赖的环境和文件了,等待一会就能进入配置界面,这里需要授权一下签问的账号,没有的朋友之间注册一个就行, 授权成功,回到其由等待这里的状态变为健康即可。点击开启对话,这里 cloud bot 就 部署完成了。若需移除部署,只需找到最开始创建的这两个文件夹,直接删除即可,不会影响电脑其他程序。希望这套流程能帮到大家,感谢观看!

欧文可乐还没搞明白的这个老师们啊,就是可以去这个扣子编程那边去研究研究。哎,昨天我看到他们在直播啊,昨天晚上也测试了一下,就是你用 pc 端啊网页啊进扣子的这个官网, 呃,那个页面的最上面有一个一键部署 openclaw 啊,呃,它的那个格式是什么样的?它做完之后的界面呢?左边是,呃,扣子编程的这个编辑界面底下也可以通过对话对这个编程的内容进行 编辑啊。右边的呢,就是 openclaw 的 那个外部 ui 啊,呃,这就突然间就把之前 咱们那条视频里边那些老师讲的呃,好像串起来了,就是之前的时候老师有讲过说啊,你通过呃 cloud code 或者说是 open code 去让他们自己去部署, 呃, open cloud, 呃,如果出现问题了,如果崩盘了,就可以让他检查,然后去修复。扣子编程逻辑上应该也是一样的啊,就是我们通过编程的大模型去呃部署 open cloud, 呃完了之后,呃,如果 open 可乐自己它崩盘了,它自己肯定是没有办法自己没有办法自己修复了,但是呢,我们可以通过原本部署它,搭建它的编程单模型啊,去对它进行一些啊修改,或者说是修复,哎,大概就是这个逻辑。

可能你们都已经玩过这个小龙虾可的 book 了哈,那我昨天晚上第一次把它接入到这个软件,还是有一点点震撼的啊。昨天我让他做了一些命令啊,比如说整理这个桌面的文件夹啊,他能够把一些相同类别的文件给归类在一起,但是他不能够把它做一个排序。 然后我今天直播的时候呢,我就让他,我让他能不能给我把一个视频啊,给我截取前十秒啊?这个视频是总共是十三秒,然后这个视频是我把它截取到了前十秒啊,这个也能搞定, 然后我打算让他给我抓取一个,我现在希望你在我的桌面文件夹,然后创建一个文件夹,叫倪亚鹏的热点搜索的一个文件夹,我要在这个文件夹里边。呃,看到倪亚鹏最近的一些热点动向啊,我不想刷短视频了,我想让你全网给我搜索, 搜索之后,然后在这个文件夹里面创建一个,呃,网页,小小的网页,然后我要看看到整体的网页。 干活吧,你们有没有这种感觉?就是特别的慢。呃,他干一个活我觉得得一分钟两分钟啊,这个时间有点等不及了,有点等不及了,而且但是我这几天也在不断的去测试他的边界,对吧?我想知道, 我想知道他能够干到什么程度。呃,比如说这个剪辑视频的时候,剪辑视频是我没有想到的哈,因为我之前我认为他可能也就是 ok, 哎,他已经创建了一个李亚鹏的热点搜索了啊,一个热点搜索的文件夹啊,一会我看看我,他边创建我边去讲, 然后我之前我我并不知道他能够哦剪辑视频,然后我就尝试着我说你能不能给我剪一个视频,把这个视频的前十秒剪下来。好,他就他就剪辑完成了。所以说有很多能力是我现在还不知道的。 还不知道的,那我我这几天也在不断的去探索他的边界,他能够真正的帮助咱们干干什么活,干到什么程度,然后, 呃。哪些工作可以放心的交给他,哪些工作?呃。交给他之后还是会有一点鸡肋。呃,我现在正在探索,如果说你们感兴趣的话可以来我的直播间啊。 ok, 我 看见他在这个文件夹下边已经创建了一个文档, html 文档啊,然后我看看他是怎么回复的。老板,我,我要求他每次回复我都按照老板开头,我来创建了这个李亚鹏的热点搜索的文件动向, 然后在这个文件夹里创建一个网页来搜索,结果确实是我刚刚要求他怎么干的好。他说,老板,我发现网络搜索一些功能需要 apm 一 样,让我尝试用另外一种方式来获取信息。呃。然后手动添加一些热点信息。 好,老板完任务完成了,然后让我为你打开这个网页看看。他,确实刚刚他自动打开那个网页了,然后位置在这包含的文件在这,然后如何使用啊?我们看看是一个什么东西啊? 把双击打开,然后双击俩可能有点动向。嗯,还是一个很普通的一个网页啊。并没有,并没有很很特别的地方。 呃,也可能是我刚刚问的不对哈,也可能是我刚刚问的不对。嗯,这个视频先到这吧,然后我我继续探索哈,有,有好的东西我再发视频。