啊,大家好,这两天呢,有一个新的 agent 啊,跟这个 open call 类似的 agent 叫做 ermis agent 横空出世啊,它其实不是一个新的 agent, 它大概是一个呃,出来有两个多月的一个 agent, 二月底啊,有一个专门以前做大模型的 team 去做这个智能体 啊,据说这个它能够非常稳定地去完成长时间的工作,具体的这个介绍大家可以去翻这些公众媒体,那我就下下来随便试验了一下啊 啊,这很简单,就是说你如果是 windows 的 话,你在那个 wsl 里面就可以去用这个,我呢是 wsl 装了一个无光图,然后用这条命令刻命令,直接去啊,下下来,然后你还要把网络环境准备好,要不然中间可能会很慢, 他会去检测你当前的环境是不是满足的,然后给你创建一个虚拟环境啊,一个 uv 的 虚拟 ipad 的 环境,这些去 装一些依赖,可能还有一些 rewrite 之类的。这个啊,浏览器自动化的一些工具 啊,然后呢,装好以后他可能还会问你一些事情,就是说我发现你装了 opencl, 你 要不要把里面的一些设置导入,导入以后呢,最后再把这个 a p i t 啊这些东西把它导入,然后设置这个通道就可以了,完了就直接进去 这个他的 t u i 的 一个界面,我觉得他这个做的漂亮啊,这个像蛇一样的一个东西,我问他问题,然后他自动出事了啊,随便乱聊聊天了一下,然后呢? 呃,我让他把这个淘宝打开,他其实用这种导入浏览器啊,配 wifi 去打开,但是他碰到了一些这个反扒机制,后面我就不管了, 然后呢,我让他啊,就就是试了很多次啊,我就不管了,我说那好吧,我告诉我你的能力吧,然后他就把这个能力列出来,我说我对这个 ai coding 和这个娱乐这块,就是创意媒体这块比较感兴趣,然后 他就给我做了一个 ask 阿 ask 图案的一个生成器,我把我的公司名字叫 jelly act 啊,杰里奥特输进去,他生成一些字幕,我觉得还蛮好的,然后我让他生成一个走马灯效果生成以后呢,我看了一下乱七八糟的, 我觉得还好,就是多多多试几次就好。就这个短的一段代码,结果出来以后不是走马灯啊,是一大串字符从下往上在在滚动啊。 然后呢,我给他塞了一个啊 youtube 的 一个这个视频链接,让他帮我总结,看这看这搞了很久大概这个这个这个这个图案啊,这个这个 youtube, 他 最后获取到这个字幕, 总结啊总结看了一下就说 jama 四本地运行的真真相,他是通过这个字幕来把这字幕搞下来,然后做了一个 jama 四的一个真实的一个,这个 叫做批录吧。啊,我觉得还还是挺呵挺挺客观的,跟我自己用 jfk 四呃,去作为智能体的 agent 的 激素还这个还是比较相符的,所以我整整个用下来这个 aramis agent 呢,它感觉比这个嗯, open cloud 看上去稳重的多啊,一个感觉 就他每一步很清晰的在给你去做,然后装什么东西都给你弄,然后我在别的自媒体上看到他可以把这个每天要自己总结,把这个用过的这些记忆啊,可以挑选出优质的,自动变成 a, 变成 skill, 我 觉得这个这点特别好。好,那么我们就聊到这,以后更多的用法会慢慢探索,谢谢大家。
粉丝183获赞1322

嗨,大家好,这里是顽皮的程序员,我知道你们中有很多 windows 玩家,我也知道你们在尝试原生部署 open class 时,一定被那些该死的 power shell 的 爆出了权限不足, power 模块加载失败而搞得想砸电脑。当然别挣扎了,在 windows 的 原生环境里跑复杂的 ai 智能体就是在自寻死路。 那么 windows 原生部署的问题呢?又非常多,比如说像 os 的 全线问题,各种访问被拒绝,再比如说像 node js 的 全线问题三等变异的失败。 那还有像一些路径问题, windows 的 路径和 unix 的 路径完全不兼容,还有像一些环境变量配置错综复杂,完全的难以搞定。再就是终端体验非常差,像 command line 和 power shell, 我 觉得都不是那么友好,想要在 windows 上获得完美使用的养虾体验, 唯一的救赎我觉得是 ws l 二。 ws l 二呢,是微软官方提供的 linux 子系统,它可以让你在 windows 里跑一个真正的 linux。 它的优势呢,是完整的拥有 linux 环境,也可以与 windows 系统相互互通,它的性能接近于原生的 linux, 并且它是微软官方正版支持。 那说了这么多好处,我们一定想 wsl 二到底怎么打开呢?好,第一步就是用你的管理员身份打开 powershell, 运行下边这行内容,这个内容就会自动启动 wsl 的 功能,下载并安装乌班图,然后安装 linux 内核,安装完成之后别忘记重启你的电脑。 那么第二步就是初步化,你刚刚安装好的这个乌班图,重启以后会自动弹出乌班图的终端,让你创建用户名,创建密码这些,当然你一定要记好这个密码,因为我们后边要常常使用的。 在第三步呢,我们就要召唤我们的神虾了,在乌班图的终端里面执行下边这些内容。聪明的 windows 用户,你的大招马上就要来了,我们来启动一下 get rid, 像这样,当你部署完以后,你会发现一个相当尴尬的问题, ws l 二的 ip 是 动态的,你的 windows 浏览器访问不了 linux 里面的一八七八九的端口, 它的解决方案非常简单,端口转发脚本,你可以创建这样的 power shell 的 脚本,类似于下边,然后你以管理员的身份去运行这个脚本,现在你就可以在你的 windows 浏览器里边去访问这个地址了。 为了能够让 ws l 二和 open clock 开机就进行自动自启,所以我希望大家能够抄下边的作业,让它能够自动自启。 然后呢,我们把它添加到启动项。怎么添加?就是要按 win 加 r, 然后输入 shell start up, 然后把 start opencloud 点 bet 的 快捷方式拖进去。当然 wsl 二有一个非常巨大的好处,就是它可以访问 windows 环境,比如说像下边这样设置,然后配置 opencloud 访问 windows 的 文件。当然呢, 像 mac 一 样,你一定也会遇到非常多的问题在 ws l 二里边,那比如说第一个问题就是 ws l 二的启动非常的慢,那解决方案可能是下边偶尔你也会遇到内存占用过高,让你的电脑非常的卡, 那么你可以在下边的配置线中添加这样的配置,上面的这个配置可以限制你的 ws l 二的一些性能占用。当然你除了这些性能问题,你也一定会遇到网络问题,如果你的 ws l 二没有办法访问外网,请你一定在你的 ws l 二中执行下边的代码。 如果你坚持要用原生的 power shell 去部署,那我只能送你四个字,祝你好运。你会被各种问题搞得怀疑人生,像环境变量的配置,杀毒软件的木杀,权限的问题,原生模块的变异。记住, 老鸟的审美一定是简单而高效的,在 windows 上, ws l 二就是那个最优解。所以说,别把时间浪费在修补破烂系统的兼容性上,你把精力和你的那些时间留给你自己的工作,留搭线,它才更有价值和意义。那下一期呢,我们来聊一个非常救命的 topic 安全红线, 别让零点零点零点零毁掉你的赛博安全好。 windows 是 给用户用的, ws l 二是给龙虾用的,选对工具事半功倍。我们今天的内容就这样,我们下期再见!

不知道为什么,在网上面教大家在 windows 下部署 opencloud, 都是让大家先安装好 node get, wsl, 最后再安装 opencloud, 非常奇怪哈,基本上都是这样科普的,但是但凡你是通过 wsl 去部署 opencloud, 你 在 windows 下装 node get 这些呢,完全是白费功夫。 wsl 它的全称呢,是 windows system for linux 翻译过来啊,就是一个适用于 linux 的 windows 子系统, 它主要呢就是让一些用户或者开发人员就不需要再像传统一样配置虚拟机,搭建双系统啊,直接就可以在 windows 上面呢原生的运行 linux 环境。当然这里面我们从文件读写的角度来说, windows 和 wsl 它们的文件访问呢,是互通的, 但是软件的安装呢,是完全隔离的,因为底层的环境就不一样,所以你们在 windows 下装完 no 的 get。 但是呢, openclock 又是部署在 wsl 里面的, 简单来说呢,就是装在 linux 环境里面。那为什么我们要把 opencl 装在 wsl 里面呢?那是因为 opencl 它的插件生态呢,都是基于 linux 而 unix 来开发的, 并且对苹果系统呢也做了优化。所以如果你的 opencl 是 部署在 mac 或者 linux 下面呢,它的运行体验就会比较好, 但是直接安装在 windows 下面呢,它就可能会出现问题。所以我们才要用到 ws l 的 linux 环境来部署 open core, 这样子呢,它的体验才会比较好。但是一上来呢,你们又把 node 这些呢装在 windows 下面, ws l 里面还是没有的。最后 open core 检测到环境里面没有这些东西, 它还是要给你再装一遍,我们可以来检测一下啊,现在呢,我还没有进入 ws l 终端,这里还是在 windows 下面的,我来分别检测一下 node 和 git 版本, ok, 现在呢,我来进入 ws l 看到这一行啊,现在我们就已经进入 linux 环境了,也就是我们的 openclaw 其实是安装在这一个环境里面的,然后我再来检测一下 node 和 git, 大家看到没有,无论是 node 还是 git, 在 windows 还是在 wsl 里面,版本号呢,都不一样,因为软件的安装在这两个环境里面呢,它是隔离的,你在 windows 下呢,一上来就把 node git 装好, 然后再来装 wsl, 这个时候 linux 环境里面还是没有这一个,你真正想手动来安装这些呢,起码也是等你先把 wsl 装好了, 也就是进入到这一个目录环境里面再来安装呢,那是可以的,但是既然 opencloud 它可以自动安装这些,那我们就直接交给它,让它检测到环境需要什么,它自己来安装。所以大家在 windows 下面来部署的话,就不用一上来就装什么 node 而 get 了, 又浪费时间又浪费功夫,一出错呢又折腾,我们直接就把 ws l 装好,装完之后呢,就可以开始安装 open core 了。具体在 windows 下面怎么样来部署 open core, 大家可以看我上一个视频啊,有非常详细的步骤啊,跟着来做的话,基本上都可以成功了。

好,现在我说一下怎么这个在 windows 系统下的 linux 子系统上安装 open curl linux 子系统,也就是是那个 ws 二,这个你得需要你自己装,自己去装。 呃,首先我就打开这个命令,行 ws 二的命令行,然后安装 nvm, 这个我之前装好的 nvm 就是 一个 npm 的 它那个管理工具,然后因为呢, 嗯,你安装这个 openclock, 你, 你得需要魔法,就是你需要代理,你没有代理不行。然后我们进行下一步重新加载一下, 然后我们安装 note 这 s 二十二版本的。嗯,这个我也是装完了, 然后切换到这个二十二版本, 这里我们可以验证一下,用这个 node version 指令验证一下是二十二版本,你看看 npm com 装上了没有。装上了,然后我们要以管理员身份打开这个 power shell, 然后运行这工这个这两行代码,这是启动那个 ws 功能的, 然后再执行这个指令,我们启动完指令之后要重启一下电脑,那我先重启一下电脑, 这里我刚才重新重启一下电脑,我们要安装 note g s 二十二版本的 执行,再执行这个指令,然后装完之后我们就要安装握盆可漏了,这个就是一键安装命流, 然后到这一步就已经装上了,然后现在得配置一下它的这个环境,嗯,就做一下配置。首先这个选 yes, 我们选择 quick start 这个模型啊,大家可以开始选,选这个模型就是为了啊选跟你都是跟你对话用的那个模型。这里呢,我就用前问 啊,点确认 验证成功,然后就 keep current 了,然后你们可以按需选,然后这个是选择这个 channel 的, 就是选择跟你对话的那个软件, 这个我们可以先不配置,因为它自己是电脑本地的,有一个 web ui 界面,那个可以用那个, 然后这个我先不选了,这个就是你们到时候需要的话你们自己再选。然后这个建议是全都装上, 嗯,选择 open this web ui 界面。 那现在我们进入这个界面了,我们可以就跟他聊天到这个选项,这个选项就是欧盟的,它的,呃,命令的提示脚本就是你。呃,这个呢就是用于给你提示一下欧盟命令的, 然后这个呢?按需选择,这个我就不行,不用了。好,现在我们把这个基本上都配置完了,那我们就输入下命令,比如说,呃,我发你。好, 在这个界面你还可以,比如说进行这样一个提问, 嗯, 帮我查看这个 d 盘的某个文文件夹里面它有什么内容, 这是它的这些内容,然后跟他说的,你跟他说的都一样,我们进行下一步, 我们来安装这个飞书的插件。啊,下载地址是这个,我们先重新开个窗口 把它,我就把它另存到我们的 c 盘用户,用户就是这个是你的用户名称,然后 存到这个盘里面飞书文件夹下。啊,这个我已经下载过了,所以我就我就不下载了。 然后呢我们输入这个指令,输入下载这个飞书插件的指令, 下载完了,然后就,嗯,重启一下, 试一下这个指令。嗯,重启完之后,我们可以先打开这个飞书的开发平台, 我们在浏览器里面搜索一下,然后打开这个平台,这里我已经登录过了,我们进入这个开发者后台, 在右上角,然后我们要这里是我之前已经创建过的应用,我们要创建一个自建应用啊,给这应用起个名, 我们就叫 open class, 应用描述简单写一下,然后那个颜色可以选一下,便于区分。 然后呢,我们要用到什么呢?我们用到,我们要用到这个凭证,这个待会 iphone id 和 security 待会是要放进去的,然后添加用能力,我们在这里面添加一个机器人能力, 然后进入权限管理界面,我们开通权限, 要搜索一下 i m, 还有一个冒号啊,这里面的这个功能全都勾上,然后确认开通,这是消息群组的功能,都要勾上啊,勾上之后呢, 我们看下一步,我们要创建版本并发布 版本号,就按它格式输一下就行,然后更新内容,就是这也是随便写点东西就行, 弄完之后我们就保存确认发布 好。确认发布完毕之后,我们就打开,用这个命令执行这个命令,打开它的配置界面,这里我们选 local, 这里我们选 local, 我 们选这个 channel, 然后选第一个 configure, 我 选择这个飞书, 然后我们输入这个 f id, 把它复制过去,然后粘贴,然后要输入这个 secret, 也是粘贴, 然后这个我们选飞书。 china, 回车,这种直接指的都是回车,然后 group chat, 我 们选择第二个 open 的 这个 这个应该选的是 finish, 这里我们选这里我们选 yes, 然后这个我们选择 open 啊,这个选 continue。 ok, 这下就配置完成,然后配置完成后,我们再 先关闭一下, 然后这下我们看到这个,看到这样的页面,就是说明我们已经把它配置好了,然后我们再进入这个这个开发平台, 我们选择事件与回调,要选择这个这个订阅方式,这块选择长连接保存,然后在这个添加事件里面第一个就是 接收消息,点击添加,然后添加完之后我们要回到权限管理,要再开个权限叫做通讯录基本信息, 把它开通一下。 好,我们点击确认,这下就你基本上已经配不好,配置好了我们要重新发布版本。 好的,然后点击保存确认发布, 然后我们就要打开我们的飞书,打开之后看我们的消息, 消息界面有打开消息界面我能看到已经审核通过了,我们直接搜索一下吧, 搜索一下这个只要这个就是那机器人,然后给他发消息。 嗯,他回复了,现在呢我们现在就是到这个页面了,我们进到这个页面之后,我们先测试一下, 看看这个文件夹里面有什么东西。 啊?这是我们这个文件夹里面, 嗯,现在它你能看到有这些东西, 然后你就问一下它能干什么?它可以进行文件和系统的操作,还能经开发支持搜索信息网络服务什么的, 比如可以给你设置个定时任务,比如说要每天定时发布这 ai 新闻这之类的东西。 好,现在我们就把这个飞书插件,呃,把这飞书插件也配置好了。那么以上就是关于在本地部署 open 以及进行飞书插件配置的这些的教程又结束了。

在 windows 上安装 openclaw 主要有两种方式,一种是通过 wsl, 二、安装 linux 子系统,另一种是直接在 windows 原生环境安装。虽然 openclaw 官方文档更推荐在 wsl 子系统下安装, 但考虑到我们日常的文件和软件基本都在 windows 主系统上,让运行在子系统里的 openclaw 去操作,它们会存在不少限制,部分操作甚至完全无法实现,因此目前实际使用中还是以原生环境为主。从我自己的实测体验来看, openclaw 在 windows 上直接运行是完全可行的。 若选择直接在 windows 原生环境安装,官方又提供了三种途径,一、 loggs 包管理器安装。 open clone 基于 load gs 开发,可直接通过 npm、 pmpm 等 load gs 生态的包管理器完成安装。二、原码翻译安装 包管理器安装使用的是域翻译包,开发者也可通过 get 拉取原码自行翻译构建并安装。三、官方脚本一键安装。 前两种方式都需要手动配置 note g s get 并满足版本要求,而官方自动化脚本会自动检测环境补全,依赖升级版本,全程无需手动干预。 脚本默认采用 npm 包管理器安装,同时支持通过参数指定使用原码编研安装。那我们这里采用哪种途径呢? 首先,原码安装就算了,毕竟多出了下载原码和翻译的步骤。然后,官方自动化脚本的方式虽然很方便,但这里也不推荐,原因如下,一、 不见得可以一键成功。比如脚本安装 load g s 是 通过 winget 这个工具包,如果你的系统没有 winget 就 会失败,而且默认的执行方式失败会闪退,你很难有机会看到具体的错误信息,这会增加你对安装失败的恐惧。 二、自己不能做主如果我们的环境中没有 loggs 和 git, 脚本会帮我们安装,便利的同时我们失去了控制权,我们无法决定安装的位置,也无法决定安装的版本。 比如脚本帮我们安装的 git 是 绿色版的,没有记错的话,安装好以后环境变量没有配置,也就说日后我是无法在任意目录使用 git 命令的。三、不利于学习依赖脚本。我们甚至不知道 opencloud 安装需要 loggs 以及 git, 同时脚本会在 opencloud 安装完成后自动执行相关命令,进入配置向导,自动部署安装 get 外服务。 如果不看脚本的内容,这些细节我们都不知道。我相信很多人跟我一样,更希望每一步都清洗可控,能够自己动手敲命令完成这些配置,而不是一件交给脚本。因此,这里推荐大家使用第一种方式,通过 load gs 包管理器安装 load gs 常用的包管理器有 npm 和 pmp 两种, ipm 是 官方默认自带的, pem 虽性能更强,但需要额外安装。为了方便起见,我们直接使用自带的 ipm 来完成安装。 openclock 是 load gs 生态的程序,首先需要下载安装 load gs, 截至目前,官方推荐版本二十四,至少二十二点一四加。 我们通过这个链接直接去官网下载安装程序,在官网的下载页面确认这些默认项没问题后,点击这里下载安装程序。安装程序下载好之后,双击运行一路 next, 需要的话,这里可以改一下安装位置,最后有个让你勾选的地方,也不用管,可以不勾选这里点试 later, 等待一会就安装好了。安装好之后,可以打开一个终端窗口验证一下,输入 load 杠杠 version, 回车运行,能够输出版本号,证明 load g s 安装成功。注意,这里一定要在 load g s 安装完成后重新打开终端窗口才行。 note g s 安装好后,按理说可以安装 openclaw 了,但在这之前还需要安装一下 git, 因为 openclaw 安装的过程中有一些依赖的安装需要用到 git。 打开这个链接,直接去官网下载安装程序,来到下载页面后,点击这里下载安装程序,下载好之后双击运行这里选择是 需要的话,这里可以改一下安装位置。如果平时不常用 get 维护代码,只是为了安装 open clone 才安装 get 的 话,可以一路 next later, 等待一会就安装好了。这里可以把默认这个勾选去除,不打开版本更新说明,有兴趣你也可以打开看看,然后点击 finish, 安装好之后在 cmd 中运行 git 杠杠 version, 验证一下,能够输出版本号,证明安装成功。同样需要注意的是,一定要先打开一个终端窗口, git 命令才会生效。 接下来就是安装 openclo 了,这里 powershell 和 cmd 都可以,如果是通过官方脚本安装,是必须用 powershell, 因为那个脚本是基于 powershell 的 语法编写的。而我们这里用任意一款 word 终端工具都是可以的。只是要注意的是, powershell 默认的安全策略会阻止运行, 这时候我们通过这条命令修改一下设置即可,如果用 cmd 就 不会有这样的问题。然后不管大家用哪款终端工具,都建议大家用管理员身份运行,因为在后边安装 getaway 后台服务的时候是需要管理员权限的。接下来我们详细讲解一下安装命令, 这是官方提供的安装命令,但它在执行过程中不会输出任何日制。由于安装本身耗时较长,如果全程没有任何提示,我们很难判断进度,心里会很没底。因此建议在命令末尾加上杠杠 verbos 参数,像这样 杠杠 verbos 的 作用就是显示详细日制杠记指全局安装,作用是把包安装到整个系统都能用的位置, 而不是只安装在当前项目文件夹里。 openclaw at latest 指的是安装最新稳定版,你也可以替换成 openclaw at beta 安装最新预览版,甚至还可以像这样指定具体的版本。安装前,你可以先通过这条命令查看 openclaw 包的相关信息。 比如从这里就能看到当前 latest 对 应的版本是二零二六点三点二四以及 beta 版本所指向的具体版本号。 如果想安装历史版本,你可以通过这条命令查看 openclock 所有可安装的版本。接下来我们开始安装,我这里使用的是 c m d 命令。行,记得要以管理员身份运行。 先用这条命令查看一下当前镜像源,默认是官方的地址。官方镜像源速度较慢,我们通过这条命令换成国内的镜像安装会更快。我们再来查看一下当前使用的镜像源,可以看到已经修改成功了,我们正式执行安装命令。 可以看到加了杠杠 verbos 的 安装命令是有详细日制输出的,我们耐心等待一会儿 later, 等待一会儿后, openclaw 的 安装就完成了。安装成功后,可以通过 openclaw 杠杠 version 验证一下, 可以输出版本号,表明安装成功。另外一种验证方式是通过 i n p m 执行这条命令,查看一下全区有没有安装 openclaw。 安装完成后,我们一起来看一下 openclaw 的 安装目录,这对后续卸载以及理解它的内置技能与插件机制都非常关键。这里是 npm 的 默认全军安装根目录,在 windows 中,它的完整路径为这个 openclaw 命令正是安装在这个根目录下。 我们进入 node modules 目录,里面的 openclaw 文件夹就是 openclaw 真正的安装根目录,它的内置技能插件全在这个文件夹里。我们打开它看一下 scales 目录存放的是 openclaw 的 内置技能,打开后就能看到它自带的全部技能列表。回到 openclaw 文件夹,依次打开 dest extensions, 这里存放的就是 openclaw 的 内置插件。 这里整理了几个常见报错,不过在最新版本中,这些问题已经很少出现,我们简单快速过一遍就好。一个经常出现的错误是这个幺二八错误, 还有一个较常见的错误是这个三二二幺二二五四七七。 接下来我们来看配置部分,从整体上可以分为两大类,也可以理解为两个阶段, on booting 和 reconfigure later, 也就是首次配置和后续重新配置。 openclaw 安装完成后,首次配置必须使用 openclaw on boot 杠杠 insert demon 这条命令, 因为此时工作目录,也就是用户目录下的点 openclaw 文件夹尚未创建,也不存在任何配置文件。这条命令除了引导我们完成配置流程,还会自动帮我们创建工作目录等必要的环境。 后续如果需要修改或新增配置,就不必再使用首次配置的命令了,通常可以直接执行 openclaw configure 或者手动编辑配置文件来完成调整。我们来看这条首次配置的命令, 它的作用是,一、引导我们进行一些配置。二、建立必要的工作目录和文件。主要就是用户目录下的点 openclaw 文件夹,以及文件夹下的 openclaw 点 json 配置文件和一些像 workspace engines 等文件夹。三、将 getaway 安装成后台服务, 这就是命令后边杠杠 install 杠 demon 的 作用。经过我的测试,在 windows 中加不加杠杠 install 杠 demon 效果都是一样的,不加也会帮你将 getaway 安装成后台服务。安装成后台服务就可以实现类似开机自启的功能, 这一块在 windows 中是通过 scheduled task 实现的, linux 中是通过 system d 实现的, mac 中是通过 launch d 实现的。 注意,这条命令最好在以管理员身份运行的终端中执行,因为将 getaway 安装成后台服务是需要管理员权限的。接下来我们进入首次配置的实操演示,在开始前先提醒大家不用紧张,这个过程完全不用担心出错,任何步骤出错都可以重新来过。 视频后面会专门教大家如何重置重来运行命令。在安全提醒这里选择 yes。 回车 设置模式这里选择 quickstart, 该模式的配置项更少,无需手动设置。 workspace 目录、 getaway 端口号等均沿用默认配置。反之选择 menu 的 话,除了 quickstart 的 设置项之外,像是 workspace 目录、 getaway 的 端口号这些都会让我们设置 模型厂商这里我们先选择这个千问 over, 因为它是免费的,同时页面授权的方式不需要我们上来就去其他平台管理。 iprkey 非常适合 openclaw, 新手体验阶段, 等我们确认 openclaw 顺利安装好之后,再去挑选合适的大模型都是可以的。当然这里的免费是有使用频率限制的,不过用来验证 openclaw 的 安装足够了。回车之后,引导程序自动打开浏览器,跳转至千万 chat 的 授权页,让我们登录授权,先回到终端看一下, 此时终端中显示等待授权中。来到授权页,先登录, 登录后点击确认即可完成授权,完成授权后,这个页面就可以关掉了。回到中单命令行,流程来到了下一步。 接下来是选择默认大模型千问 over。 这个模型厂商提供了两个模型,这里是让我们选择一个默认的模型,那我们这里就保持默认。选择第一项, keep current 聊天渠道这里我们选择跳过后边再配置都是可以的。搜索提供商环节同样选择跳过,这类配置均需在对应平台生成 a p r k, 且大多为国外服务上,并非本次安装必须。后边我们再来构建搜索能力 scales, 这里可以选择 yes 表示现在配置技能。在这些技能列表中,我们暂时只勾选这个 kol hub, 提交后会帮我们安装 koluhab 命令, koluhab 是 后期用来安装技能要用的命令,这里要注意选中之后还要按空格键确认,左边显示加号才表示选中了,再按空格键即可取消。 关于这里再说一个细节,这个地方不是在安装技能,而是在为 openclaw 内置的技能安装必要的依赖。 拿我们配置的 klohab 来说,它本身已经在内置技能里了,这个技能是用来教 ai 通过 klohab 命令安装技能的, 但是默认 klohab 命令本身没有安装。我们这里勾选 klohab 表示我们现在为这个 klohab 技能安装缺失的依赖,也就是 klohab 命令。因为我们后期正好会用到 klohab 命令,所以索性就在这里安装了, 不在这里安装也行,后期通过 npm 原子到杠 g 可龙哈布也是可以安装的。回车之后,让我们选择通过哪个包管理器安装可龙哈布,我们选择默认的 npm 包管理器, 之后就自动安装可龙哈布了,本质上就是在执行 npm 原子到杠 g 可龙哈布。 konghub 安装好以后,接下来的几个 key 可以 都选择 low 这些国外的 i p r key 本身我们也没有,后期有需要的话都可以通过技能使用国内对应的服务。再然后这个 hux 的 启动我们也选择跳过 之后引导程序会自动安装 getaway 后台服务自动在新窗口启动 getaway 这个新窗口不要关闭,关闭的话 getaway 也就关闭了, 这个时候如果弹出防火墙的安全警报,我们点允许访问。 最后引导程序会自动用浏览器打开 opencloud 控制页面。到这里,首次配置也就是 on booty 流程就全部完成了。 回到终端这边,我们现在有两个窗口同时打开着,一个专门用于运行 gety 后台服务,这个窗口不能关闭,一旦关闭, gety 服务也会随之停止。 另一个是我们刚刚用来执行命令的终端,可以看到引导程序已经退出,并且提示 onboarding complete 表示配置完成。 这里提醒大家一点,有时并不会自动跳转到 opencloll 控制页面,而是会多出一个选择步骤。如果遇到这种情况,直接选择第二个选项,引导程序就会自动用浏览器打开 opencloll 控制页面。关于这一步,我们再来看看其他选项。 第一个选项指的是在 t u i 中使用 open call, t u i 指的是基于终端的界面视频,后边会教大家用命令进入这个界面。 第三个选项 do this letter, 顾名思义就是完成 onboarding 后不自动打开外部 u i, 也不启动 t u i, 不 过之后随时可以通过命令手动打开。首次配置完成后, 我们先来测试一下能否正常对话,我们发送你好,发现是能够收到回复的。然后我们来看一下工作目录有没有创建成功。我们来到用户目录下,可以看到工作目录已经创建成功, 这个目录在 openclaw 刚创建好时是不存在的,是在 onboarding 首次配置的过程中才创建的。我们再来看一下 kolonhaub 命令有没有被安装。 kolonhaub 杠大 v 可以 输出版本号,表明安装成功。之前我们提到 getaway 被安装为后台服务, 而在 windows 系统里, openclaw 的 后台服务是通过任务计划程序 scheduled task 实现的。我们可以用这条命令查看一下,能看到对应的任务已经成功创建。 如果在 onboarding 配置过程中某一步操作失误,不用担心,随时可以重置。再来第一步,如果还在引导流程里,按 ctrl 加 c 退出引导, 然后执行 opencloll on install, 基本上就能回到 onboarding 之前的状态,也就是 opencloll 刚装好的状态。如果在配置过程中 clonehub 的 命令被安装了,可以再加上这条卸载 clonehub 的 命令,然后你再重新执行 onboarding 的 命令。 再来教大家几个常用命令,这条命令可以随时打开外部 u i, 这条命令可以随时进入 t u i。 这组命令用来操作 getaway 后台服务,只有在 getaway 被安装成后台服务的前提下才有用。 这组命令用来在前台启动 get 外,这种方式是在当前终端窗口中启动 get 外,当前终端窗口如果关闭, get 外也就关闭了。这条命令可以查看 get 外的运行状态。在首次配置过程中, get 外已自动被安装成后台服务, 你也可以通过这组命令手动安装或卸载。值得注意的是, getaway 后台服务卸载之后, openclog getaway start, stop, restart 就 不能用了。最后教大家一个随时查看 openclog 命令的方法,就是使用杠杠 help 参数, 例如 openclaw 杠杠 help 可以 查看 openclaw 后边可以跟哪些操作。 openclaw get away 杠杠 help 可以 查看 openclaw get away 后边可以跟哪些操作? openclaw channels 杠杠 help 可以 查看 openclaw channels 后边可以跟哪些操作。

今天我将跟着大家一起本地步数加码四,接入 open core, 彻底告别托肯焦虑,接下来跟着我操作。 这里我们先进入 elama 的 官方网站,进入官方网站过后,我们直接点右上角的 download 下载,我们这里是 windows 系统,选择下载 for windows, 点击这里, 这里就等它下载好。下载好之后,我们这里就直接双击运行,这是它的安装界面,我们直接点安装这里,等它默认安装好。 好了,这里 elama 就 安装好了。然后我们到这个地方 elama 的 官方网站,选择 models, 这个地方选择 command 四, 然后这里我们选择我们的模型,这个模型的选择我们根据我们的显卡显存大小来选择。我们这边看一下我们的显存是多少, 这里看到我使用的是四零七零的显卡,显存是十二 g b 的 显存,十二 g b 的 显存的情况下,我们可以选择这个九点六 g 的 模型,这个一四 b, 这个我们直接点进去,选择一四 b。 点击进去过后,我们直接复制这条命令,然后运行一个 cmd 窗口, 直接粘贴这里,它就会欧拉玛会自动地给我们安装这个模型。呃,这里等的时间是比较长的, 这里模型已经下载下来,并且运行起来了,我们向它发送一条消息,试一下你是谁, 反应还是可以的,这就跟了我们信息回答了。好了,在这里过后呢,我们就可以把这个窗口关闭掉, 关闭掉过后,在 lama 这个地方我们去选择这个模型,在这个位置也就可以和它进行通话了。 比如我们问他一句,你可以帮我做些什么, 他已经帮我回答了,在这里呢,我们因为我们是在本地虚拟机上安装的,所以而且我们为了方便以后可以在其他计算机上也可以调用,我们在这地方设置这个位置 点,这个位置点设置这个允许在网络上运行,把它开起来点了就可以了。 好了,我们下一步就开始配在 open core 上配置啊,在这里我们进入虚拟机之后,我已经执行了 npm i, 刚接 open core 全曲,安装 open core 的, 我们这里可以执行一下 mini, 看下我们安装的版本。 openclock 杠 v 是 安装的最新版本二零二六点四点五版本,然后我们执行 openclock on, 在 这里我们进行一个调试,这个地方我们 yes, 这里选择快速,这个地方它是让我们选择大模型,呃,大模型它这里有,我们选择本地的这个位置点确定 这里我们直接就选择本地的,不要选云,上面是带云端的,就选择本地模型。 这地方让我们选择模型,我们选择这个,这就是我们刚刚这个就是我们刚刚下载好的模型,就是 直接回车。等一下, 这里让我们选择通讯工具,我们这直接跳过,暂时不管这个,直接跳过。 呃, scale, 我 们这边也选择否先进行最简单的安装 网关,我们就直接重启, 选择 open ray web ui 好 了,我们看一下 open core 运行起来了没有。 open core getaway style sta 好了,已经运营起来了,我们进去看一下, 这边需要 token, 我 去看一下 token 是 多少,关于 token 的 话就是我们,我现在是在虚拟机里面安装的, 我要重新打开看一下,在虚拟机里面安装,我们就直接去通过这条 mini 访问我们的虚拟机, wsl 的 虚拟机访问,然后无斑图选择 home 目录,选择我们的用户, 然后这里选择点 opencloud 这个文件夹,然后这一个 opencloud json 让我们看一下,到 git 里面去,这个地方就是我们的 talking, 复制粘贴下来到这个地方,点连接好了,我们尝试给他发一条消息,你是谁? 在主位置这个地方,我们可以看到这地方是我的模型。 我再问他一条消息,你现在使用的是什么模型? 看这里已经是我当前运行的模型 工具,在这里我们就可以看到了,我们现在整个 open call 来使用的是我们本地模型,就不需要去购买 token 了。好,今天内容就这么多,谢谢大家。

这是我自己平时使用的浏览器,这是我给龙虾用来做网页自动化的浏览器,它们都在我的 windows 系统上,彼此可以互不干扰。龙虾可以根据任务需要随时自行启动这个浏览器,我也可以随时在这个浏览器上检查和修改龙虾的工作成果。而这个龙虾专用浏览器其实就是一个调试浏览器,通过给 windows 上的浏览器开一个远程调试端口, 这样位于 wsl 二的龙虾就可以使用远程 cdp 来直接操作浏览器呢。 因为这种 m c p 的 方式只适合于龙虾和浏览器处于同一个系统中的情况,不适合跨系统的情况。如果直接在 ws l two 上安装一个浏览器给龙虾用的话,那么这个浏览器会非常不适合人来用,既没有中文字体,也没有中文输入法。一旦龙虾出了问题,你只能通过龙虾来调整, 你什么也做不了。在之前,龙虾可以通过 browser related 插件来直接操作浏览器,但是这个插件在最近的更新之后已经不推荐使用了,所以目前比较推荐的方法就只有远程 c d p 了。 调试浏览器在第一次启动时,会创建一个新的文件夹,用来存放用户数据。为了与原浏览器的 user data 文件夹作区分,可以把这个文件夹命名为 user data debug, 这样两个浏览器在数据上就进行隔离。 如果你的网页任务需要登录,那么登录一次就可以了,你的登录数据会被保存到这个文件夹中。不过这里重点强调一下,不要在调试浏览器上登录任何自媒体账号,然后让龙虾在这些平台上帮你收集数据或者做运营自动化,这么做极有可能会被封号。这些自媒体平台的核心是消费和生产内容的人,不是机器人。 这些自动化行为实质上是在破坏平台赖以生存的基础,是绝对不会被容忍的。而且平台对于账号异常行为的监控是很成熟的,不要试图挑战它。我做了两种启动调试浏览器的方法,第一种就是直接双击这个图标来启动浏览器, 这种方法可以方便你自己使用调试浏览器。另一种就是给龙虾写一个启动调试浏览器的 skill, 这样龙虾就可以根据任务需要自行打开浏览器,完成网页自动化。接下来我展示一下如何启动一个龙虾专用浏览器。首先在 power shell 中输入以下命令,回车后会自动打开一个未登录的全新浏览器, 这就是调试浏览器。你可以选择直接登录谷歌账号,也可以先跳过,然后在顶部输入框中输入以下内容。回车后页面中会展示这个浏览器的详细信息, 找到其中的个人资料路径。如果其中有 user data debug, 则说明这个有调试端口的浏览器启动成功。然后需要在 wsl 上尝试访问这个端口。因为我这里设置的是镜像模式,所以可以直接在 wsl 上输入以下命令, 回车后有以下内容出现,则说明访问成功。如果你不是镜像模式或者回车后没有内容出现,那你需要自行研究一下。接着需要给龙虾添加浏览器配置,找到 opencloak jason 文件,将其中的 browser 项修改为以下内容,添加完配置后,需要在 wsl 上输入以下命令,重启龙虾的网关配置才能生效。 如果刚才使用命令行启动的调试浏览器你还没有关闭的话,现在就可以测试一下龙虾能否操作这个浏览器了。比如给龙虾说帮我打开淘宝首页。如果已经关闭了的话,我们可以通过给调试浏览器添加快捷方式的图标来打开它。将以下 powerhouse 脚本交给龙虾来执行,执行完以后,你的桌面上就会出现 chrome open crawl 图标, 双击这个图标就可以打开浏览器。不过以上的方式都需要你手动打开龙虾才能操作浏览器,不是很方便。接下来 我们可以做一个启动浏览器的 skill, 给龙虾用。这个 skill 中的工作流程很简单,但需要注意是龙虾在每次执行任务时都喜欢新开一个标签页,这个需要约束一下。其次就是需要提醒龙虾尽可能模拟正常用户的行为习惯,操作不要过于频繁。如果需要这个 skill 或者以上的文字版教程的 可以联系我,给一杯咖啡钱就可以。如果有龙虾工作流定制化的需求,或者想讨论想法,都可以联系我,不限于内容创作、视频制作、电商等领域。

打开 open core 官网,这类开源项目在 linux 环境下拥有更加的血统支持,但 windows 更常用,因此我们选择基于 windows 下的 wsl 默认版本 ibun 上进行安装,复制对应的 linux 下的安装命令。打开 wait 终端, 打开 ibun 终端,输入复制的安装命令, 输入当前账号密码。过一段时间安装完成后,我们可以看到这里默认安装了 linux 下的翻译工具 now js 以及 open call。 当前最新版本是二月二十四号的, 注意这里环境变量的配置要记下,否则后面终端运行 open call 会提示找不到。为了方便讲解和理解 open call, 我 们先按最简单的配置方案把流程走完,让 open call 先跑起来。上手指南第一步, 这是安全警告,直接选 yes, 选择快速开始。 先不配置大模型厂商,这里先选择默认模型,这里聊天接入通道也先不配置。进入技能配置这里也先忽略,接下来的几个配置也都选择 eno, 进入 hoops 配置,这四个都选择上 网关,已安装完成,选择启动方式,这里为了方便直观查看效果,选择 y b y 方式。 配置流程完成,我们在浏览器打开这个地址查看效果, 可以看到健康状态正常,可以看到左侧有很多功能可以选择, 也有模型相关的配置,但这里还是建议在命令行下进行配置输入上面命令提示找不到 opencline 命令,修改相关环境变量, 让环境变量生效,重新运行 opencline 配置命令选择本机现在来配置 opencline 的 大脑模型, 选择 google 官方大模型,相对较贵,也可以换成第三方提供的接入地址,找到这个文件,用模板替换里面的内容, 并对替换后的内容进行相关部分的修改,即可 重启 open call。 再测试一下,它只是给自己起了个昵称,并不会告诉到底是哪个大模型, 但可以通过这个命令查看相关模型信息,同时通过频道访问其返回内容,与 web 返回内容同步。

如果你现在还在纠结 opencloud 到底是装 windows 还是 mac mini, 这条视频直接给你答案。先说一下我的真实经验,我今天尝试用 windows 安装龙虾,花了四个小时才搞定权限问题、环境配置、 load 版本,是一路报错一路调整。我是程序员出身,尚且如此,如果说你是新手, 你真的会被劝退。所以结论很简单,想稳定省时间一次搞定的,直接选 mac mini 就 ok 了。想省钱,手上还有 windows 电脑, 你还想折腾的再选 windows。 但是我要强调一下,咱们要选 windows, 加上 wsl 二,这个不懂 wsl 的 可以去百度搜一下。为什么推荐 macmini 啊,是真的省心,一行命令直接跑起来,不用折腾环境,不用修各种奇怪的报酬, 半个小时部署完成,新手都可以搞定。关键是 mac mini 功耗低,几乎没有噪音,七乘二十四个小时开着当服务器,完全没有压力。再看 windows, 坑是真的多,权限依赖、版本、杀毒、软件干扰,每一步都可能卡住你。所以我推荐 mac mini, 咱们点赞收藏,下期手把手教你 mac mini 怎么装 open cloud。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

最近爆火的 opencloud 大 龙虾大家都用上了吗?我已经在我的 windows 电脑和 mac 电脑上都用上了,而且连通了飞书,现在我在我手机上的飞书 app 上发送消息,我的智能体就能接收到信息,并且按照我的要求为我执行任务了。 今天我就来为大家介绍一下 opencloud 的 安装和使用方法,以及如何连接通讯软件。比如飞书,让你在手机上就可以发送指令,操控智能体。 所有的安装步骤和注意事项我都整理成了文档视频的最后我会分享给大家。今天的视频主要有以下几个部分,首先,我们来快速的安装并使用 openclaw, 包含 windows 和 mac 两个系统,这一步是为了让大家快速的用上并熟悉 openclaw。 然后我们来看一下如何为 openclaw 安装插件和 skill, 以及去哪里寻找相关的 skill 资源。 第三,我们来连接即时通讯软件,让你能够在手机端实时发送消息,操控智能体。这里我们以飞书为例。 第四,我快速的为大家展示一下如何在 dalker 这个隔离环境中安装 openclaw, 以及安全性问题和 token 相关问题。那这一步是当你真的想把 openclaw 当成你的 ai 数字员工,让它在生产环境中为你打工, 那我们就正式开始。首先,在本机快速安装 opencloud, 我 们需要保证我们的电脑上已经安装了 node js, 版本号大于二十二,以及安装了 git。 其实 node js 已经是我们的老朋友了,我们之前安装 cloud code, open code, java 都是通过 node js 安装的,那在 ai 时代, node js 是 你电脑上必不可少的工具,直接到 node js 官网下载,然后双击安装即可。 git 也是一样, 当我们想要在 github 上下载开源项目和资源的时候, git 是 最好的工具,安装方式也是一样,到 git 官网下载,然后双击安装即可。那注意,这一步对于 windows 和 mac 来说是完全一样的,没有任何差别。 然后我们打开命令行工具, windows 就是 cmd, mac 就是 terminal。 在 命令行里输入 node 空格横线 v 查看 node js 版本,输入 npm 空格横线 v 查看 npm 版本, 输入 get 空格横线 v 查看 get 版本,能够输出版本号,那就说明一切准备就绪,然后我们来安装 openclaw, 其实一共就两个命令,首先我们在命令行里输入 npm 空格 install 空格横线 g 空格 openclaw at latest, 然后回车。那这一步会在你的电脑上安装 openclaw。 这里我们要注意一点,你要确保你的电脑的网络环境是 ok 的, 如果出现网络问题,尤其是网络连接超时,你可以使用 n p m 的 国内镜像来安装。那具体的方法就是先运行一行命令,把 n p m 转向国内的镜像,然后再进行 n p m 意识到具体的命令我也展示在屏幕上了。 在 n p m 意识到成功后,我们运行第二个命令, open clock 空格横线横线意识到横线低蒙。这一步是进行驶出话点击回车之后,稍等一会儿就会进入驶画界面。 在初次化界面,第一个问题,我们用键盘的上下左右箭头按键切换到 yes, 然后回车。那第一个问题呢,是让你知道这个工具的风险。然后第二个问题,我们选择 quick start, 也就是快速开始,然后点击回车。 那第三个问题就是选择一个 ai 大 模型,你可以使用你常用的 ai 大 模型,要注意一点啊,这里使用的是 a p i p。 那 建议大家用一个有免费额度的 ai 先进行体验,等你熟悉了这个工具之后呢,再去购买 ai 的 订阅套餐。 这里我选择的是智普 g l m, 然后我们到智普的官网进入后台创建一个 a p i t, 然后复制出来,到命令行里进行粘贴,然后回车,然后模型,我们这里选择 g l m 四点七, 然后继续。那后面的问题我们都选择跳过或者 no, 包括是否安装 skill 以及是否配置聊天软件,那因为这些呢,我们都可以过后在图形界面中进行设置。那最后一个问题 就是 how do you want to hatch your boot? 意思就是说你想通过什么方式访问你的机器人,那这里我们选择 open the web ui, 也就是说通过网页版图形界面进行访问,那图形界面适合我们绝大多数人,如果你有编程背景,你也可以选择通过命令行访问,那之后它就会自动弹出网页, 进入到 opencll 的 智能体界面,然后我们在 ai 对 话框中输入,你好, ai 能够进行回复,就说明配置成功了,那么到此你的 opencll 就 正式运行起来了。 我们再来做一个测试,在 ai 对 话框中输入指令,在我的 mac 用户瞩目下,创建一个名为 jason 横线 opencll 的 文件夹,然后 ai 就 进行了文件夹创建,那么到此你就可以开始尝试让 opencll 为你做各种事情了, 那在这里我要强调一点,以上安装方式是直接在本机安装, windows 和 mac 是 一样的方法,运行的命令也是一样的。我们唯一需要注意的就是安全性问题,你不要把太多的个人隐私数据放到本地,以防 ai 一 不小心给你删了。 那接下来我们来看看如何安装插件和 skills, 以及在哪里可以找到 openclaw 的 优质资源。我们首先要知道 openclaw 本身自带了很多 skills, 我 们在 openclaw 的 网页上左侧菜单点击 skills, 然后点击这个 build in skills, 就 能展开它自带 skills 的 列表, 里面有一些 skills, 暂时被 block 的 话,你可以在右边看到对应的安装按钮,点击就可以安装依赖,然后这个 skills 就 可以使用了。 另外,当你在 github 上看到一些 skills 想要安装,你并不需要手动安装,你直接把 github 的 链接发给 openclaw, 让它自己安装就可以了。我们知道 openclaw 是 一个 ai 智能体,它已经足够智能,已经是一个成熟的智能体了,能能自己赚钱养家了啊,那它自己就可以给自己安装 skills。 那么我们从哪里寻找 skills 以及有哪些必装的 skills 呢?两个核心的社区,一个是 github 上的 awesome openclaw skills 这个仓库,那这里收集了几千个优质的 skills, 并且有详细的分类。那其次我们在 openclaw 的 官网 可以找到一个名为 clawhab 的 链接,点进去这里就是官方的 skill 市场。那我我总结了一些必装的 skills, 我 认为最核心的就是 fun skills, 这个 skill 也是目前社区中下载量最高的 skill, 当你提出一个具体的使用场景的时候,这个 skill 可以 帮助智能体找到并安装对应的 skills, 这样一来你就不再需要自己亲自去翻找 skills 了,它自己就能找了。 另外最好安装这几个联网和网络搜索的相关 skills 来增强网络搜索能力。那最后当你想要实现某一个具体功能的时候,你就可以直接向 ai 描述你的功能场景,并让它自己先分析需要安装哪些工具,然后自行安装就可以了。那么以上就是工具的安装, 到此,大家就可以无障碍的快速上手使用 open cloud 了。再次提醒一下,注意安全和隐私问题, 那接下来我们实现一个进阶功能,连接即时通讯软件,让你在手机上发送消息,就能操控智能体帮你干活。 我们在 opencloud 的 网页上左侧的 chinese 选项点进去就能看到它目前支持的通讯工具。那使用这些工具比较简单,以 whatsapp 为例 啊,我们在用户目录下的点 opencloud 文件夹里的 opencloud, 点 json 中配置自己的 whatsapp 号码,然后在命令行中运行 opencloud 空格 chines, 空格 log in, 然后用手机 whatsapp 扫描弹出的二维码就可以了。但是目前 openclaw 并不支持微信或者 qq 这一类中文通讯工具,那在中文环境中,截止到目前为止,最好用的就是飞书, 只需要创建一个聊天机器人就可以连接 openclaw 发消息了,而且这个方式不会造成安全隐患,因为飞书里没有你的私人通讯录,那接下来我就来讲一下如何把 openclaw 连接飞书。 首先我们要安装一个飞书插件,命令就是 opencloud 空格 plug ins 空格 install 卖家插件的名字。安装之后,我们来到飞书开放平台 注册登录,之后点击右上角开发者后台,然后点击创建企业自建应用,起一个名字,然后选择图标,点击创建,然后在左侧的菜单栏里点击添加应用能力,然后选择机器人,然后添加, 然后来到权限管理页面,我们可以点击开通权限,然后搜索关键词 message, 把有关收发消息的权限都勾选上。 那如果大家嫌麻烦,可以直接点击批量导入,然后把我笔记中的这段 jason 复制进去,然后点击开通就可以了。那这一步的目的是给与机器人相应的权限。然后我们点击左侧菜单的版本管理与发布,填入一个版本号,一点零点零,然后发布这个机器人, 然后点击左侧凭证与基础信息,把 app id 和 app secret 保存下来,然后我们回到 opencloud 页面, 点击左侧菜单中的 channel。 因为刚才安装了飞书插件,所以现在显示的就是飞书的配置界面。首先把 app id 和 app secret 配置进去,然后 connection mode, 选择 web socket, 我 们填飞书, dm policy 和 group policy 都选 open, 然后保存就可以了。 然后我们回到飞书界面,点击左侧的事件与回调事件配置,这里选择长链接,然后点击添加事件,搜索关键词 receive, 勾选这个接受消息,然后点击确认,然后再次重新发布一下机器人,到此所有配置就完成了。 然后我们来到飞书 app, 你 可以在手机上下载 app, 也可以在电脑上下载飞书 app, 在 聊天界面的搜索你创建的机器人名称,那我的机器人叫 jason bot。 然后就可以向机器人发送消息了。我们先发送一个,你好,你是谁?第一次发送消息的响应速度会比较慢,稍等一会我们能,我们就能接收到回复了。 然后我们再发送一个指令,在我的用户瞩目下,创建一个名字叫 jason 横线飞出的文件夹,点击发送,然后智能体就开始开始执行任务了, 马上文件夹就创建好了,那么到此我们就成功连通了飞书。只要我们的电脑是开机状态, open cloud 是 运行状态,我们出去玩的时候,用手机飞书 app 发送消息,就可以给智能体下命令,让它干活了。 到此你已经掌握了 open cloud 的 主要的基础功能,你现在就可以上手试用这个智能体工具了。那最后我来快速介绍一下如何在 docker 这个隔离环境中部署 open cloud 以及 token 相关问题。当你深入使用了 open cloud 这个工具, 觉得你确实需要一个这样的数字,员工来二十四小时为你干活,那么最好的方式就是在一个隔离环境中部署它。这也是为什么 open cloud 带动了 mac mini 的 销量,因为 mac mini 性价比高,运行功率低,适合二十四小时不间断运行,那还是一个全新的环境。 所以你也可以在本地使用 docker 这个隔离环境来部署 openclaw。 方法很简单,首先要安装 docker desktop 这个 app, 那 它也是我们的老朋友了,那之前安装 n 八 n 和 deepface 都是用它安装的。安装好之后,我们来到 openclaw 的 官方 get up 仓库,把这个仓库下载下来。 我们使用 git clone 命令把它下载到本地之后,在文件夹内就能看到一个名字叫 docker setup 点 s h 的 文件,我们在当前文件夹内打开 bash 工具。那这里要注意啊, mac 可以 直接用 terminal, 而 windows 则需要使用 git bash 这一类的 bash 工具。 我们输入点斜线 docker 横线, setup 点 s h, 然后它就自动安装了。那另外呢,你也要注意网络问题,开启代理 安装成功之后,就自动进入到了出场界面,那和之前是一样的,选择 ai 模型,然后配置 a p i p, 这里我就不多做展示了。那我个人更建议大家使用独立的电脑或者云服务器来部署这个 ai 数字员工, 因为本地刀客的使用还是需要一定的技术门槛,尤其是网络问题和权限问题。那如果你没有编程背景,确实是有一定难度的,那目前阿里云和腾讯云都集成了 open cloud, 非常方便。 那另一个就是 token 问题,智能体的运行非常消耗 token, 那 说不定一晚上过去你的卡就刷爆了。那这里建议大家订阅类似 coding plan 的 套餐,在五小时内允许几十次的访问, 那类似这种包月的方式就不会让你的 token 无限制消耗了。那目前最经济实惠的 ai 模型就是智普、 glm, mini max 以及 kimi, 大家选择自己喜欢的就可以了。那最后还是要强调,一定要注意安全和隐私问题,不要让 ai 访问自己的核心隐私数据, 那么到此本期视频内容就结束了,那具体的安装步骤我都整理成了文档,大家可以在我的主页频道信息中找到我的个人网站,在那里可以下载文档和资料。大家在使用过程中有任何问题都可以给我留言,记得点赞关注,谢谢大家!

大二数据科学在读,今天记录一下在本地跑通的 open cola, 给大家看一下它能干什么,以及我接下来打算怎么折腾它。现在它跑在 ws l 上,配了 mini max、 dipsic, 还有本地的宽 n 三四 b, 主打量大管饱,演示还是用 mini max 吧。比如我现在让它给我的大创项目写一份产品架构和功能实现说明书, markdown 格式直接保存到项目跟目录,它会按我的要求生成结构化内容, 并且落地成文件,而不是只在聊天框里给我一段文字。不过说到本地模型,昆三四 b 稍微复杂点的任务就开始出问题,读写也慢, 四零六零显存真心不够用,后悔高考结束没上更高显存的卡,最后还是切到云端 api 舒服。 deep sea 量大管饱,加速跳过,等待时间。 好了,马上就要写好了,我们打开看一眼。但说实话,刚才演示的这些都还不是真正的智能解锁,因为我不告诉他具体指令, 他就不知道该去看什么。所以我接下来要给他接一套完整的 r a g 管线, n b d 模型,向量数据库重排序,让他真正能在垂直领域的知识库里自主解锁,就像私人助理一样, 是不是还行?虽然这些 a i i d e 也可以做到,但是用这个还可以完成学校一些水课的报告,直接给需求,然后做完发给数据库里某个老师的邮箱。 就这样一个普通大二学生的日常,如果你有本地跑大模型的好方案,欢迎指路,毕竟那四零六零还得再战几年。路过的大佬,如果有相关的学习建议,欢迎分享给我,这对我很重要,谢谢!

想在本地部署 openclock 的 同学,这个视频你们跟着一步一步来做,基本上都可以成功的。这里我用 windows 系统来举例啊,如果你们是苹果或者 linux 系统呢,那部署起来会更加简单。其实要在 windows 上面来部署呢,也不是很难, 需要我们手动去安装的东西呢,其实就两个啊,一个 ws l, 还有一个就是 openclock。 你 们在网上面看到那些啊,让你们在 windows 下面呢,又安装 nodekit, 完完全全是多余的啊。 不是说 opencl 不 需要 note 和 get, 而是说装在 windows 下呢,它一点作用都没有,因为我们是在 wsl 下面去跑的,也就是那 windows 下的一个 linux 系统, 你在 windows 里面给它装这么一堆东西, linux 里面还是没有的,到时候呢, opencl 还是要给你再重新装一遍这些东西。所以呢,我们就直接在安装 opencl 的 时候,让它检测到环境需要什么,它就会自动给我们安装了。 就比方你们现在看到的这个终端啊,现在呢,我还是在 windows 目录下面的,我来检测一下 no 的 版本,可以看到这个的版本号呢是二四点幺四点零,这一个呢是我本来就装在 windows 系统下面的,现在呢,我进入一下 wsl 这里呢,大家可以理解成啊,我在 windows 下面呢,进入了一个 linux 的 子系统,然后在这里呢,我同样查看一下 node 版本,可以看到两个的版本号呢,是不一样的,一个是二十二,一个是二十四。 因为到时候我们的 openclock 是 要在 wsl 下去跑的,所以 openclock 它环境需要的 node git 这些呢,都要在 wsl 下面去安装才有用的。 我们给它装在 windows 下面呢,一点用都没有,所以我们不需要额外安装那些,我们直接去安装 w s l, 把这一个装好呢,我们的部署就成功一半了。其他环境需要的那些 node git, 到时候安装 opencloud 的 时候呢,它会自动帮我们安装的。虽然我们不用手动去装这些 node git, 但是呢还是要做一些额外的准备啊,比方科学上网, 学上网这一点非常重要啊,要不然的话,这个过程呢,很有可能你就会因为网络的问题啊,没办法部署成功。其次我们的电脑呢还要做几个设置啊,这一点呢,很少人说到,但是还是挺重要的。首先我们打开任务管理器,在左边呢,进到性能选项卡, 然后看一下右下角啊,它有一个虚拟化啊,我们要保证虚拟化呢是一起用的状态,基本上呢它默认都是一起用的啊,如果说没有起用的话,我们就手动给它起用一下,然后我们通过运行窗口输入这一个命令, 打开 windows 功能,拖到最后,这里面呢有一个适用于 linux 的 windows 子系统,还有虚拟机平台啊,这两个呢,我们都要给它勾选上啊,勾选上之后呢,我们就点确定就可以了, 等他应用我们的更改,然后呢我们就要启动一下我们的电脑大模型,这里呢我就用千问来给大家举例啊,因为他有免费的头梗赠送,所以呢大家可以来到千问这里啊,先注册一个账号。 安装这个之前呢,我们还要对网络进行一下配置,选中我们连接的这个网络啊,右键属性, 现在呢,我们都还不需要配置科学上网啊,就用我们本来的网络设置就可以了,我们就来改一下这个 dns 服务器啊,给他编辑一下, 我们就来改一下 ip 四的 dns 地址,默认呢,他可能是自动获取的,我们给他手动填啊,这个地址你们就按我一样的填就可以了。准备工作做完之后,我们就来打开泡泡消,这里呢,以管理员的身份运行 这里,我们就输入 wsl instyle 这条命令,然后根据它提示的这条命令哈,我们来安装一下,有帮图, 安装完之后呢,它可能新弹出一个窗口啊,也可能在本来的窗口啊,让你新建一个用户名和密码,你就按照提示来输入就可以了。 输入密码这里大家要注意,它是不显示出来的,你就正常输入,确保输入的没有问题就可以了。最后看到有颜色的这一行,带有你创建的用户名的这一行啊,就证明你的友邦图已经安装成功了,也就是那你的 ws l 就 安装成功了。 接下来我们就准备安装 open curl 了,来到 open curl 的 官网,现在呢,我们就要把科学上网配置好了,要不然呢,它会出问题啊。 找到 runs on your machine, 左上角先切换成简体中文,然后呢点安装, 我们就复制它快速安装的这条命令,这个时候就可以打开 wsl 了,没问题,成功进入了 linux 系统,然后把刚才复制的安装 opencloud 的 命令粘贴运行一下,现在它提示我们输入刚才创建的用户密码, 输入完之后它就开始安装了,像这里它会先检测环境需要的东西啊,像这里 node js not found it's already now 啊,它第一步就会把 node 给你装上, 下面就正式安装 open curl, 这里大家可以看到 git 它都给你安装好了,所以通过 wsl 方式呢,我们是没必要在 windows 下面手动来安装这个 node 而 git 的, 你一装还装错地方,甚至呢,装这个东西还装出问题,所以还不如直接给 openclip, 它自己来帮你安装。现在呢,它就帮你安装 openclip 的 二零二六三点幺二版本。 意识到出现 openclip 这个图像,我们 openclip 的 安装呢就已经成功了,接下来呢就做一些简单的配置就可以了,现在问我们是否继续啊,选 yes, 然后呢 crystal 快 速开始。下面这些呢,我们都是保持可以跳过的,先给它跳过啊,否则呢,就选默认,先让它把 open color 给装起来,后面呢再更改配置都可以了。选 skip now 给它跳过啊,选第一个默认也是保持默认啊, select channel 啊, step now 给它跳过。 search provider 也是给它跳过,问我们是否配置 skills no, 后面再配置都可以的,这个 whose 也是给它跳过。 ok, 现在我们就可以打开 open crawl 了,它上面呢有一个地址,我们按着键盘的 ctrl 键,然后点一下它, 他就会打开 openclaw 的 web 页面。这个呢是和 openclaw 的 智能助手聊天的页面,但是因为我们现在还没有接入大模型啊,所以呢,和他聊也没什么用。接下来呢,我们就要去接入千问的大模型,同样打开 power shell, 进入 wsl, 然后运行一下 openclaw config 这条命令,选 local, 然后就 model 这里模型的话我们去选到千问, 现在它是等待千问那边的授权,授权完毕呢,就接入成功了。这里我们可以复制一下这个地址,然后到浏览器去打开, 因为刚才已经让大家注册好千万的账号了,这边呢,直接点确认就授权成功了。其实到现在啊,我们的大模型呢就已经接入成功了, 现在就可以回到 opencloud 的 web 界面了。现在呢,我们和智能助手聊下天呢,只要他能回答我们的问题,就证明我们的大模型呢已经接入成功了, 没有问题,已经可以正常回复了。这样呢,我们的 openclaw 就 部署完成了。这个视频呢,就先到这里啊,下个视频再带大家来把 qq 飞书这些聊天工具呢,接入 openclaw。

打开微信查看设置,我们看到这个微信的版本,它是八点零点七零, 只有这个版本才支持 open cloud 的 链接。好,如果你不是可以升级,升完级以后,我们点插件就会看到有一个微信 cloud bot 这样的一个 新的插件,我们点详情就会看到这里有一行命令,他说在你运行 openclaw 的 设备上安装这个命令就可以了,其实我们点复制 即可。我的 openclaw 呢,是在我的 windows 上利用 wsl 装了个优盘图,在这个优盘图上装的 openclaw, 我 们把刚才从微信复制那个命令 哎粘过来,然后回车安装即可。如果你是第一次安装,他会 顺序的安装下去。好,这个时候呢,他就会跳出个二维码,你就需要打开微信扫这个码,然后进行登录即可。我,我们打开微信的扫码, 扫我们屏幕上这个码,然后链接,这个时候呢,我们就可以和我们的 openclaw 中间这个主代理进行聊天了,这个时候前面注意 openclaw 会有一个重启的动作,所以要等待这个重启完成。好,我就可以给他说话了。你好 好,对方正在输入这个 openclaw 的 主代理在回复我,你好呀,老贵,我在啊,因为这个 openclaw 之前我给他起了个名,他也知道我叫什么名字,所以呢,他能准确地回答我, 今天东京天气怎么样? 好,他接下来就去查天气,查完天气以后他就应该给我反馈过来。好,你看,他说天气是大约十四度啊,贵主委为你提供呢,是因为 我在 overclock 上写了个插件啊,利用 hook 给他,在这个回答的前头呢加了一行字,这样呢,维系就可以简单并且很顺利地与 overclock 建立了关联。 接下来呢,我们看看 openclaw 刚才添加那个微信在哪里。好,我们首先看到这个频道就是 channels 里边已经多了一个微信的一个配置,这个配置最终会写到这个 openclaw 那 个 jason 文件中。 第二点呢,我们去看这个代理哈,我们看主代理,主代理在这个 channels 里边也多了一个微信。好,这样呢,我们就顺利的把微信给链接到我们的 opencloud 上了。

下面是 openclock 的 安装教程,首先我们打开这个应用, 然后点击浏览,先安装 wsl, 因为我们的安装是安装在虚拟机上的,然后开始第一阶段,这个时候它会自动安装 好,现在它安装完成了,然后我们输入大写的 r, 重启一下电脑 重启之后呢,我们继续打开,然后它会进入第二阶段,这个时候点击浏览,然后安装 uban two 的 镜像, 会弹出一个窗口,然后会显示安装的进度 好,进度跑满之后 要设置一下你的账号跟密码,这里推荐简单一点就输入 open globe, 然后密码是不可见的,你输入直接按回车就行,要输入两遍,建议四到六位的数字。 好,这个时候关闭窗口,我们回到主窗口来, 它检测到您已经安装成功了,然后输入一下你刚刚设置的密码, 这个脚本会自动检测最快的一些镜像原, 现在就安装成功了。然后我们现在我进这个配置了,我们直接回车退出,然后进入网页配置, 我们打开刚刚添加的优班兔,然后输入下面的命令, 好提示已经安装成功了,然后我们看一下摆满号,脚本是会安装最新的摆满号, 这个时候我们输入出口命令,然后再输入 getaway run, 启动网关。 好,我们再打开一个窗口,然后我们看一下网关的密钥是啥,我们输入这个命令 好,按住 ctrl 点一下那个链接,跳转到浏览器,然后在配置页面我们配置一下大模型。 好,这个时候我们把模型配置粘进来,粘进来之后点保存,然后我们尝试一下, 好,它现在就可以正常使用了,下面我们看一下怎么安装技能。 安装技能很简单,你直接跟他讲,他会直接去读下面的文件啊,现在就安装成功了。然后我们试一下这个技能能不能用。 好,我们看一下他抓起的这些,对不对?

opencloud 不 适合百分之九十的普通人,唯有三大理由和一个阴谋论去帮你去魅。 opencloud 简单来说就是一个可以操控你电脑的 gpt 或者 deepseek, 可以 运行你电脑上的程序。 第一个理由呢,就是经济成本,首先你需要有一台闲置的并且能二十四小时运行的电脑去部署这个 opencloud, 同时这个电脑的性能还不能够太差。最好呢还得是苹果电脑,因为有很多功能,比如说录屏啊,在 windows 系统上经常会出现问题,而且软件生态呢,也是苹果系统更好。其次呢, 就是 token 的 开销了,这个就是重中之重了,很多博主鼓吹的什么免费啊,便宜的代模型,但是呢用起来太笨了,而且使用体验非常的差。而一些好一些的模型呢,比如说 cloud 啊, open i 或者 jimmy, 你 使用一次 执行一次任务,动辄呢就是几十万的 token, 折合下来呢,几块钱就没了,而你真的需要去付费执行这些任务吗? 第二个理由呢,很多使用场景呢,它都是委曲求,比如说你让它处理你本地电脑上的文件啊, pdf, 那 我请问了,你难道没有 wps 云文档了吗? 是什么样的场景需要让你拿起自己的手机,打开 whatsapp 或者飞机,然后发送指令让它处理你本地电脑上的文件,这个文件还不是你公司电脑上的,是你本地电脑上的文件。其次呢,还有说让它帮你进行交易,这个世界面上有那么多成熟的而且久经安全考虑的量化 交易软件,你不用,你非要自己弄策略,自己去下单,你也不考虑安全上的问题,哎,就是要 diy 主播,自己呢也是有玩 solo 的, 我是绝对不可能让自己部署的 open call 去帮我执行策略去交易的,一不小心全给我爆仓了。 至于什么帮你自动运营自媒体,那就更扯淡了, ai 味道那么重的内容,你确定你发出去有人看吗?你发送一条内容所消耗的 token, 你 确定你可以变现赚回来吗? 第三个理由呢,就是技术门槛。首先,安装它就有一定的技术门槛,很多人说网上有很多保姆级教程啊,你跟着敲就行了。我想说的是,如果你能跟着教程把它完整的安装下来,你就已经不是百分之九十的普通人了。真正的普通人,他们连命令行工具 c, m、 d 他 们都不知道要怎么打开,更别提什么 下载 note js 啊, get, 只有图形化的安装界面才是真正适合普通人的软件。其次呢,配置大模型,配置配置 whatsapp 维书,推特,那就更麻烦了,更别提你还要考虑安全权限的问题。你最好呢还是要有一个隔离的环境,不然他把你的一些重要资料或者文件给删除了,而且他还可以直接去操控你的浏览器,而大部分人呢,浏览器都绑定了十分重要的账号。 最后呢,我想谈一下我的阴谋论,直说了,我觉得就是有一些国内的大模型厂商在炒作这个热度,大家仔细看一下教程里配置大模型,也就是你需要花钱的这一步。上面呢,有几个国内的厂商恰好呢上个月刚在港股上市, 而且呢,有很多点击量十分高的安装教程,都无一例外的推荐你使用这几个收费的大模型厂商,而且呢要使用他们的邀请码 视频呢?最后呢,我想强调一下我的观点,我问我认为 open call 这种本地 agent 的 形式十分的有前景,而且它很有想象力的空间,但是限阶段它还不适合百分之九十的普通人,大家不要这么焦虑,好像觉得自己已经落伍了。

本期视频分享下我自己部署 openclog 的 实战经验。咱们不炒概念,只讲实操,以及基于实操的真实体会。关于部署环境,网上很多人都在推用 mac mini 或者去租个云电脑, 但我的结论是大可不必。我目前的最终选择是直接在家里闲置的主力 windows 电脑上装一个 linux 子系统来跑,为什么不选其他方案? 咱们先来盘盘这里面的坑。第一个大坑,租用云服务器。我最初上手时图省事,租了某大厂的云应用服务器,五十八块钱一个月,两盒二 g 内存点点鼠标,确实装的很快,但跑起来你才发现,这配置充其量只能算勉强续命。 你要想让它顺畅的跑起来,起码得四核八 g 的 配置,那月租直接飙到了两百二十块以上。最要命的是,云服务器的限制极其多,比如你想让它科学上网去查点 x 或者 youtube 上的信息,连接会非常不稳定,直接断了龙虾的触角。第二个大坑, 买 mac mini。 听说现在十六 g 内存 m 四 mac mini 的 二手价国内都被炒到了四千块以上。很多人花这笔钱仅仅是为了追求所谓的物理隔离,但这背后的代价太沉重了,你失去了用主力电脑上 ai 编程工具来维护它的能力。你把 opencloud 单独扔在 mac 里, 一旦他哪天挂了,你又不懂底层代码,就得重新回去苦哈哈的查资料排错,对咱们普通人的门槛太高了。所以进入正题,为什么我最后选择在主力 windows 电脑上装 linux 子系统?核心原因有三个, 一,底层兼容。 openclaw 本身跟 linux 是 原配,但如果硬装在 windows 系统里,会报各种离谱的错, linux 子系统完美绕过了这道坎。第二,系统级的环境隔离。装在子系统里的 openclaw 有 它自己完整的权限,除非我在 windows 主系统里特别允许, 否则它是绝对碰不到我主系统里的任何进程和核心文件的,完全能实现环境隔离,非常安全。第三点,也是最核心的,是为了适配我个人的情况。 我的主力电脑是不关机的,平时纯靠各种 ai 编程工具来开发写文案管系统,在 e 盘里积累了一大堆的流程规范文档,我需要 linux 里的 openclaw 能读这些文档来附用技能,还需要它能自动迭代更新。 这怎么解决呢?很简单,利用 linux 子系统的磁盘挂载功能,我单独给它开放 e 盘的读写权限,在风险绝对可控的前提下享受最大的便利。 而且因为我不太懂技术细节,如果子系统里的 open cloud 哪天运行出 bug 了,我可以直接在 windows 主系统里唤醒我的 ai 编程助理,跨系统去把它给修了。另外,只要在子系统里装个叫 vpn k i t 的 工具,它还能直接共享我主系统的代理, 科学上网极其丝滑。当然,这套方案真要落地,还是得解决一些技术细节。比如怎么把子系统那庞大的虚拟磁盘从寸土寸金的 c 盘完美迁移到 d 盘。 又比如,我平时是用 team 模式代理来跑 codex 与 antigravity 的, 跟子系统的虚拟网卡路由重叠了怎么破? 再比如最后怎么配置飞书或者 telegram 给它当嘴巴。不过没关系,以上这些坑我都踩过且解决掉了,所有的解决方案我都整理成了一份标准指令文档,即使你换台新电脑,只要把这份文档喂给你的 ai 编程助理,它就能帮你全自动搞定一切。 我是 cc, 分享那些不吹牛的 ai 实战经验,咱们下集再来扒一扒这只龙虾到底能不能当成 ai 员工来用。