粉丝1020获赞1.0万

这可能是二零二六开年超火的 ai 工具,连续三次改名, github 上超过十万新,号称电脑里的贾维斯。 openclaw 是 一款开源自托管的个人 ai 助手,不光能聊天,还能真正接管本地设备,打通聊天平台、浏览器和各类应用,实现跨平台自动化操作。 今天这条视频教大家如何快速部署 openclo, 并把它集成到飞书里,打造一个随叫随到的 ai 员工,小白也能学会。建议先收藏。详细的文字版教程已经整理好了,视频结尾可以自取。一、 打开清亮应用服务器,并安装 openclo 镜像,进入这个界面,点击应用镜像,选择 mode 时长,这里可以根据自己的需求选择。目前有活动六十八,能用一年。点击这里, 然后点击这里,进入管理后台。二、配置 openclaw 接下来我们配置 openclaw, 打开阿里云百链,点击左侧导航栏的密钥管理单机创建 apikey, 然后回到云服务器界面,点击实力 id, 进入服务器概览页面,点击应用详情,开始配置 openclaw, 先点击这里的一键放通, 然后点击执行命令,复制粘贴阿里云百炼深层的 a p i t, 点击下一步。接下来点击执行命令就可以获取 openclaw 对 话的地址,先打开这个地址,等下还会用到。 点击执行命令,可以查看 token 配置,然后切换到 open kala 的 对话界面,点击左侧导航栏的 config, 点击该退,切换至 h t t p 页签,在 responses 区域将 enable 切换至开启,如果已经开启就不用再设置了。到这一步,我们已经可以正常和 open kala 对 话了, 接下来我们还可以进一步把 open kla 集成到飞书。三、创建并配置飞书应用进入飞书开发者后台,点击创建企业自建应用,填写应用信息后单机创建。在左侧导航栏中选择添加应用能力,选择按能力添加,找到机器人卡片,点击添加。 在左侧导航栏中点击权限管理,点击开通权限,搜索并添加屏幕上的这五个 api, 权限完成后进行下一步。点击左侧导航栏的凭证与基础信息, 查看并复制 app id 和 app secret, 点击左侧导航栏的事件与回调,点击加密策略 重置,生成一个新 encrypt key, 之后再复制 encrypt key 和 verification token 到粘贴版。四、创建飞书连接流打开阿里云 app 福洛模板中心的飞书 openklo 模板,点击立即使用添加一个新的飞书凭证, 填写凭证名称,剩下的四栏分别填入前面复制下来的信息,之后在下拉框中选中创建好的凭证。接下来创建 open kla 凭证 token, 这里填入前面获取的 open klo 凭证,填写完成后点击确定,并在下拉框中选中创建好的凭证。点击下一步。这里我们需要前往服务器详情页获取服务器公网地址, 并按页面提示填入公网 ip 端口号默认为一八七八,点击下一步,直到完成配置。配置完成后点击发布,复制并保存 weboker。 五、配置飞书机器人 返回飞书开发者后台事件与回调界面,点击事件配置,然后配置订阅方式,选择将事件发送至开发者服务器,填写上一步复制的 webhooker, 点击保存 已添加事件区域,点击添加事件搜索并添加接收消息。事件填写完成后,点击左侧的版本管理与发布,点击创建版本,填写相关信息后保存并提交审批。我们就把 open club 在 飞书里配置完成了。接下来返回飞书,在群机器人中找到 open club 并添加, 然后艾特机器人发送消息就可以实现对话,也可以让 open club 在 飞书里帮我们执行更多任务。 到这里,一个接入飞书二十四小时在线,还能帮你自动处理繁琐工作的 ai 员工就部署完成了。详细的文字版教程我已经整理好了,有需要的朋友直接在评论区扣 open club 就 能领取。以上就是本期全部内容,我们下期见。

你如果用这个 open cloud, 肯定会消耗很多 token, 那 最好的方法就是用免费的模型,这里它就会支持 onigravity。 千问还有 open code, 咱们这里就教一下怎么设置这个 onigravity。 用它里边的免费模型装上了之后就 out bought config, 这里边就点选 logo, 这里边儿选 model, 这个再选里边儿的模型。因为 onigravity 是 谷歌的,所以这里边儿选谷歌,选 onigravity。 当然你可以选这个 google gemini c l l, 这个也是因为 gemini c l l 也是免费的,但是 onigravity 它有更多模型,包括 cloud code 的 模型,还有 gemini 的 模型,所以这个 咱们选 onigravity, 它会跳一个网页让认证,所以这里你就选你的谷歌账号儿就可以了。 三音这很快就认证成功了,就可以选模型了。这里它选的模型比较多,所以就会需要一直往下拉, 它在谷歌 on the gravity 里边往下走,走走走,这是 coco 的 get up, 对, 这里就是大家可以看到谷歌 on the gradient。 我 这里边是把谷歌 on the gradient 下边的模型全都选了之后选,直接按空格就可以选和反选, 选完之后按那个回车就可以选定了,这里话直接跟 t 钮,然后它结束之后就可以自动地使用 anti gravity 模型了。这样 clubbot open cloud 就 可以免费使用 anti gravity 里边的 cocoon 了,就不用自己买 cocoon。 当然你可能配置完之后想选自己的首选模型,因为 integrative 里边儿有很多模型,咱们可以在这里边儿配置。在这个尼加目录点 cloud bot, cloud bot, 点 jason, 我 这里边儿直接打开,咱们就往下走,这里边儿你可以看 a 阵词,下边儿这有一个 default, 这就是你默认用的模型,这里有个 primary, 就是 它首选的模型。就是啊, google on the gravity 里边儿这个 color whoops, 四点儿五 thinking, 这个比较慢,所以我想要把它改成 gemini flash 这个模型,咱们呢? sun flash 对 这个模型会比较快,所以我想把它改成这个模型,当然你可以自己改,它就会首先尝试的模型是这个,如果不行,它会用 fallback。 这边的模型我现在已经改好了,之后我就可以保存重启一下 clubbot, 它就可以 clubbot play the gateway start, 我 又拼错,然后这就重启了,就可以开始用我新设置的这个 drama 三 flash 这个模型了。咱们看一下它具体的情况, 你就会看到你的模型已经开始用。呃,首选模型,这个有时候它算比较慢,但是总体来说它会遵循你的配置的。今天就到这来谢谢大家,希望可以帮到你们。

你现在打开 kimi 的 官网,点到那个 bot 页面,你会发现它悄咪咪上了一个新能力,叫 kimi 可乐。 大家好,我是杜宇,带你看懂 ai 赛道的钱和事儿。今天我们聊聊 kimi 版的 open 可乐。以前呢, open 可乐这个玩意儿,你想用,得先折腾环境,还得保证电脑别关机,最好再搞个 vps, 让它二十四小时在线。 前几天啊,一个在北大读 ai 博士的学弟都还在吐槽部署 openclaw, 搞了半天挺费劲的,更别说没有技术背景的普通用户了。现在好了, kimi 的 玩法是,我直接给你把 openclaw 云端托管好,你开浏览器就能用。就很像你别自己装空调了, 我把中央空调给你装在云上,你按开关就行。那 kimi claw 跟 openclaw 到底差在哪呢? openclaw 更像是自己买一堆零件,组装一台高性能台式机,自由度很高,你想换显卡换硬盘,随你,但你得会装,会调坏了还得自己修。 amyclaw 更像你直接买一台云电脑,加预装好所有软件,你不用研究驱动,不用担心电脑一关它就罢工。 重点是它能一直在线替你跑事情。官方对比表里写得很明确, kimiko 是 一键云端就绪。 local openclore 需要手动安装配 api 管,依赖 kimiko 七乘二十四小时在线 local openclore 电脑不开机就停。 kimiko 技能库是五千加即取即用, local 是 你一个个装, kimiko 默认给四十 g 的 云存储 local 是 你一个个装, kimiko 默认给四十 g 的 云存储。 local 看你自己硬盘有多少。而且还有一个很关键,但很多人会忽略的区别。 kim kilo 强调,把复杂的 agent 能力做成了普通人能吃的套餐。比如他强调长期记忆和人格定制,你可以一次性告诉他,以后给我写报告,统一用这个格式,每次都带一个风险提示,他会记住他还支持定时任务。你可以让他每天早上九点自动给你做行业新闻雷达,周五下班前自动出周报。 这就是从你叫他一下,他动一下,升级成了你不叫他,他也给你把活干了。这类能力在 open 可乐上当然也能做门槛更像你得会装会配会首页。 kimi 可乐是你,会打字就行。 我知道你们现在最关心的不是技术,是我一个没技术背景的国内用户,到底能拿它干嘛?别急,你先别急着要让 a i t 我 上班,先听我把边界讲清楚,后面我再给你一个最稳的用法,不听你可能会踩坑。先说最实用的信息过在时代, kimi 可乐这种常驻在线的东西,本质上就是你的私人情抱怨。 比如你让他每天固定时间去搜你关心的赛道,抓最重要的五条,压缩成你能看懂的两三句话,并且按你的习惯规章。哎,你别小看这个,像我们做投资,最怕的不是没信息,是信息太多、太碎、太吵。你每天刷到的重磅炸裂,史诗级,可能百分之八十都是情绪价值。 真正值钱的是持续跟踪,结构化记录,最后形成判断。 kimi klaw 把持续跟踪这件事变得更便宜了,因为它不需要你一直盯着,它能定时跑,还能把东西存下来。 第二个用处是把工具链这件事给你抹平。以前你要做数据分析,得先找工具,装插件、传文件,再导出图。 现在他能直接在聊天里调用 cool hop 技能分析 cv 作图,甚至打出报告。这种流程你就用人话描述就行。相当于以前你是自己开餐厅,自己当厨师,现在你是点菜,他自己去后厨把技能教出来干活。第 三个用处是内容生产,从手工作坊变成流水线,比如白皮书、竞品分析、营销、复盘会议。既要整理这些活不难,但极其耗时间,属于那种你做完了也不觉得自己变强,只觉得自己又老了两岁的活。 kimi klo, 把它的价值说得很值, 你可以让它端到端,跑工作流,还能保存产出,跨设备拿回来继续用。对普通人最爽的一点是,它把 open klo 那 一套会干活的 agent, 从即刻玩具往日用家电方向推了一大步。 好,说完能干嘛?我再讲你们最关心的那句,这是不是意味着国内没技术背景的人也能享受 openclaw 了? 结论是更接近了,但要看你怎么定义享受。 kimi 的 做法是把 openclaw 直接原声塞进 kimi 的 网页里,让你用浏览器就能启动一个云端的 openclaw, 省掉本地部署依赖配置、机器长驻这些麻烦。这对国内用户来说就是门槛断崖式下降。但它也不是完全无门槛关, 官方写了一键云端部署,需要 alipay 及以上的会员。如果你已经自己本地跑着 open core, 也可以选择 link existing open core 把已有的连进来。会员过期之后啊,云资源保留七天之后会永久关停并清空相关数据,这个你要心里有数,别把它当成永不丢的网盘。 kimi 这波操作,本质上不是发明了 open clock, 而是把开源的生产力包装成可交付的服务,并且用产品和分发把价值吃回去。开源世界里最稀缺的从来不是代码,是把它变成普通人一键可用的那一层体验。很多创业团队喜欢在 github 上卷功能,最后用户用不上 kimi, 反过来直接从用户角度卷摩擦,不用终端命令,不用服务器,不用守着电脑开机,还顺手把技能库存储、定时任务这些真实的刚需打包了。 你如果是国内创业者,可以抄的不是也做一个 flow, 而是这种思路,把复杂能力做成可附用的云端工作台,让用户用人话就能启动一条工作流,然后你赚的是省事的钱。 尤其中国市场,用户付费意愿往往不为技术先进买单,而是为我少折腾啊,我今天就能出结果买单,你做土币就更明显。老板不关心你是不是 agent, 也不关心你是不是多智能。他就问一句,能不能把流程提速,能不能减少出错,能不能把新人训练成本打下来?金 米可尔这种产品形态,就是把 ai 能力从聊天窗口拉进了流程里,拉进了时间表里,拉进文件柜里。最后给非技术背景的同学一个特别现实的建议啊, 先用 kimi kong 搞定三件小事,第一,固定时间的资讯雷达。第二,固定模板的周报月报。第三,你最烦但最重复的资料整理。 你会发现,一旦这三件事稳定跑起来,你每天省下来的不是时间,是注意力,而注意力才是这个时代最贵的资产。点关注不迷路, ai 搞钱,我带路,我是杜宇,咱们下期见。

掏出手机,打开飞书,给 oppo klo 发条消息,读取桌面上的财务数据,点 c s v, 生成实时化的分析报告,保存为 word, 发送给我回车,不到两分钟,一份包含专业图标的分析报告就发过来了。 再来发消息,帮我打开招聘网站,搜索 ai 产品经理职位,整理前二十个职位信息发给我回车,他真的打开了我家电脑的浏览器,自动爬取数据,整理成 excel 发过来了, ok, 搞定了, 还没完,发消息,去 archiv 下载最近一个月 a i a 软件弄文,写个中文综述发送给我回车,弄文自动下载,自动总结, word 综述直接生成。 ok, 同样搞定了, 甚至还能帮我排版。发消息,把刚才的中竖排版标起三号,黑体居中正文字小四送起,行距二十三磅,首行缩定两字母,回车, word 文档瞬间变得规规整整,学术论文格式一键搞定。 发消息,查一下, get 今日热榜,做个简报发送给我回车,不到一分钟,技术热点简爆发过来了, 不是爱瞎编的,是真的去 github 爬了数据,最离谱的来了,发消息,根据我今天电脑操作记录,帮我写份工作日报。回车日报自动生成的,以后可能我们再也不用熬夜写周报了。 这些操作全都出于最近火爆全网的 oppo klo, 一 只住在你电脑里的 ai 智能企。今天我就手把手教大家在 windows 上部署,并且呢接入飞书 配置完成后,你在公司、在路上,甚至是在马桶上,都能用手机来遥控我们家里的电脑来干活。点好收藏关注赞, let's go! 首先简单介绍一下 open collo 是 什么来头?它一开始叫 collo 的 boat, 后来呢改名 motboat, 现在呢又叫 open collo。 简单来说,它是一个运行在你本地电脑上的开源 ai 智能体。那么它最厉害的地方在哪?第一呢是能接入聊天工具, 飞书、 tony graham、 whatapp 等都能接。在外面呢发条消息,我们家里的电脑呢,就开始干活,还能把截图执行过程实时地同步给我们。 第二呢是定时任务系统,你跟他说每天早上八点帮我查 gitlab 热榜,做个点报发送给我,他就真的每天执行,比闹钟还正确。 第三是长期记忆,他会记住你的习惯和偏好,越用越聪明,越来了越懂我们。第四呢是能操作电脑, 读写文件,操作浏览器,调用系统功能,无所不能,听起来是不是很心动?那么我们现在呢,正式来开始配置,在安装欧风肯唠之前呢,我们需要做一些准备工作。 首先呢来安装 node js, 我 们访问 node js 的 官网,根据我们的系统下载正确的版本,大家双击安装移动 nex 就 行了。安装完成之后呢,我们 windows 加 r, 输入 cmd, 然后输入 node 空格杠 v 回车,如果显示版本号,就说明我们安装成功。接下来我们来安装 git, 访问 git 官网,然后点击下载最新的版本,同样双击安装移动 nex, 我 们打开命令行窗口,输入 git 空格杠杠 word, 然后回车,显示版本号呢,也就表明我们安装成功。 接下来呢是配置 power shell 权限。这一步很多人会遇到坑, windows 呢,默认会拦截安装脚本,我们在搜索栏搜索 power shell, 然后右击以管理员身份运行,输入这条命令 回车。我们来查看一下当前的权限。如果我们的 current user 呢,显示 restricted, 说明的系统呢?不允许运行脚本,我们需要修改它。我这里呢之前是已经修改输入这条命令回车输入 y, 也就是 yes, 我 们再来查看一下权限,这样呢,权限就改好了。最后呢,我们需要一个 ai 模型的 api k, 这里呢推荐大家使用 mini max 国产模型。我们访问 mini max 的 开放平台, 大家注册登录进入我们的用户中心,然后点击左侧的 codeignite, 然后点击复制我们的 apik 作为备用。准备工作完成了,现在呢,我们来正式安装 openclock。 打开 openclock 的 一个官网,我们来复制 windows 的 安装命令,接着打开 power shell, 粘贴命令回车。这个一键安装脚本非常方便,它会自动地把我们搞定所有的依赖。 安装完成之后呢,会进入初步化的配置流程。第一步是安全确认,我们使用方向键,选择 yes。 回车继续安装方式呢,选择 quick start 回车,接着回车。 这里呢,会让我们选择模型提供商。我们选择 minx, 然后回车,我们选择 minx m 二点一,然后粘贴我们刚才准备的 minx 的 api k, 选择默认模型。在配置通道这里,我们先选择 skip for null, 稍后呢,我们再来配置飞书。接下来是配置 scale, 同样呢,我们先选择呃 skip 谷歌 api k, 这里我们选择 no。 接下来是配置 hooks, 我 们按空格呢三个都全选,然后回车继续配置。完成之后,我们新开一个 power shell, 然后输入 opencloud getaway 启动之后呢,会提示我们本地访问地址, 你直接复制粘贴,这样我们就进入呃风可到的一个网页端,大家首次执行的话可能会有报错,我们需要执行另外一条命令,新开一个 power shell, 然后执行这条命令。 如果我们页面右上角显示 hirs ok 呢,就说明已经连接成功。这时候呢,你可能会发现我们发送消息依然不理我们,或者是一直在转圈,这大概率是 mini max 的 api 地址没配对。 openclaw 默认用的是国际版的地址,国内呢,和海外版是不一样的。如果你用的是国内版的 mini max 呢?执行这条命令改完之后,我们再来重启一下 openclaw, 我们再试试发消息,这样我们和 opencloud 就 能正常对话了。好,现在 opencloud 已经在我们本地跑起来了,但重点来了,我们要让它接入飞书,这样呢,我们才能在外面用手机来遥控它。 首先我们打开飞书的开放平台,点击创建企业自建应用,填写一个名称, 比如 opencloud bot, 再填一个描述,点击创建,然后点击左侧的添加应用能力,选择机器人,点击添加。 接下来我们来配置权限,点击左侧的权限管理,点击开通权限,我们在搜索栏搜索图片上的所有权限,然后勾选这是我们开通的权限, 然后点击左侧凭证与基础信息,把 app id 和 app secret 复制出来。待会儿我们要用点击左侧的版本管理与发布创建版本,我们填一个版本号, 然后点击保存,确认发布。现在我们来回到 power shell 来安装回收的插件, 我们需要执行了以下的命令,这里呢,我们需要将自己的 app id 以及 secret 进行替换,我们依次执行。 当然,我们也可以在 opencll 的 页面呢,让它帮我们自动地进行执行。配置完成之后,我们来重启 opencll, 我们点击左侧的 channel, 如果显示这样的一个页面,就表明我们的飞书已经安装成功。现在我们来回到飞书的开放平台。还有最后一步,我们点击左侧的事件已回调, 选择事件配置,点击铅笔图标,选择长链接,然后点击添加事件,我们输入接收消息, 然后勾选接收消息。 v 二点零这里呢,我已经添加。 最后呢,我们再来创建一个新的版本来发布创建版本,然后确认发布,这样我们飞书配置才算完成。我们打开飞书,点击开发者小助手, 点击打开应用。现在我们来发送一个。你好,如果我们收到回复,恭喜你配置成功了。从现在开始,你在外面发消息,家里的电脑呢就能自动干活了。 配置完成了,那 oppo 可乐到底能干什么呢?我给大家准备了十个案例,直接呢在飞书里发消息就能使用,大家可以自行测试。 好了,以上就是 open clone 在 windows 上的完整部署教程,以及接入飞书的全流程。 配置完成后,你就拥有了一个二十四小时在线的 ai 助手,它住在你的电脑里,随时听候你的叫,遣你在外面发条消息,它就能帮你整理文件,分析数据,写报告,下载视频,甚至呢帮你写周报。 真的强烈,大家呢去试一试那种远程让电脑自己干活的感觉,真的是非常爽,我把详细的文字教程放在了评论区,大家照着做就行,如果这期内容对你有帮助,记得点赞收藏关注我们下次再见,拜拜!

openclaw windows 系统详细安装部署教程来了! openclaw, 一个能让 ai 大 模型像人一样操作你电脑的智能助手,今天就带你花两分钟在 windows 系统本地部署小龙虾。操作步骤很简单, 首先前往官网安装 node js, 这里我们直接下载稳定版本即可。下载完成后,打开文件夹,点击进行安装,安装的选项全部默认。 安装完成后,使用管理员模式运行终端,使用指令查询 node 点 js 的 版本号。 接下来开始安装相关指令,可前往评论区领取,可以看到安装已完成。接下来进行具体配置,输入指令后,这里默认为不同意,我们改成同意 yes, 这里选快速安装 quickstart。 由于我之前配置过一遍,所以这里选择更新 模型。以 glm 为例, apikey 可以 前往官网获取接入的聊天软件,我们先跳过安装 skills, 选 yes, 选择 npm 安装软件包预设 skills 我 们也跳过,这里是第三方应用的 apikey, 相关设置都选 no, 给出的三个 hooks 最好都勾选上。由于之前配置过官网服务,这里我选择重装 reinstall, 等待它安装完成。 抽象 bot, 选择 open the web ui 配置完成后,我们就进入 open cloud 界面进行简单的尝试。比如我们让它在 c 盘创建一个文件模型,回复我们文件已创建,那我们进入 c 盘检验下, 可以看到确实已经创建,说明我们本次的安装部署成功了。关注我,解锁更多开源软件操作小技巧!

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。


我桌子上放着一台新的 mac mini, 我 专门把它设置用来运行我的 ai 代理团队使用 open claw。 我 有一名开发者,一名市场人员, 一名项目经理和一名系统管理员。他们每个人都有自己的个性,他们有一列任务队列,这些任务都在我自己搭建的自定义仪表盘中进行跟踪。我还在 slack 上和他们聊天,就像和我的真实团队成员交流一样。 只不过它们是由 openclaw 和各种大型语言模型驱动的智能代理。现在真是个神奇的时代,但是你知道,要让这一切运行起来,可不是插上电源就能用的那种简单式。 在过去的一周里,还有许多深夜,我不得不一个接一个的解决各种问题,有些是技术性的,有些是战略性的。比如,我到底要不要买一台新的 mac mini, 还是可以在 vps 上运行 openclaw? 这会花掉我多少 api 令牌? 我能用我的 cloud max 计划吗?对于我的代理来说,哪个聊天工具最好用? telegram? whatsapp 还是 slack? 我 应该只让它驱动一个代理,还是可以组建一个代理团队? 我需要为他们定制一个管理面板吗?还有,安全问题也不能忽视,我的代理应该能访问哪些内容?我该如何考虑安全防护措施?最重要的是,我在这里的使用场景是什么?我到底要让我的代理团队为我做些什么?所以今天我会分享我对这些问题的最终看法, 并向你展示我为此搭建的全部方案。说实话,一开始我并没有觉得 openclaw 有 什么吸引力在,他还叫 cloud bot, 然后又叫 motbot, 并且几周前在推特上引起热议的时候,大家都在讨论让他们的代理帮他们回复邮件,订机票或者点外卖。而我并不想, 也不需要在个人生活中用 ai 代理,甚至连让他管理我的日历我都不愿意。但后来我开始思考在我的业务中确实遇到的一个难题,以及如何通过设置 open cloud 来帮助我解决它。 你知道我运营的这个 youtube 频道,还有 builder methods pro, 我 的课程和每周通讯。多亏了像 cloud code 这样的工具,构建东西从未如此简单,但构建只是我工作的一半。 我开发培训内容,管理出版流程,还要监督我的会员业务。但最近我一直被瓶颈困扰,我还有很多想要创造和交付的内容,只是如果我有足够的精力就好了。在我过去的生意中,我通过雇佣真正的团队并建立流程来帮助我们扩展。这确实奏效了,但管理成本也很高。 所以当我再次审视 openclaw 时,我问了一个不同的问题,不是我想要一个私人助理吗?而是如果他能在我的团队中担任某些角色会怎样? 现在我确信这种范式在各自机器上运行,拥有明确角色的自主代理,我认为他会一直存在下去。现在 openclaw 只是我认为将会变得更大的一代产品中的第一代,所以我现在就想把这个搞明白,也许这段视频也能帮你入门。 如果你是新来的,我叫 brian kazoo, 我 帮助建设者们用 ai 保持领先。每周五我都会发送我的 builder briefing, 那 是一份免费的五分钟读物,我会在里面用不夸大的方式分享我对转型采用 ai 的 看法。你可以通过访问 builder methods dot com 获取你的专属内容。如果你真的想提升自己,可以看看 builder methods pro, 在那里你可以加入我们的社区,并获得为建设者们准备的培训。好了,那么, opencloud 到底是什么?它以前叫做 cloud bot, 后来又叫 multi bot。 那 么它和你用 cloud code 或其他代理有什么不同呢? opencloud 的 核心是所谓的网关,那是一个运行在某台机器上的进程,这台机器最好不是你的个人电脑。不过我们马上会谈到安全性的问题。 openclaw 网关可以运行工具可以使用浏览器,也可以执行 bash 脚本。当然, cloud code 也能完成很多类似的事情。但 openclaw 的 不同之处在于它始终在线,它会维护一个持久化的工作区,带有记忆和绘画日记。 因此,你可以通过 telegram 或 slack 与你的代理聊天,并将任务委托给他们,让他们在后台自主完成。 所以这和你在终端里亲自管理 cloud code 绘画是根本不同的范式。 openclaw 更像是有队友在他们自己的工作站上独立完成工作。 第一个问题是,这个东西应该运行在哪里?现在我不建议你在日常使用的电脑上运行 openclaw, 你 不会想让它不受限制地访问你的文件和账户。即使你用 docker 之类的方式进行隔离,你的电脑也需要全天候开机并保持唤醒代理才能工作。 所以, openclaw 需要一台专用的机器,这可以是一台每月只需五美元起的云 vps, 也可以是一台实体机器。不一定非得是 mac mini, 网络上的任何一台电脑都可以,两种方式都可行, 而且很多人用 vps 配置也运作的很好。但我还是花了六百美元买了一台新的 mac mini m 四。你可以说我有点老派,但我喜欢能够远程屏幕共享看到桌面安装东西,并且以可量化的方式管理它。而且当我只需要运行一个简单命令时,我也会用 ssh 登录。 而且如果我真的用我的智能体团队来实现我设想的所有用力,我会需要比那些便宜 vps 套餐更多的存储和贷宽,所以最终成本其实也差不多会持平。而且,嘿, 如果这些都不行,我就把那台 mac mini 搬到我家里的音乐工作室去用,我会在那里用上它,所以我已经有了专用机器。但这只是第一层, 我还需要仔细考虑我的智能体能访问什么,不能访问什么。现在这就是雇佣比喻真正发挥作用的地方。如果我要让某人加入我的团队,我不会让他们访问我的私人笔记本电脑,也不会让他们随意使用我已经登录所有账号的浏览器。 不,员工会有自己的电脑,自己的邮箱,只能访问他们需要的文件和服务,并且权限合适,仅此而已。 所以我就是这么做的。我为我的智能体门设置了一个专用的邮箱地址。我创建了一个 github 用户名,这样我就可以邀请他加入特定的代码仓库。 我可以像对待其他团队成员一样授予或撤销其对服务的访问权限。不过文件管理就有点棘手了, 我希望能在我的电脑和 mac mini 上的 openclaw 工作区之间实现便捷的双向同步。尤其是因为我正在开发一个大脑系统,把我所有的业务活动都记录到 markdown 文件中,这些文件我的智能体可以访问和处理。关于这个大脑系统,或许以后有机会再详细说。 所以我所有的文件要么存放在 github 仓库里,要么就在我的 dropbox 账户里。但我并不想直接把我的个人 dropbox 分享给 openclaw, 那样会让他获得太多的访问权限。所以我让 openclaw 自己注册了一个 dropbox 账户。这样我想在主 mac 和 openclaw 的 mac mini 之间共享的特定文件夹,这两个 dropbox 账户都能访问,其他所有内容则都被隔离开了。 好了,我们来说说成本问题,因为如果你不小心光是和你的智能体聊天运行任务,就很容易花掉几百甚至上千美元的 token 费用。在我搭建系统的头两天里,我就花掉了超过两百美元。我本来已经订阅了 cloud max 套餐,还希望能直接用那个, 但后来听说有账号因为这种用法可能违反了 antropic 的 服务条款而被封禁的案例。然后没过几天, 他就升级到了二百欧元的订阅,因为他在奥地利,而且他简直爱上了那个东西。对我来说,这就像是一个非常早期的产品验证,感觉就是 我做出了一个能吸引人的东西。但几天后, answap 就 把他的账号封了,因为按照他们的规定,用订阅服务这样操作是有问题的,或者说不被允许,所以这里确实存在很大的不确定性。我真心希望能有一个官方的明确说法。 现在我打算遵守规则,所以我最后的做法是这样的,我的 cloud max 订阅计划只用于我个人在设备上使用 cloud 和 cloud code 进行工作。我的 opencloud 代理则完全使用独立的 api 令牌, 我通过 open router 来运行这些令牌,这样可以集中管理我所有的 api 使用,并且可以轻松地从数百个模型和服务商中进行选择。更重要的是,它让我能够精细地优化每个代理在不同任务中使用哪种模型。 说实话,这种优化大概是我上周花时间最多的地方,就是在弄清楚哪些任务需要 opps 的 强大算力,哪些可以用更便宜更快的模型来完成。不过,运营这样一只代理团队并不便宜。如果你一直在用前沿模型开发,那你早就知道这绝不是免费的。 从商业角度来看,如果你把代币成本和雇佣多名团队成员来完成那些可以甚至应该交给代理处理的工作进行对比,投资回报率的计算就变得非常有吸引力。 现在说说和我的代理聊天的问题。 opencloud 支持多种聊天工具。我一开始用的是 telegram, 因为那是最容易上手的,它运行了几天没问题,我甚至能为每个代理单独设置 telegram 机器人。 我马上会讲讲我的多代理配置,但在 telegram 上用了几天后,我发现这个界面用起来并不舒服,尤其是当代理给我发 markdown 格式的内容时,有时候能正常显示,有时候又不行, 所以我和代理的合作方式其实和我与团队成员的合作方式很像。而我的团队一直用的是 slack, 于是我为每个代理都设置了 slack 机器人,这非常简单,而且 slack 对 markdown 的 支持也很好。我很喜欢。我们可以用现成回复, 这样在有多个代理、多个请求和回复同时进行时,管理起来就很方便。现在我来说说是什么让 opencloud 真正让我眼前一亮。我没有把它当做单一代理来用,而是设置了多代理配置,这样我就能真正组建一个由四个代理组成的团队。 cloud 是 我的系统管理员,当我在折腾 opencloud 的 系统本身时,会和它一起写作。 bernard 是 我的开发者 val 负责市场营销相关的任务, 而 gumbo 是 我的通用助理。每个代理都作为独立的 flag 机器人运行,有各自的对话。我还尝试过把它们都放在一个群聊里。这种方式基本可行,但也有一些小问题, 所以我为每个代理分配了一个默认模型。 bernard 的 这个开发者和系统管理员 claude 使用 opus 模型。在这些场景下,推理能力才是真正重要,而市场营销的 veo 和助理 gumbo 则用 sonic 模型。在这些场景下,速度和效率更为重要。但我经常让他们把部分工作委托给子代理。 针对需要指定更昂贵或更便宜模型的任务,现在我决定让他们都共享一个工作区,这意味着他们都能访问同一个内存。我也可以在一个地方统一管理配置和代理的 md 指令。 另外,我的大脑文件夹也放在这个工作区里,所有的工作都会在这里同步。如果你想了解更多关于我和我的代理们的高效工作系统,欢迎在评论区告诉我,我会专门做一期视频详细介绍。现在 opencloud 有 一个 identity md 文件,这个文件通常用来定义单个代理的身份,但我用它来定义多个身份。每个团队成员的代理都有一个,我甚至用 cloud 和 gemelite 来为每个代理开发独特的个性特征和视觉头像。我就是想让这件事变得有趣一些。你知道的, 我的机器人角色灵感来自我最喜欢的乐队之一 gorillas。 不 过,我在使用 opencloud 内置的 cron 系统进行定时任务时确实遇到了一些挑战,很难把这些任务和我团队中的特定代理关联起来。 这也成了我开发自定义仪表盘和任务分发系统的主要原因之一。所以我很快意识到仅仅通过聊天来管理我的代理是行不通的。我希望能在一个地方看到我所有的定时任务,并且能够把它们分配给特定的代理。 同时,我还想追踪令牌的使用情况,这样我就能知道这些操作到底花了我多少钱。你知道的,我只是想要一个中央仪表盘, 这样我就能一目了然地看到整个系统。所以很自然地,我就自己做了一个。找个理由做点东西,我用 cloud code 和我的 design os 流程大约一天就做出了一个可用的应用。这是一个简单的 rails 应用, 连接到 opencloud 的 网关,为我提供了一个干净的界面来管理一切。说实话,这个 hq 仪表盘只是个开始。现在我正在为我的大脑系统开发另一个应用,用来编辑和阅读 markdown 文件,这样我就能轻松管理我的代理可以访问的内容。 这正是我喜欢当下这个创作者时代的地方,当我需要的工具还不存在时,我只需要一天就能自己做出来。 而最重要的问题也是我到处都听到的问题是,你到底打算用你的代理做什么?所以我已经确定了几个我的代理可以真正填补我业务空白的具体领域。 让我们从我发布的内容开始说起。现在我只有在有话要说的时候才会发布内容,这一点永远不会改变。但事实是,在我的项目中以及与其他开发者的交流中发生了。很多事情从未出现在视频或社交媒体上。所以我现在正在构建一些系统, 让我的代理能够观察并记录更多这样的工作,并帮助我在各个平台上分享更多内容。第二个领域是开发。现在我仍然喜欢把大部分时间花在 cloud code 和 cursor 上进行产品的设计和架构,这点不会改变, 但我让我的开发代理 bernard 在 我无法亲自处理这些事情的时候,负责处理代办事项,跟踪生产错误并提交 pr。 第三是协调性工作。这是我每天都能感受到的瓶颈。 我每花一分钟在项目管理、复制、粘贴、安排内容或记录文档上,都是在浪费本可以用来思考、创造或构建的时间, 而这些任务本应该被自动化或委托出去,这正是我的通用助理刚博的用武之地。让我最兴奋的用力是报告,也就是让我的代理定期发现趋势、模式和新想法,帮助我发现自己原本注意不到的盲点。 这种洞察力能够帮助我教授真正能让建设者取得进步的理念,也能帮助我打造解决实际问题的工具。现在,我已经开始组装基础模块,为我的代理制定流程,搭建自动化和定制工具。 我很期待在未来的视频中向你们汇报这些是如何融合在一起的,所以一定要订阅我的频道。现在我想谨慎一点, 不要把 openclaw 夸大其词,它还处于非常早期、非常粗糙的阶段。为了配置好一切,我熬了比自己愿意承认还要多的深夜。但不可否认的是, openclaw 作为一个概念,在我们这些深受 ai 影响的建设者圈子里 已经带来了突破。我认为这正是值得我们付出额外努力,成为早期采用者的事情之一,因为像这样的系统在今年和明年只会变得越来越普及。这也触及到了我认为作为二零二六年建设者的我们必须具备的一项基本技能。 我们必须愿意去探索和尝试,弄清楚新工具如何能帮助我们在业务上取得真正的进展。这正是我们能够带来的价值,也是我认为我们需要掌握的五项核心技能之一。只有掌握了这些技能,我们才能从被变化的速度压倒转变为在新环境中真正蓬勃发展。 我在关于如何从 ai 怀疑者转变为建立不公平优势的视频中详细介绍了这五项技能,所以在你点击订阅频道之后,我们下一个视频见,让我们继续创造吧!

这一系列的 openclo 的 案例都是 openclo 他 自己寻找,自己写帖子,自己发布的,整个流程基本已经完全自动化了,并且做成定时任务了,后面这个系列应该就会持续的定时发布了。那整个流程我觉得跑起来非常简单,真的比 n 八 n 搞一套自动发布流程简单真的太多了, 忍不住来分享一下。一共就三步,第一步我们需要把 openclo 跟推特打通,打通里面一个关键的点,我们需要找一下推特官方的开发者后台,这个后台里面开通一下 api, api 如果你自己用的话,一分美金发一次,把这个权限开通,创建一个专门给 openclaw 调用的应用,并且在下面这个地方点进去设置一下它的读写权限。 ok, 那 第二步的话,我们直接在飞书里面不断的跟 openclaw 对 话,让他帮忙去写个脚本,打通从 openclaw 到 推特发帖的这么一个流程,这是用脚本完成的,完成了之后把它封装成一个 skill。 这个内容呢,在上一期视频里面会有讲,那整个流程都完了之后,我就直接发了两条推测,试了一下,完全没问题了,那我就能确认这一步基本上已经搞定了。 ok, 那 第二步的话也非常简单,由于我想发布的这一系列内容其实是 openclaw 的 使用案例收集,那我就直接让 openclaw 去搞一个调研的能力,它在调研的时候呢,需要借助一个 api, 叫做 brave search api, 这个 api 有 很多的免费额度,所以大家直接去注册一下,然后,嗯, 把这个 api 可以 告诉 openclo。 然后呢,你再跟他说一下,你想让他调研啥?比如说我这我就跟他说了,让他去收集 openclo 的 使用案例,一定要真实,要有信息源,他就自己很快的搜回来很多信息,我觉得都是挺好用的,所以这个系列后面我还是想持续更新的。 第三步的话,其实就是更加简单了,因为已经有信息源了,然后也能打通了,那稍微用 ai 调整一下文案就能发布了,这块语气肯定还是要再叠代的,但这个其实我觉得都还好,不是很大的问题,就是大家持续调一调,让它调到一个最符合你满意以及最能有数据的一个文案的状态就 ok。 最后的话,最重要的一点哈,就是他自己最后提出来要把这个东西设置成一个定时任务,所以我就跟他约定把整个的这一套呃调研搜集的过程设置在每天十二点,就会把信息搜罗回来,然后会改写好再问我要不要发布。 所以我觉得这一套东西搭起来之后真的会省心很多,而且真的这个搭建过程比 n 八 n 简单太多了,而且就是使用它的时候真的不用 一直守在电脑前面。我今天发布这些信息的时候,就是拿着一个国内的手机,然后在飞书上给他发消息让他发的,我觉得就是非常方便,推荐大家尝试一下。那后面还会分享更多我们科罗相关的内容,欢迎关注,下期见。

我今天打开 openklo, 然后又看了一下我接下来 ipi 的 账单,我的心就痛了一下,哈哈哈,烧美金真的是非常酸爽的一件事情,所以我就决定一定要探索一下 openklo 的 省钱大法。今天是第一篇,第一篇的省钱的原理就是把调用 ipi 全部换成调用订阅账户。那咱 们具体怎么样通过订阅的账户去接入 openklo 呢?这个地方我画了一个地图,咱们有两个方式可以去接入到订阅账户,而不是 ipi。 第一个方式我们可以直接通过终端的命令来进行输入, 这一行命令就是 open klo 自己的一个命令,它就会出现这样的界面,你在这个里面你先选一下 logo, 接下来他就会让你去选你要改哪项配置。很多项配置都可以改,咱们直接选模型就行。我是喜欢用 jimmy, 所以 我就选了谷歌的模型,然后这个地方就会出现 你几种接入谷歌模型的方式。 api 方式就是咱们说的最耗钱且没有上限的方式。然后呢,下面有两种都是 awesome 的 这种方式,它只要带了这个 awesome 的 方式,其实都是可以接已经订阅的账户的方式。那它有两个地方可以选,一个是通过反重力去调用它这个 awesome, 另外一个是通过 jimmy 颗粒来调用反重力,国内用,所以我就直接选了第三个。那回车之后,它就会直接弹出来 粘在这个里面的一些界面,你直接按它的操作去操作,它就能自动获取这一串 office token 了。那你如果是用 openai 或者 cloud, 它的订阅账户其实也是同理,比如说如果我选的是 openai 的 模型的话,那在这个地方除了 api 的 方式之外,它通过 office 去登录的方式其实是通过 codex 去登录的,那我就直接选 codex 就 好了。 第一种方式大家就这么样的一个流程,那第二种方式我们就用 cloud code 写出我们就好了,因为 cloud code 是 可以直接修改 opencloud 存在本地的配置文件的,就是咱们的模型选的是哪个,用的是哪种登录方式,全部都写在这个配置文件里,你就让他直接去改这个配置文件,那你的其实词里面 记得有几个地方哈,第一个主模型一定要记得改,主一定要有啊,因为他那个模型里面是可以配置多个的,他用就是一定是要跟他说清楚,你要配置的模型,你是用他的订阅账号付费,不要只去跟他说把这个 jimmy 换成 collog, 或者把 open a 换成 collog, 不要只说这一句,一定要说付费方式是订阅账户付费,而不是 api, 那 这样那个 collog 就 会直接去改这个文件里面的相关字段,那改的时候呢,可能需要你再去获取一下这个 token, 就 会直接去改这个关键词就好了。比如说我这还是 征战为力的,我就输入这条命令,我就能获取他了。 ok, 那 以上就是咱们先介绍的第一种省头肯的方式,我这边让他探索其他的儿童可乐的省钱技巧, 包括他每天都会让他把我的头肯消耗额度给我打印出来。后面方便咱们用一个更加量化的方式去看有没有哪些手段思路帮我们可以节省一些费用?今天就先分享到这了,后面还会再分享更多跟儿童可乐相关的内容,欢迎大家关注,下期见!

哈喽,大家好,我是阿金志。近期这个 open club 的 龙虾项目非常的火爆,对于短时间热度过高的项目,我一般都是谨慎对待。这个 open club 的 部署教程其实一早就有粉丝提出来让我来做一期了, 我当时的话简单的攻略了一下,发现两个问题,一个是这个项目的使用场景有点伪需求,但这个不是纯伪需求,而是对于大多数人而言, 因为目前的话,大多数人他可能会想到用来编码爬虫、搜索资料等等, 但这个项目的核心内容其实不是这个,或者说以上提到那些功能,其他的方式都可以实现。第二点的话,他的安全风险比较高。 我觉得这个项目的核心功能就是他拥有一个高权限,可以执行需要命令以及读写文件等系统级别的操作, 所以这个伴随着很高的一个风险。当时我给他的回复是可以查找一些风险相关的文章, 然后目前的话只适合尝鲜使用。那今天这期教程的话,就是来教大家如何安全的部署并免费的尝鲜这个热门项目。 ok, 我 们先到我的博克这边来看一下整个文章,做一个简单的介绍。好吧, 这边的话我放了 open club 的 一个官方项目地址,大家有兴趣的可以去官方地址看一下。目前的话最新版本是二点一三,也就是昨天刚出来的一个版本, 但是这个版本目前是有问题的,我后面会给大家提到具体的项目内容的话,我这里就暂时不多做介绍了,有兴趣的可以去看一下。好吧,因为我的频道小白的粉丝会比较多一点,所以我做一个简单的介绍啊。 这个项目的话不是单纯的一个机器人聊天,他是作为一个网关的属性,简单来说他作为一个网关可以去命令多个 ai 工具来帮你去完成各种任务的操作。那这里的话肯定就不局限于聊天, 他甚至可以读写系统文件以及调用命令等等需要高权限的一些操作。所以为什么提到他的风险比较高,就是因为他有极高的一个权限。 然后这里的话我也去攻略了一些风险资料,然后这里的话也给大家放了几个案例,可以参考一下。这里的话点击可以查看一些详情,这个的话我也不具体做介绍了,大家有兴趣的可以去看一下,因为这里的话比较简单,具体的话可以去搜索一下啊。 在整个实操教程之前,我们可以先来看一下效果。好吧,当前我是把我部署的龙虾项目关联到我的 t t 上面的,我们可以来简单看一下。这里的话可以看到我简单问了一下他是谁,我们再来问一下他能帮我做什么。 ok, 我 们这里看到他做了一个回复,然后告诉我们他能做很多东西。然后这里我们可以看到我这里测试的话是英伟达最新发布的这个 gm 这个模型,新模型,然后本期教程的话也会用英伟达的免费 a p i 来做一个教程分享。 ok, 这里我们可以看一下。当前我是部署在我本地的一个讯影机上面,我讯影机安装的话是乌斑图的一个系统, 大家可以参考我这个方案,当然了这个迅影机的话是随便你可以安装到哪边,我的话为了方便直接通过本地的迅影机软件安装,你可以安装到任意闲置的电脑上,设备上都可以, 好吧。然后整个迅影机的部署和安装的话,大家可以参考之前的一些教程,我这里都有给大家放相关的链接。最需要注意点的是欧奔卡拉官方源的话,他可能需要一个网络的需求, 所以这里在很多的教程中,我都会给大家提到一个软路由的东西,这个的话是非常建议大家去做一个部署的, 可以解决到很多情况下的网络问题,这里整个环境的部署我就不过多做介绍了,好吧。然后我们虚拟机部署完成之后,我们只要通过我们 ss 软件去连接它就可以了,这样的话整体的操作会方便很多, 因为本次教程的话主要是以安全为主,建议大家在驯养鸡或者当客中去运行,这样的话可以做到一定的隔离, 不建议大家在自己的主服务器或者说生产环境中去安装和使用。然后这里讲一下最新版本,我们刚刚看到的二点一三的最新版本,它目前的话是有一个比较严重的 bug, 就是 你最新版本无法去选择对应的一个模型, 它是缺少这个引导流程的,但是我们可以通过手动修改配置文件来添加模型来使用。然后下面的话我就给大家来实操演示如何来去安装。好吧, 因为目前我这个服务器上的话是已经安装了,所以我先给大家演示一下如何去卸载,好吧,我们拉到最下面,我给大家放了一些常用命令,我们通过这个命令可以先来做一个卸载,我们在这里复制卸载命令, 然后这里的话会选择一些我们安安装的东西,我们直接回车确认就可以了。 ok, 它这里的话基本上就已经卸载完了,但这里我们可以看到 c l i 这个东西仍然安装着,对吧?然后我们通过这个命令来把它删掉,我们来复制这个命令来删除这个 c l i, ok, 删除完成了,对吧?然后我们回到最开始,我们来重新安装它,我们复制这个官方的命令,这个是快速引导安装的一个命令啊。 ok, 这里的话他就开始安装了,但这个的话是安装的最新版本,可以看到吧? 我会先安装最新的版本,然后来教大家如何来修改这个配置文件,然后正常的使用我们的模型。最后的话也会来教大家如何来更新和回滚到一个指定的版本, 这样的话我们即使更新到了最新的状态,发现了问题之后,我们还是可以回滚到老的版本继续使用。好吧,这整个过程的话可能会比较慢一点,大家要耐心的等待一下。 a few moments later, ok, 这里可以看到我们已经安装完成了,然后它自动跳到了一个引导模式,对吧?进入引导命令之后,第一项是风险提示,对的话我们必须要确认这个,我们已经知道了这个风险,然后手动确认 yes, 然后回车, 然后进入一个快速开始,然后这里我们可以看到它是直接进入到了我们的渠道选择,并没有进入一个模型的选择,对吧? 正常的流程是应该宣让你选择一个模型提供商,但是这里没有,那我们先不管 当前这个渠道的话,大家根据自己的去选择就可以了,然后本期教程的话,我以这个梯机为例,好吧?然后我们直接回车,这的话我们也可以先不设置,我们先跳过,因为我们后面还是要重新设置一遍的,因为我们要修改一下配置文件,我们这里先跳过好了, 然后这里的 skill 的 话推荐,这里虽然是推荐,但是不建议大家来安装,我们即使选择这里的默认推荐之后,这里还是可以跳过的,我们直接选择跳过就可以了。然而这里的相关的 key 的 话,直接默认 no 就 可以了,这里的钩子的话也默认跳过, ok, 这里的话也默认去孵化, 这样的话基本上整个部署就部署完成了,但是我们因为没有选择一个模型,对吧?它这里是没有任何的信息的,都是不知道的,对吧?现在的话我们就要去修改我们的配置文件来让它可以选择一个模型, 这里的话我们就需要下拉到我们这个配置文件,这里默认的配置文件的话都是在这个路径下面,我们可以通过我们的软件直接去访问它的一个配置文件,你也可以手动通过这个命令 来去修改。这里的话我们重新打开一个,然后进入这个文本编辑的命令,我们回车,这样的话就会进入到我们当前的一个配置文件里面, 大家有看到吗?但是目前的话是默认模式,我们不可以编辑,我们必须进入字母按,大家可以看到这边可以进行修改了,是吧?我们但是这里面修改的话不太方便,我们这里如果你修改完成之后按 esc, 然后退出编辑之后我们冒号 q 就 可以退出了,如果你正常保存的话就是 wq, 好 吧,这只是给大家做一个操作演示。然后我们这里为了方便的话,我们通过这个文件直接来修改,这里的话我可以直接双击它,在本地打开它。 这一打开文件之后,我简单给大家说明一下,我们重点需要修改这个 a 帧子。还有一个 model, 这里因为新版本 bug 的 问题,我们看到我们找不到 model 这个关键词,是吧?这的话我们直接可以通过伯克里给到的一个模板来去进行一个修改,我们直接复制这一个 model 一个模板, 然后我们直接在这里回车粘贴一下就可以了。这里的话注意一下这里的 api key, 我 们需要修改为自己的一个 key, 好 吧。然后这里模型的话,我这里默认给大家配置了 k 二点五和这个 gm 五, 但是因为新版本无法去选择一个模型,那我们这里不能放两个,这个两个的话可以在后续正常选模型的时候我们再去放进去,所以我们这里先要把另一个删掉,我们先删掉这一个这里的逗号,如果不小心删掉了,记得加上去啊,不然会有语法错误,这里要注意是英文逗号。 然后我们下面把 ages 改掉,我们也直接通过这个模板来修改就可以了,我们直接复制,然后改掉它。这里的话同样要先把这个模型给删掉, 然后这里的话我们还要做一个修改,我们要把它这个固定锁定它统一改成这一个格式, 这样去修改的话,我们在当前这个有 bug 的 模型中就可以正常的去使用这个模型了。这里刚刚报错了,我刚才把这里的括号多删了,然后我们重新复制一下,改一下 它这样的颜色才是正常的,然后我们重新把这个删一下,我刚刚把这个多删了,现在这个应该是正常的,我们重新保存一下, 然后我们重新上传一下,我们重新打开一个 执行这个命令,我们重新进入引导试一下。 ok, 现在正常了,我们重新进入引导,这里的话就快速操作一下,然后这里的话我们需要配置一下梯机, 这里的话我们跟着我们的这个步骤,然后去获取到它的一个 talk。 这里大家注意一下,不要用到一个假的机器人,一定要认准这个官方的提示,然后它这里的每月用户活跃数一定要匹配上,好吧,一定是这个很多人的。 然后我们这里正常进入一个创建一个新的机器人,然后他会让你输入一个命名,然后这里的话不能重复,最后的话他会输出一个 api 给你,然后我们直接点击这个复制就可以了,然后我们粘贴到这里面,我们直接回车, 回车之后这里的话我们直接忽略,然后我们直接跳过,然后我们重新 这里的话还是默认。 ok, 这里完成之后, 我们把这个之前的关掉,我们这里再重新打开一个界面,然后我们要回到机器人这里,我们回到机器人之后要进行一个 start 操作,我们要授权一下,我们输入 start, 然后他会给你一个授权码,我们直接去运行这个授权命令,我们复制一下粘贴, ok, 这里的话就授权成功了,然后这里我们再重启一下网关, ok, 重启成功,我们再回到这个界面, ok, 我 们可以看到当前的模型已经识别成功了,对吧?然后我们尝试在这里发个消息, ok, 它这里就可以正常的回复你了,那说明我们这个就部署成功了。 ok, 到这里的话就是整个最新版的一个部署就完成了。下面的话我来教大家 如何来去回滚,以及在正常的模式下面我们如何去配置我们的英伟达的 api, 然后可以做一个模型切换的一个操作。 ok, 这里的话我们需要用到我们的一个回滚命令,我们直接来复制它,我们直接来执行这个命令, 因为这一个版本的话是我昨天测试的时候是正常的,所以我们直接回滚到这个版本就可以了,我们直接回车, 这整个回滚的话基本上跟安装差不多,所以我们也要等比较久的一个时间。 a few moments later, ok, 这里的话我们可以看到这里的话已经更新完了,整个更新的话基本上就相当于重新安装了一次,然后我们重新进入引导模式,看一下, ok, 这里的话他就正常的进入了,我们选择模型的一个键面,对吧你如果你是对应这里面的提供商的话,你去选择对应的去 使用你对应的 key 就 可以了。但是我们这边英伟达的话是不在这个范围里面的,所以我们这里直接点击这里跳过,然后我们可以在这里面找到我们配置的英伟达的选项,我们往下拉一下,这里看到我们配置的英伟达的一个模型, 这可以看到我们这里配置了一个 k 二点五,对吧?那我们直接回车就可以了,然后这里的 t g 的 话还是原来的 t g, 所以 我们不用去改它,我们直接跳过,然后这里还是跳过也跳过,然后我们直接重启就可以了, 这些操作的话跟之前的操作是一样的,没有问题,但是我现在给大家看一下如何去放多个模型,好吧?我们这里可以把之之前的关掉,先 让我们回到这个配置文件,我们仍然打开我们的簿刻,然后把我们这个复制进来, 我们把这个一整个替换, 然后把这个也一整个替换, ok, 直接保存,然后这里重新上传一下,然后这里我们重新打开一个窗口,然后执行我们的一个引导命令, 我们这里还是选择我们的英伟达,这也可以看到有两个模型的,对吧?然后这里我们选择我们刚刚新配置的一个 gm 的 模型,我们选择它,然后这里应该配置过了,我们直接跳过就可以了, 对,全部跳过,然后重启一下, ok, 这我们可以看到它的模型已经切换到 gm 了,对吧?然后我们尝试问一下这个机器人它当前的一个模型, 这里的话可能是当前这个模型用的人比较多,所以我等了一会他才反应过来,这是他回复过来的,然后我再问他一下, 这我们可以看到这里的话是同步的,它会在这里输出完成之后再反馈到我们这个窗口这里来, ok, 它把这里所有的信息都反馈到这里,大家可以看到,是吧? ok, 到这里的话整个 部署就全部完成了,然后也能去正常的切换模型了,是吧?然后我们也可以正常的去使用英伟达的一个免费 api。 最后我再提一下这个英伟达的免费的 a p i, 因为它的算力是共享的,所以当用的人多的时候肯定会出现比较慢的情况,那这个我在之前提过了,只适合你用来做一个尝鲜的使用,不适合你去做一个生产环境的使用,好吧? 另外在整个部署过程中,如果涉及到其他的相关操作命令的话,大家可以通过这个链接直接到官方的一个文档去做一个参考,好吧, 这里的话有官方详细的一个教程说明,这里的话可以切换成中文,然后这里的话有很多的教程文档,大家有什么问题都可以到这里来找一下,好吧? ok, 那 今天的教程基本上到这里就结束了,如果你觉得这些视频对你有帮助的话,记得一定要给这个视频点赞、评论、转发,好吧,最后如果你还没有关注我的话,一定要盯我的频道哦,那今天的视频就到这里,下期见,拜拜。

兄弟们,我发现了一个超级简单的方法,来体验当下全网刷屏的 cloud bot, 也就是这个开源项目。这个项目提供了一键部署到云原声环境的完整解决方案,只需要简单点击两步鼠标就可以完成。首先第一步,我们点击这个 fork, 如果这里你没有所属的组织,需要创建一个组织,我这里已经创建好了,然后点击 fork。 第二步,我们点击这个橙色的按钮,一键启动云原声 mod bot, 它可以自动构建并启动容器配置反向代理服务,启动 open cloud getaway, 这就已经完成了,真的完全不需要手动配置环境,简直太爽了。我们在这里问一下,它可以帮我们做什么? 我们可以看到它这里可以读写文件、管理代码项目,浏览网页、控制浏览器发消息到各种平台运行 sim 命令等等各种操作,是不是非常简单,完全不需要手动配置环境,感兴趣的话快去试一试吧!

最近大家都看到互联网上对一款名为 cloud bot 的 自主 ai 代理程序疯狂热议,它运行在你的电脑上,现在已经更名为 opencloud。 对 于还不了解 opencloud 的 人来说,它是一款自主 ai 代理程序, 是一个自托管的代理运行环境和消息路由器,能够作为个人 ai 助手直接在你的本地电脑上运行。 比如说这个 opencloud 机器人可以直接根据在 twitter 上发布的推文构建一个全站应用。你只需要在 twitter 上 at opencloud 代理,它就会为你搭建出带有数据库、认证系统、实时同步等众多功能组建的应用。 它会不断优化利用多个子代理修复错误并持续迭代,直到你获得最佳结果。这都要归功于 opencloud 的 专用子代理。这里是我自己的演示, 我在 opencloud 的 视频中展示过。在这个演示中,我在本地桌面上部署了由 opencloud 控制的多个子代理, 用来清理和整理我的文件,结果它的处理速度出乎意料的快。但所有这些都让我开始思考,我究竟该如何更好地使用 opencloud 呢?有没有办法在其中免费使用更强大的模型,比如 oppo 四点六、 k 二点五, 甚至是 gemini? 答案是肯定的,这也是我意识到最佳工作流程是将 open code 与 open cloud 集成起来,就像我们之前把 open cloud 和 int gravity 连接在一起一样, 而且其实非常简单。对于还不了解的人来说, open code 是 目前最好的开源 ai 编程助手,直接运行在你的终端中。它的好处在于, 它真的可以读取、编辑并对你的真实代码库进行推理,它可以执行任务。你可以用 group, 还能在多个文件间写作,并且可以选择任何你喜欢的模型。所以它更像是真正的编程队友,而不仅仅是一个聊天框。此外,你还可以在 open code 中免费使用各种模型。但在我们进入这个工作流程之前,还有另一个大家都注意到的问题,那就是 open cloud 的 危险性, 因为它是在本地部署的,可以控制并在你的机器上执行各种工具。一个糟糕的提示或严重的漏洞,可能会在没有任何保护措施的情况下快速修改、删除或泄露文件。 我们都知道,技能可以增强 opencloud 的 子代理,而且像 cloudhub 这样的注册中心展示了你可以多么轻松地安装这些技能。 cloudhub 提供了由第三方社区成员制作的额外技能,但这些技能并不总是安全的。 事实上,有八千个实力直接暴露在互联网上的默认端口上,其中将近一半是社区构建的技能。 这些技能包含只在窃取数据的恶意指令。例如,我现在就在 skill hub 上。如果我浏览一个技能,很多这些技能都经过了社区的审核。表面上看起来很安全,但实际上有些技能可以窃取你的信用卡信息, 甚至是社会保险号码信。这技能被部署得看起来很安全,但在幕后,他们实际上在进行恶意操作,而且总是有解决办法的。因为有一家财富五百强公司 jen digital 推出了新的基础设施,正在推动 ai 安全的前沿发展。 这家公司也是本期视频的赞助商,这是一个完全安全的产品,我之所以这样说,是因为我自己真的用过。他们推出了一个名为 agent trusthub 的 新产品, 这是一款技能扫描器,可以自动检测并阻止任何关键威胁。这绝对是一个改变游戏规则的创新,因为它为你的工作流程带来了信任。我会演示如何设置这个工具,而且你可以很容易的通过 a p i 开始使用,也可以直接从它们自己的注册表中发现技能。现在, 我们实际上可以设置一个非常强大的工作流程,不仅可以直接在 open cloud 中使用 google 的 os, 这让你能够完全免费地访问最先进的模型, 而且你还可以利用 opencloud 的 功能,借助 opencloud 实现更快更简单的构建。本质上, opencloud 在 这个工作流程中成为了指挥中心,它能够自动做出决策,并通过 opencloud 的 代理分发任务,而 opencloud 的 代理则会调用为特定任务训练的专业代理。 换句话说, opencloud 负责规划和协调。而 opencloud 的 另一个开源且免费的代理则可以通过多个子代理来执行任务。你甚至可以将其与定时任务 cron, jobs 或专用命令结合使用,根据自己的偏好自动化定义在不同时间运行任务。 而且结果确实令人印象深刻,因为有人实际上用这种工作流将 opencloud 和 opencloud 结合起来,创建了一个漂亮且实用的 size。 这个项目就是用这种工作流构建的,甚至还部署了一个评审代理来进一步优化输出,把质量提升到了更高的水平。在开始之前,我们需要先满足几个前置条件, 其中之一就是确保你安装了 note 二十二 g 以上版本。请确保你复制这个 npm install 命令。把 opencloud 安装到我们的电脑上。接下来我们要做的就是打开命令提示符,然后直接粘贴刚才的 npm install 命令来安装 opencloud。 现在,在我的例子中,我会使用 google vertex, anti gravity 和 gemini 认证来为我的 opencode 以及 opencode 绘画提供支持。只要我有 google 账号,这些服务我都可以完全免费使用。要启动这个功能,你可以使用以下命令, opencloud plugins enable google anti gravity alt。 你 只需要复制这条命令,然后可以直接在终端中启用它, 所以你可以直接粘贴这条命令。接下来,你只需要用你的 google 账号登录,然后可以用这个命令来帮助你完成登录。 所以你会看到,当你粘贴那个登录命令后,它会提示你选择提供商。在这个例子中,我使用的是 anti gravity, 所以 我选择了它,然后它会提示你用 google 账号登录。就这样, 你现在就可以在 openclaw 中直接使用最先进的模型,并且让 openclaw 的 子代理由 google 提供商驱动。你可以使用 gemini 三以及现在的 op 四点六。要使用 openclaw, 你 只需要用这个入门安装守护进程,它会演示如何非常简单地进行设置。 我之前已经做过一个关于如何操作的视频,我会把链接放在下方描述里,但其实非常简单,它会引导你完成所有步骤,比如选择提供商,选择消息路由器等等。另外,我还看到 agent trust hub 也即将推出一键安全部署 open cloud 的 功能。 我强烈建议你注册这个服务,因为它比我们现在用的方法还要安全,所以按照入门步骤操作后,你应该就能让它运行起来了。 现在你基本上可以访问 openclaw, 然后让 openclaw 指挥 openclaw 的 这个 ai 代理去执行各种不同的任务。因为 openclaw 会作为大脑,而 openclaw 则负责处理和执行这些任务。 接下来我们需要做的就是前往 opencode 的 这个网站,然后我们需要安装 opencode, 我 会用 npm 把它安装到我的电脑上。 安装好并运行之后,接下来我们需要让 opencode 能够控制 opencode。 这意味着我们需要设置一个技能,让 opencode 能够控制 opencode。 你 会发现有很多技能, 但实际上并没有一个技能可以直接控制 open code。 不 过如果你去 cloud hub, 也就是技能注册中心,你会发现有一些技能可以帮助你用 open cloud 运行 open code。 在 这种情况下,如果你想验证这个技能是否值得信任,你可以复制它的 url, 确保它不是恶意的。 你可以前往我之前在视频中提到过的 agent trust, 你 可以向下滚动,你可以把它设置成通过 api 作为代理来检查某个技能。但因为我们是人类用户,其实可以直接粘贴这个链接,然后提交到 agent trust hub, 这个平台会帮你检查这个技能是否安全。 在这种情况下,你可以看到这是一个低风险的技能,并且它会说明这个技能实际上会对你的电脑做哪些操作,你甚至还可以提供你的电子邮件,以获取一份完整的报告。 大家这里已经有一些非常实用的技能了,你可以直接在 agent trust hub 上发现这些能够真正提升 open code 的 安全技能。说实话, agent trust 的 扫描器真的救了我一命,因为我刚刚在找一个能帮我控制 open code 的 技能, 然后我找到了这个,并且直接通过 agent skill scanner 粘贴进去检查了。你可以看到它实际上发现了一个技能, 这个技能会指示代理从外部网站下载并执行安装脚本,这本来会是一场灾难,那样的话它就会在我的电脑上安装恶意软件,基本上我就完蛋了。但我们要用的那个技能叫做 opencode controller, 本质上它会让 openclaw 通过斜杠命令来控制 opencode, 并利用这个技能来管理多个绘画。所以基本上 我可以让 openclaw 运行不同的定时任务,把各种类型的任务路由到 opencode, 甚至让它编辑文件运行一个持续的调试代理,确保能够捕捉到各种类型的 bug, 并且为我构建复杂的应用程序。为了再三确认,我特意用技能扫描器检查了这个技能是否有恶意,看起来它是安全的。所以我们现在可以做的是回到 cloud hub 技能, 然后我们可以打开一个新的终端添加。这个真的非常简单,大家要根据自己的判断来操作,要持续进行验正,确保你没有安装任何可疑的东西。所以我们要做的就是粘贴 open cloud skills add 命令, 然后再粘贴这个 cloud hub 技能的链接,你可以看到它现在正在出使化这个技能。现在如果你回到 open cloud, 只要你像我演示的那样正确安装, 你会在 workspace skills 里看到它。在这个标签下,你会看到 open code controller 现在已经可以在 open cloud 中使用,并且功能正常。顺便说一下,如果你不想用这个, 只需要点击禁用就可以了。但这正是 open cloud 的 妙处所在。现在有很多视频展示了如何轻松设置这个功能。你可以安排多个代理在不同的时间执行特定任务。 所以如果你有一个生产环境的构建,并且你想要有一个审核代理,确保他处于待命状态。并且如果出现错误,你可以设置一个任务,让他能够部署 open code 来解决问题,而你可能正在外出或者睡觉。 这基本上就是你可以自动化许多不同任务的方法。接下来我们会继续演示这个过程,但这只是你可以实现的一个想法。让我来展示一个简单的例子,在这个例子中,我会让它请求使用 opencode controller 技能。 该技能可以自动搭建一个基础的 nodejs 或 react 项目,安装依赖,并自动启动开发服务器或者是一个 crm 仪表盘。 在这里我们会让它创建自定义脚本,我们会让它把想法转化为代码。这一切都是基于 openclaw 里的文本提示来完成的。 另外顺便提醒一下,我想重生,你也可以在 opencode 里直接使用 google 认证以及完全免费使用 kimi k 二点五,目前它已经开始制定计划,准备如何实现这个 crm 仪表盘,以及如何用 opencode 的 编写代码。 它实际上正在询问一些事项,然后就会启动,因为我们开始编写这个应用程序的代码。就像这样, openclaw 能够将子代理部署到 opencode, 帮助我们开发这个 crm 仪表盘,效果真的非常出色, 各位,质量非常完美,因为它能够利用我的预设来构建出这个完整的 crm 仪表盘,而且这是一个真正可以运行的功能性仪表盘。并且它还添加了我一直想要的 crm 仪表盘配色方案。 这就是你可以用 openclock 控制 openclock 的 实现的效果,因为它能够智能地利用你的所有预设瞬间生成你想要的内容。在我看来,这为我们打开了许多不同的可能性, 因为你实际上可以自动化重复的编码任务,无需手动操作文件,只需使用消息路由器来部署 open code 代理执行这些任务。你可以运行 api 检查生成项目脚手架,甚至可以将多种技能无缝组合到工作流中。此外, 你还可以结合 open cloud 和 open code, 使用许多额外的技能来自动化各种不同的任务。这只是我展示的一个基本结构, 实际上可以自动化并在许多方面帮助你。如果你喜欢这个视频并愿意支持我的频道,可以通过下方的超级感谢选项进行捐赠,或者加入我们的私人 discord 群组。在那里,你可以每月免费获得多种 ai 工具的订阅服务, 还能获取每日 ai 新闻和独家内容,以及更多精彩内容。这基本上就是理想的工作流程。你可以把 openclaw 作为大脑,然后用 opencode 作为智能的开源 ai 编码代理,为你执行各种任务。 通过使用像 agent trusthub, openclaw, skill scanner 这样的资源,你可以轻松发现任何对你的电脑有害的恶意或危险技能。这样一来,你就可以非常安全地使用 openclaw。 我会把今天视频中用到的所有链接都放在下方描述区。好了,朋友们,希望你们喜欢今天的视频,并且有所收获。在我看来,这就是理想的工作流程, 既开源又完全安全。记得订阅我们的第二频道,加入我们的新闻通讯,加入我们的 discord, 关注我的推特。最后,别忘了订阅我们的 youtube 频道,记得看看我们之前的视频,打开通知铃铛,给这个视频点个赞。好了,朋友们,非常感谢你们的观看,希望你们喜欢今天的视频,并且有所收获。正如我之前说的, 我会把所有这些链接放在下方描述区。好了,朋友们,祝你们有美好的一天,传播正能量,我们很快再见!再见了,伙计们!

大家好,本期视频教大家本地部署,中文版的小龙虾没错,就是 openclaw, 也就是运行在本地电脑的开源 ai 助理。首先本期视频要说的本地部署方法是最简单的, 使用一键本地部署工具进行部署。先带大家看下我部署后的效果,可以直接和 openclaw 本地对话,并让它执行任务。话不多说,直接教大家部署。 我们打开带有部署工具的齐油加速器,先点击右上角小方块,找到口令入口,输入口令领会员,然后搜索 openclaw 一 键部署。找到后点击右边的一键部署工具, 选择好安装路径和工作路径,然后直接进行一键部署即可。接着只需要等待十分钟左右, openclaw 就 会自动部署完成了。部署完成后,我们配置一下自己需要的模型, 点击开启极速配置即可。配置完成后刷新状态,如果状态是健康,就代表配置完成了。接着我们需要接入大模型千问, 点击右边的这个授权,等待千问授权后登录自己的账号,如果一直授权失败,可以多试几下。授权成功后点击开始对话,就可以和 open claw 进行对话了。本期视频到此结束,兄弟们快去部署吧!

龙虾加困三点五能擦出什么样的火花呢?我们知道困三点五在除夕夜正式发布了,它呢也是号称最强的开源模型,它的能力可以说拳打 g p t, 五点二 叫 t cloud, 四点五是可以和国际的这些顶级的大模型搬一搬手腕的。那好,那么这样一个国产的重量级的开源大模型,我们能不能在龙虾里面免费调用呢? 答案是可以的,接下来一个视频,带着你从零到一的在龙虾里面去接入困三点五,完成免费的调用。好,那话不多说,咱们直接进入正片吧。那么接入的步骤呢?其实也不多啊,总共呢四步就搞定了。首先第一步啊,如果你本地没有欧拉玛的情况下, 你先下载一个欧拉玛,注意下载最新版的,如果你的欧拉玛很长时间没有更新的,那么也是一样先更新到最新版本啊,那么这个没啥好说的,你呢,就把它下载下来,一路下一步就可以安装了 啊,安装完了之后呢,接下来咱们要在我的欧拉玛上去安装你的问三点五的模型。好,那么安装的话怎么安装啊啊?复制这行命令,然后这时候呢,把命令输进去就行了, 这个就是开源的问三点五的模型了。好,然后这时候敲回车,咱们只需要等待欧拉玛去安装千问就行了,很快咱们就可以看到。哎,我的千问三点五就已经安装到本地了啊,这时候呢,我知道有同学就说了,说,磊哥啊, 我本地的电脑配置不是特别高,问三点五能不能部署啊?这个还真能,为什么呢啊?因为在欧拉玛里面的这个问三点五的这个模型,大家可以看到了,后面跟了一个谁呀? cloud, 这个是欧拉玛新推出的一种 云端的模型啊,这些新模型呢? ok, 大家可以看到它都是有 cloud 标识的,像 win 三点五呀,智普的五呀,还有像 mini max 的 二点五啊,都是 cloud 的, 那么这个 cloud 是 什么意思啊? 啊?它指的是欧拉玛远程帮你已经部署好了满血版的这些模型了,你只要有欧拉玛的这个客户端,你就可以快速的去连接欧拉玛帮你部署好的这个开源模型了,所以这时候你不需要担心自己的电脑不好,因为这个满血版的大模型, 它的本质上是没有在你本地部署的,而是在欧拉玛的服务器上部署的,你有欧拉玛,你是可以直接去用的啊,所以它是这样的一个逻辑,因此呢,你电脑不好没有关系,是可以去用的。好, ok, 那 么很快咱们就部署好了啊,部署好了之后呢,接下来第三步啊,咱们就去登录我的欧拉玛账号。好,这时候复制这行命令, 来到命令窗口里面输入这行指令敲回车,然后敲回车之后呢,它会自动打开页面啊,这个是欧拉玛的登录页面,如果说他没有出现,大家看这个地址了没,复制这个地址,手动的粘贴到你的浏览器里面就行了。好,那这时候 ok, 去填写你的欧拉玛账号。那有人说,哎,那磊哥我没有欧拉玛账号怎么办?那没有邮箱的情况下呢,我们就去点击底下这个注册按钮啊,然后点击完成之后呢,然后接下来 在上面这个输入框里面去填写你的邮箱信息啊,那我就填写我的这个邮箱信息,点击继续。好,这时候呢,他让你去输入创建一个密码啊,那你就输入密码,然后点击继续, 然后点击下一步。好,点击完成之后呢,他要求登录到你的邮箱了,他把这个验证码收到你的邮箱了。好,输入完邮箱之后呢,他要求绑定一个手机号啊,那我们这时候呢,就去填写我们的手机号, 然后点击发送验证码。好,然后拿到手机上的验证码之后呢进行输入啊,输入完成之后呢,咱们就完成了登录了啊,大家看到没?我就登录了 啊,登录完了之后呢, ok, 去点击呃,底下的 connection, ok, 它就显示已经登录成功了,那么到这咱们的第三步就已经完成了啊,完成之后呢,接下来咱们就可以执行最后一步了, 使用这行命令来去启动你的 open class 啊,就可以完成 open class 接入欧拉玛里面的问三点五的模型了。好,那这时候呢,咱们最后一步啊,使用这行命令 来启动进行交互了。好,那这时候咱们来试着启动一下,回到命令窗口里面,把这行命令呢输入进去。好,稍回车。好,那么等待片刻之后呢,咱们可以看到啊,咱们的 open class 了,并且使用的模型呢,是欧拉玛的千问三点五的 cloud 模型啊,但是能不能用呢啊,那么接下来咱们可以打开命令窗口, 或者是打开咱们的飞书啊,来测一下。那我这呢就打开我的命令窗口啊,然后完了之后呢?好,接下来咱们就呃给他新开一个 new session 吧, 新开一个窗口啊,然后咱们来问一下他,我给你更换了新的大模型,告诉我你使用的大模型是啥,那咱们就给他一行这个命令啊,然后点击 send。 好, 那这时候咱们来看一下他给咱们返回的模型是啥,看到没?那他说的是我现在用的就是啥呀,问三点五的模型了,那这样的话,咱们就使用 openclo, 可以 免费的使用 欧拉玛里面的问三点五的模型了,好,这时候可能有人就问了,说,难道这么简单吗?我可以这样免费的去使用欧拉玛的云端模型吗?有没有限制啊?答案是有的啊,比如说欧拉玛的云端模型,人家也是有成本的吧, 所以说那么欧拉玛的调用云端模型的调用也是有额度限制的,然后这个额度限制在哪呢?给大家来看一下啊。这时候呢去点击账号右上角的这个账号啊,点击完了之后呢,在这大家看到没, 这块呢就是云端模型的使用限制啊,它是有一个百分比的,那么每周它会有一定的额度,然后每四个小时会有一定的额度,那么当你把这个额度用完之后呢,那么云端的模型就不能掉了, 所以我刚才问了两个问题,那么基本上就消耗了百分之一点二,所以这个免费的模型的话,每四个小时应该是能够调用一百次左右啊,根据你的这个上下文的这个计费是不一样的, 所以总体来看,这个免费的额度相比于其他的免费的额度来说啊,欧拉玛还是更实在一些。那么到这儿咱们就完成了在 opencloud 里面去接入问三点五的功能了。我是李哥,每天分享一个干货内容。