这套本尼大模型已经搭建好了,准备发去广州,用的是 mac studio ultra m 二六十四 g 的 内存。有很多粉丝会问,为啥不去用 n 卡去搭建,因为 n 卡的优势是可以串联起来,而并非单个使用。但是 mac 是 统一的内存架构,也就是说六十四 g 可以 全部当显存使用,但单块四零九零显存也才二十四 g, 六十四 g 去跑千万三点五二十七 p q 八量化的都可以, 其实 q 四量化也是够用了,速度和智力都在真假状态。这台 mac 是 给一位做电商的粉丝搭建的,他一共有二三十家店铺,每天需要有大量的竞品以及自己的爆款需要盯。以前都是人工一个一个的去看,去收集,去整理, 非常的麻烦,但是现在这台机器二十四小时可以全程自己盯,看到那些有爆款潜质的,每天按时生成分析报告,卖家拿到这个就是降维打击。最爽的地方是 erp, 也直接接入了哪些订单没有发货,有多少退回的人工成本,退货率,还有物流费用,也都不用 等财务的回复了,直接问你的 ai, 马上就能回复每年双十一双十二什么的,让他预测一下哪些 sku 可能会是大爆品。本地大模型最重要的一点就是所有的数据都存在于自己的本地,不会有任何泄露的风险, 到模型框架全都会搭建好才会寄出,等设备到了也会工程师一对一教学怎么训练最适合自己的大模型。其实用 ai 去做数据分析的效率比人工要高太多了,减少人工成本,同时效率提高,错误率也无限趋近于零,这不就是每个管理者需要的吗?
粉丝9193获赞3.2万

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

如何给自己的 open claw 更换新的模型呢?很多同学觉得自己的模型不好用,或者说有些同学他想使用一些国际顶级的大模型,但是自己的网络却存在一些问题, 那么接下来磊哥就教你,在合法合规的前提下,我们可以去使用六百多种大模型,而且不需要解决网络问题,怎么用呢?接下来一个视频啊,给你讲清楚。 首先咱们想要换 openclaw 的 模型呢,咱们这时候打开命令行窗口啊,也就是 cmd, 那 么 windows 和 linux 呢,同样打开你的终端就行了,然后打开之后呢输入这行命令啊, openclaw configure, 好, 那这时候它就会开启 openclaw 的 配置,然后在里面咱们选择当前的机器的配置。好,在里面呢去选择 model 这个选项啊,敲回车。 好,那这里面呢就是模型了啊,我就可以去换了,那比如说我现在想要换 deep seek, 或者是我想要换其他的国际模型,又不想解决网络的问题,怎么办?这时候咱们是可以使用大模型的集成站的,那么这个大模型的集成站呢,几乎你想用的所有的模型都有,比如说像 deep seek 呀,豆包呀,还有国际大模型啊,都有的。好,那这时候 ok, 咱们就可以去选择它,然后敲回车,敲完回车之后呢,它是需要输入 api k 的。 好,这时候咱们就去获取 api k, 也就是来到它的这个 case 里面, 然后呢去创建一个 a p i k 啊,它支持的模型呢,大概给大家来看一下吧,这里面的模型相对来说还是比较丰富的,当然也有一些免费的模型,我们也可以用啊,但质量呢就不能保证了, 像国内的这些模型啊, mini, max 呀, kimi 啊啊,质朴的一些模型啊,还有国外的一些模型啊,都有的啊,当然我们目前呢总共是有六百多个模型的,当然我们也可以去搜索我们想要的模型 k 都是有的,几乎你想用的模型呢,他们家都有,但是这些模型的话是需要付费的,所以大家呢也注意自己的钱包啊。 好,然后完了之后我们要去配 k 的 话,这时候呢我们就去点击 k, 好, 然后 create 一个 k 啊,随便去起一个名字,比如说我就叫做,呃, demo 啊,这个无所谓,等会我就删了啊,然后点击 create, 然后就来到了呃,这个 api k 了。好,复制这个 api k 呢,到咱们配置页面啊,然后把它进行粘贴,然后粘贴完了之后呢,可以看到这边就有很多模型,我们是可以去选的, 然后这时候我们就可以去选择我们想要去使用的一些模型了,比如说国际的模型,我们可以往下去拉,那这时候我可以去选择一个,呃,国际模型,然后选择完成之后呢,咱们可以去敲空格啊,然后它变成加号了,就说明你已经选择了。选择完之后呢,敲回车啊,敲回车, ok, 然后继续啊,这时候 重新去启动你的 get v 服务啊,这时候它就变成了新模型了。好,那么接下来呢,咱们来看一下,输入一个 open, 然后 get v 敲回收好,可以看到了,在启动里面他的 model 已经换了,看到没?那这时候你就可以去使用你想用的六百多种模型了,但是大家一定要注意啊,大部分模型是需要收费的,所以大家一定要量力而行啊。我是磊哥,每天分享一个干货内容。

今天我们来聊一下如何更换 opencloak 的 大模型,我们在安装完 opencloak 之后,选择配置了那个 opencloak 大 模型,有可能没有选择配置,那么现在如果我们要更换大模型的话,应该怎么来操作?好,我们先看一下当前我们的大模型是什么样子的,我这里的话,那个 opencloak 的 网关是没有随那个计算机启动来启动的, 那么我先来把那个网关给它启动起来,我这里的话通过网页来进行访问我的那个 openclaw。 好, 先打开那个 power shell。 好, 我先来启动网关。 openclaw gate way run 好, 到这里的话,我们的网关启动起来了,那么我们打开浏览器来访问我们的 openclaw。 好,我们的 wifi 口已经打开了,那么我们可以看到那个上面这里我默认的那个大模型的话是 deepsea 的, 那么这里的话是我之前配置过的那个大模型。如果现在我要新增那个其他大模型,或者是更改成其他大模型的话,那么我们也是可以来进行配置的。好,我们先把这个窗口给它最小化。 好,这里的话我们暂时不动它,我们重新打开一个 power show。 好,这里的话我们通过命令来更改那个大模型。 open close config。 好, 敲回车, 好,打开以后看到这个 mod, 这里那么显示的是 deep sec, 那 么当前我们的那个大模型就是这一个,那么接下来的话,我们就开始配置那个新的大模型,那么这里有两个选项,一个的话是那个 local 就是 本地的,然后另外一个是远程的,那么我们配置那个本地的就可以了。敲回车, 好,这里的话我们选择那个 mod, 这里就是上面这个是工作器,然后这个是 mod, 然后我们选择 mod 这里就行了。好,敲回车。 到这一步的话,就跟我们安装那个 openclock 配置的时候的那个选项是一样的了,那么我们这里的话就选择自己要 呃新增或者是改动的那一个大模型就行了,那么这里的话它列出来那个很多那个大模型,如果没有那个的话,我们选择这一项 custom provide, 这里就是自定义的进行配置就行了,那么我这里的话配置那个 kimi, 就是 我已经有那个 tipsick 了,我这里的话要配置这个 kimi 的 这一个大模型,那么我们敲回车, 好,这里的话就根据那个实际的情况,我这里是在那个就是点 c a 上面注册的,那么我们点这个就可以了,那么它的 t 的 话,我刚刚已经注册好了,那么我这里直接拷贝进来就可以了,我直接拷贝进来就是这一个。 好,点一下鼠标右键这个配置的话,跟我们在安装那个 openclo 的 时候的配置是一样的,我们敲回车就可以了。 好,那么它这里的话就有那个就是大模型的选项,就是下面有两项,一项是那个我新增的这个 kimi 二点五的这一个,然后下面的那个是那个 deepsea, 如果我们不显示 deepsea 的 话,我们把那个 关刀往下面移,然后我们敲一下空格,就他那个加号取消了,就表示不要那个大模型了,如果每一项都想保存的话,那么我们就保持它是一个加号的,这样就可以了,那么如果说不要的话,我们就把它取消,就是把那个加号取消就可以了,这个切换的话是通过空格进来进行切换的。好,把它选中 这里的话,我两个都保持就可以了。好,敲回车。好,这个我们往上移一点,如果还要继续那个配置大模型的话,我们选择那个 model 这里如果是不配置的话,我们就选那个 continue, 然后敲回车。好,那么到这里我们就配置完了,我们重启一下网关, open close get away restart。 好, 我们重启一下网关。 好,我们的网关重启好了,那么我们打开那个浏览器,然后我们刷新一下。 好,我们刷新好了,那么我们点一下这里,那么我们的那个 kimi 那 个大模型就已经加载进来了,它是默认的,我们要其他模型的话,我们就选择就行了,就是我们要哪一个模型来进行那个 以那个 openclaw 连接的话,我们选择对应的就行了,那么这个就是在那个 openclaw 里面,我们怎么来更改那个大模型的一个方法。

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。

今天我将跟着大家一起本地步数加码四,接入 open core, 彻底告别托肯焦虑,接下来跟着我操作。 这里我们先进入 elama 的 官方网站,进入官方网站过后,我们直接点右上角的 download 下载,我们这里是 windows 系统,选择下载 for windows, 点击这里, 这里就等它下载好。下载好之后,我们这里就直接双击运行,这是它的安装界面,我们直接点安装这里,等它默认安装好。 好了,这里 elama 就 安装好了。然后我们到这个地方 elama 的 官方网站,选择 models, 这个地方选择 command 四, 然后这里我们选择我们的模型,这个模型的选择我们根据我们的显卡显存大小来选择。我们这边看一下我们的显存是多少, 这里看到我使用的是四零七零的显卡,显存是十二 g b 的 显存,十二 g b 的 显存的情况下,我们可以选择这个九点六 g 的 模型,这个一四 b, 这个我们直接点进去,选择一四 b。 点击进去过后,我们直接复制这条命令,然后运行一个 cmd 窗口, 直接粘贴这里,它就会欧拉玛会自动地给我们安装这个模型。呃,这里等的时间是比较长的, 这里模型已经下载下来,并且运行起来了,我们向它发送一条消息,试一下你是谁, 反应还是可以的,这就跟了我们信息回答了。好了,在这里过后呢,我们就可以把这个窗口关闭掉, 关闭掉过后,在 lama 这个地方我们去选择这个模型,在这个位置也就可以和它进行通话了。 比如我们问他一句,你可以帮我做些什么, 他已经帮我回答了,在这里呢,我们因为我们是在本地虚拟机上安装的,所以而且我们为了方便以后可以在其他计算机上也可以调用,我们在这地方设置这个位置 点,这个位置点设置这个允许在网络上运行,把它开起来点了就可以了。 好了,我们下一步就开始配在 open core 上配置啊,在这里我们进入虚拟机之后,我已经执行了 npm i, 刚接 open core 全曲,安装 open core 的, 我们这里可以执行一下 mini, 看下我们安装的版本。 openclock 杠 v 是 安装的最新版本二零二六点四点五版本,然后我们执行 openclock on, 在 这里我们进行一个调试,这个地方我们 yes, 这里选择快速,这个地方它是让我们选择大模型,呃,大模型它这里有,我们选择本地的这个位置点确定 这里我们直接就选择本地的,不要选云,上面是带云端的,就选择本地模型。 这地方让我们选择模型,我们选择这个,这就是我们刚刚这个就是我们刚刚下载好的模型,就是 直接回车。等一下, 这里让我们选择通讯工具,我们这直接跳过,暂时不管这个,直接跳过。 呃, scale, 我 们这边也选择否先进行最简单的安装 网关,我们就直接重启, 选择 open ray web ui 好 了,我们看一下 open core 运行起来了没有。 open core getaway style sta 好了,已经运营起来了,我们进去看一下, 这边需要 token, 我 去看一下 token 是 多少,关于 token 的 话就是我们,我现在是在虚拟机里面安装的, 我要重新打开看一下,在虚拟机里面安装,我们就直接去通过这条 mini 访问我们的虚拟机, wsl 的 虚拟机访问,然后无斑图选择 home 目录,选择我们的用户, 然后这里选择点 opencloud 这个文件夹,然后这一个 opencloud json 让我们看一下,到 git 里面去,这个地方就是我们的 talking, 复制粘贴下来到这个地方,点连接好了,我们尝试给他发一条消息,你是谁? 在主位置这个地方,我们可以看到这地方是我的模型。 我再问他一条消息,你现在使用的是什么模型? 看这里已经是我当前运行的模型 工具,在这里我们就可以看到了,我们现在整个 open call 来使用的是我们本地模型,就不需要去购买 token 了。好,今天内容就这么多,谢谢大家。

五个全网龙虾安装率最高的技能盘点,快来看看你的龙虾都装了吗?首先第一个 skill better, 它能审计所有技能权限,一个技能帮你防住后门和数据泄露,给你提供系统级的安全保证。二、 tablie search 为你的龙虾提供联网搜索能力,支持同步生成提取和优化, 查新闻数据资料,必装 skill。 三、 self improving 这能让你的龙虾自动进化,只要你纠正过它一次错误,它就会自己默默记下来,并且以后绝对不会再犯,属于是用的越多,它就越懂你。 四、 summarize 它能够帮我们把网页、 bdf 文件甚至视频的内容一键总结提炼核心,能够帮助我们更加高效的处理各种信息。五、 翻 skill 如果说之前的几个插件都是赋予龙虾双手,那这个 skill 就是 直接给他一本 skill 百科全书,他能够自己寻找适配的技能。 比如我让他写一段代码,他就会自己寻找相关的适配技能,或者给你推荐目前现在比较好用的写代码的技能。在搭配上开头说的第一个技能,既保障了安全性的同时, 我们连需要给龙虾装什么技能都不用考虑了,直接提出自己的需求,他就会自己去寻找技能,完成你的要求。最后还有些伙伴可能不知道如何用上这些同款技能, 或者是在 club hop 上找不到,那可以直接去浏览器搜索。七二四 club 涌动虾进入官网下载一个新手小白也能轻松一键安装的涌动小龙虾。打开之后我们去右上角兑换码里 使用 x x 三零零即可白嫖 token, 每天还会赠送三百 token 供你使用。好了,本期视频如果有用的话,还请点赞、收藏、支持,我们下期见!

如果你还没有安装过欧本克劳,那这期视频可能是目前最贴心的小白安装欧本克劳入门教程。这期视频汇聚了我一边碰壁一边摸索成功养活七只小龙虾的所有安装经验。 首先需要说明的是,从零开始安装欧本克劳的确会涉及一些代码操作,如果希望完全简化操作直接使用,建议选择腾讯或者字节提供的成熟欧本克劳软件方案。那接下来我们开始具体的欧本克劳从头安装教程。 安装 openclaw 之前,我们先要在电脑上安装两个核心依赖程序,第一是 node js, 这是 openclaw 依赖的一种编程语言。第二则是 git。 安装 node js 和 git 时,都可以直接通过百度搜索它们的名称进入官网,比如这就是 node js 的 官网。点击 get node js, 就 会出现下载安装程序包的界面, git 也是同理,进入官网后会有醒目的 download for windows 提示,点击即可下载安装包。 另外,我还推荐两个可以优化使用过程的程序,一个是 python 语言,另一个是 vs code 的 代码编辑器。了解过一些的朋友肯定知道, openclaw 的 强大功能依赖于各种技能来完成工作,而这些技能大多是用 python 编写的。 而另一个程序 vs code 则是一个通用的代码编辑软件,能为我们操作 openclaw 时提供更美观的编码界面。 下载完成后,我们就逐个安装这些依赖程序。 peter 的 安装只需要选择好安装目录,然后一路点击 next 即可。 node g s 的 安装过程也类似,选择安装目录后,一路 next 就 能完成 python 和 vs code 的 安装过程我就不详细演示了,操作步骤也是类似的。 完成这些依赖安装后,我们就开始安装 openclock 的 官网。在官网页面向下滑动,会看到两种不同的安装命令, 一种是基于 note g s 的 n p m 指令安装,另一种是基于 p o x 的 指令安装。这两种都可以使用,如果一个行不通,可以尝试另一个。 我们复制一条安装代码,然后打开 vs code 的 软件,选择新建终端,将安装指令输入进去并直接回车。程序会先检测安装环境,然后开始安装。这个过程可能需要等待几分钟到十几分钟不等。 在这段时间里,我推荐大家去完成三件事,第一,手机下载飞书 app。 第二,注册一个 github 账号,用于登录 cloudhub, 那 cloudhub 呢,是 opencloud 的 官方技能平台。第三呢则是注册 tabloid 网站。 那飞书 app 的 安装我就不演示了,这里我们演示一下 cloud hub 的 注册登录入口。首先打开 cloud hub 官网,选择右上角三印为 github, 选择 create an account, 然后按照网页提示完成 github 的 注册操作即可。 另一个推荐大家注册的网站呢,是它维里,因为欧盟 club 的 本质是无法联网搜索的,所以需要这些外部网站来提供搜索功能。它维里是目前为 ai 提供网络搜索结果的服务程序当中较为纯净的一个,所以建议大家也先注册好。后续我们会使用到它的 api。 那 等待一段时间之后呢?我们回到 vs code 界面,当它提示进入 starting setup 界面时,说明程序已经安装完毕。那么接下来我们需要进行一些初设设置。 第一项是一个免责声明,我们通过方向键选择 yes 进入下一步,然后保持默认的 quick start 快 速启动选项。这里会让我们选择模型提供商,我们可以暂时跳过。那如果你有 astrofic, open ai 或者 kimi 等服务商的官方 api, 那 也可以在这里直接选择使用。 那由于我后续使用的是阿里云的 coding plan, 这里就先暂时跳过了下一个 filter 选项,我们保持默认的 all providers。 默认模型则先选择 keep current, 后续我们会进行修改。 然后呢,它会提示你选择 channel, 这是选择 openclaw 与外部通讯工具连接的渠道。我们后续呢,会通过飞书的官方插件将它配置到飞书 app 上,所以这里可以先暂时跳过。下一节会介绍如何接入飞书, 那再接下来呢,会出现网络搜索功能的设置,我们选择 tabli, 在 这里呢,就需要输入 tabli 的 api, 那 在刚刚完成注册后, api 会直接显示在 tabli 的 网页上,我们复制下来并粘贴到安装程序的对应区域即可。 tabli 的 免费额度是每个月限额一千次,一般人是完全够用的。然后呢,它会提示是否现在安装一些官方内置的 skill。 这里选择现在配置或者暂时跳过都是可以的。如果现在配置,就会出现一个可选的技能列表,这里通过上下键选择技能,通过空格键来进行选中。我推荐安装 github, 其他的都可以根据技能介绍来自主决定是否安装。很多内置技能是基于苹果平台或者国外网站的,可以先不装, 在技能配置的过程当中会询问是否配置一系列 api, 这些都是一些技能生效所依赖的外部软件 api, 大 多数都是国外的,我们全部选择 no 即可。 接下来呢,会进入 get 为网关服务的安装阶段,由于我这台电脑之前安装过一次 open call, 所以 会提示选择保持现状还是重新安装。对于没有安装过的电脑呢,应该会直接进入到网关的安装界面,并跳出一个 c m d 命令行窗口,这就是网关的后台。 网关是 openclaw 能否正常运行的核心指标,可以简单理解为网关运行时, openclaw 就是 活跃的网关,一旦关闭, openclaw 就 无法继续使用。在这里呢,我们等待它正常启动即可。 在网关启动后,安装程序就结束了,只要这个 cmd 界面持续存在并有光标闪烁,就说明我们 openclaw 主体的安装大功告成。 第三步,我们将 openclaw 绑定到飞书 app, 这样我们就可以通过飞书像聊天一样去操作 openclaw, 并向他发出指令。 我们呢,首先搜索飞书 openclaw 官方插件,进入飞书官方插件的介绍网页以及使用说明界面,说明中也简单介绍了如何安装 openclaw, 但由于我们已经安装好了它的本质,所以我们直接进入。第二步安装飞书官方插件的步骤。 这里呢,提供了一行安装指令,将其复制下来,回到终端中粘贴并回车,就会进入飞书官方插件的安装程序。我们稍等片刻,安装完插件后,网关会自动重启, c m d 窗口可能会闪烁几次,当出现这个二维码时,就说明飞书官方插件已经安装成功了。 接下来我们打开手机上的飞书 app, 扫描这个二维码,会提示我们注册一个机器人,这就是我们后续在飞书上向 o b k l 发出指令的聊天对象。 在这里我们可以定义机器人的名字和头像,自定义一个你喜欢的名称,或者选择上传一个头像,点击创建机器人,出现这个界面时,机器人就创建完成了,稍等几秒后就会提示机器人配置成功,此时网关还会重启几次, 我们稍等片刻,当网关出现四行绿色的中英文字,包括开发者后台正常连接、接收事件与回调等等内容的时候,就说明飞书插件已经生效。我们新配置的机器人已经与 openclock 成功建立有效连接,那在终端中看到已就绪的文字后,我们就可以进入到下一步了。 那到目前为止,我们的 openclaw 还只是一个空壳,尚未注入灵魂,也就是调用 ai 大 模型来回答问题、处理任务的能力。所以接下来我们需要将大模型服务商配置到 openclaw 当中。 我使用的是国内阿里云百炼的 coding plan 包月服务。另外呢,火山,也就是字节,还有 kimi、 mini max 这些服务商也有包月服务,大家可以选择自己喜欢的购买一个。如果想使用国外的服务,操作会更复杂一些,今天就不做介绍了。 那每个包月服务商都会提供一个教程,指导如何将它的模型配置到 open cloud 的 这个配置文件当中,过程大同小异。那我以我用的阿里云百链平台为例,我们先打开百链的 coding plan 控制台,然后会有一个将它配置到 open cloud 的 教程文档, 我们在文档当中找到修改配置文件这一节,也就是方式三直接修改配置文件。这个方法最简单也最精准,这里他给出的是 model agent get to a 三个字段的配置信息,其实只要用 model 和 agent 两个部分就好了。我们将 model 和 agent 两个字段复制下来, 然后回到 c 盘,按照路径找到用户文件夹,进入自己的用户目录,选择点 openclaw 文件夹,里面有一个 openclaw, 点 json 文件,这就是 openclaw 的 核心配置文件。 我们双击点开该文件,由于我们之前没有配置 model, 所以 配置当中还没有 model 这个字段,我们只需要找到原生的 agent 字段,然后将它完整的删除,然后将复制的 model 和 agent 字段粘贴进去, 检查一遍文件的完整性。可以看到我们刚刚配置的飞书插件信息也已经写在这个配置文件的末尾。 接下来最重要的一步就是将我们自己的 api 复制到预留的 uapi key 字段当中,这是我们使用大模型服务的唯一身份标签,如果你不复制进去, open call 依然无法连入大模型。 然后呢,我们就回到终端当中,使用 open cloud gateway restart 命令重启网关,使所有配置文件生效。当我们重新看到那四行绿色字段的时候,就可以打开飞书 app 上刚刚配置的那个机器人的聊天界面,向他发送一句你好, 此时呢,他会收到消息,并打上一个 emoji 的 标签,表示已经看到消息,并正在努力思考,那稍等一会后呢,他会回复我们询问一些基本的信息。只要能够看到这样的回复,那么恭喜你,你已经成功养活了一只小龙虾。 接下来,只要在这里和他聊天,你就可以完成基础信息的配置,例如他叫什么名字,他应该怎么称呼你等等。 最后呢,我简单介绍一下 skill 的 安装方法。那技能也就是 skill 系统,是 opencloud 功能强于网页端 ai 的 一个核心系统之一。它指导 opencloud 在 面对什么场景时,应当以什么方式正确处理用户的需求,以及如何调用正确的工具来解决问题。 在安装的过程当中,让大家注册的 cloudhub 就是 opencloud 的 官方技能下载站。比如我上一个视频构建的知识网络图谱,主要就是基于这个 ontology 技能实现的。 这里面还有很多技能,包括帮助 openclaw 自我提升的 self improving, 以及读取和写入 office 文档的 word、 excel、 powerpoint 等技能,这些都可以安需配置。 很多教程都说了这个网站,但他们都没有告诉你。如果不进行登录, openclaw 的 技能下载就会受到严格的速率限制。要配置一个拥有几十个甚至上百个技能的完整 openclaw agent, 甚至可能需要一周到十几天,这是我们无法接受的。 因此,我建议大家注册并登录 cloudhub。 登录完成后呢,点击右上角自己的头像,选择 settings, 下拉到 api tokens 位置,选择创建一个 token。 那 网站会提供一行 cloudhub 的 api token, 将这个 api 按照我推荐的提示词发送给我们小龙虾,直到它回复登录成功,我们就可以通过聊天消息来指导它安装技能了。 随后呢,我们可以自行搜索并且安装所需的技能。例如在生物医学场景当中常用的 n c b i search, 只需要输入 n c b i 即可搜到。进入他的介绍页面之后复制地址栏当中的网址,并且提供给你的 open cloud, 告诉他登录 cloud hard 并且安装该技能。 openclaw 就 会自行开始安装。这里呢,我还准备了一些推荐的技能清单,以及生物医学场景当中解锁可能会使用到的部分 skills 以及它的使用说明。关于这些文档,你可以关注并且私信我,我会在后台发送飞书群聊的邀请,通过后台私信加入我的一个飞书群聊,我即可获取这些文件。 那最后我附上一些 openclaw 使用时常用的终端命令,也希望可以帮助到大家。

是不用养虾了,直接养马吧。这个爱马仕真的是太强了,搞了四台 max 六的做本地大模型的部署嘛,四个机器人,四个 a 剑客,四个本地大模型,后期我会搞这个五零九零去做这个本地大模型,这些本地大模型本身算力是有限的啊,所以说他对于 a 剑客的平台 最关重要。在这个 open kala 下面,比如说我问他的知识库有啥,我这个本地模型就在疯狂的运转,但是也可以看到他这个思考的过程是非常的慢的。 因为什么?因为这个 open color 太重了,它的上下文吞吐默认情况下就有两万到三万左右,加上我装的各种企业管理的 skill, 它就变得更加的慢。我运营短视频呐,因为我是个做短视频的公司嘛,可以看到它的一个表格,我的知识库非常的全, 它输出的格式虽然说比这个爱马仕看得更牛逼,它架不住啊,我有这么多 a 型的同时,开始工作的时候,它的这个性能就会非常的差,而且经常去锻炼, 所以说我这段时间用这个纤维,三点五 a 三 b 刚好跑在这个六十四 gb 现存的这个甜点位,他基本上跑企业的绝大多数运营效果明显是这个爱马仕比他更强。看一下我真实的这个指示库,特别多的东西, 然后这么多东西我用爱马仕去找,平均它的速度比这个 open 科洛要快一半左右,可以看到这个信息,它的整理速度 是非常的快的,虽然说现在看着没有什么外观界面哪一个终端在跑,但是他可以直接对接微信呐,企业微信呐、背书啊,各种平台,所以说用起来丝滑度跟 oppo kod 没有任何影响,他可以支持无限记忆。 就是 oppo kod 经常我们在用的时候就忘事,今天你跟他说这个,明天他又忘了。比如说你现在帮我把这个合同改了之后,但第二天他不知道你改了这个合同,那这个操作空间,我觉得这个 a 镜头就非常的不好用。但是你用了爱马仕之后,你只要今天跟他对接完,比如说我现在按这个键把它退出他的聊天, 发现没退出聊天的瞬间,其实刚刚他他操作了,他把现在目前我们聊天的这个所有东西直接下到数据库存到我本地了。那就说下次我问这个合同,他可以直接找到,然后对比现在的这个差异化, 如果有差异化他会告诉我没有差异化他直接给你出结果。所以说这就是现在 a 镜头的一个集合,我觉得这个东西一定以后比这个 oppo 壳会更火,现在他的绝大部分我已经转移过来了,用起来非常的方便。

hello, 同学们,大家好,今天我给大家讲的这期呢非常重要,大家一定要用心听, 因为我是想做什么事呢?是用这个 workbody, 现在不是要消耗积分呀,大家可以看到这里是消耗积分的,那么我想的是它调用本地模型,其实是可以避免消耗积分的,就是用本地的算力 去来跑咱们的 ai, 因为这个现在是这个沃克巴里用的是这些模型内置的模型,而这些云模型呢,都是需要消耗积分的,因为他们算力都在云端嘛,所以我想要是本地部署的话,咱们就可以免费来用这个 ai 了。 我之前是用这个呃, gm 四的这个本地模型,我部署了一套是让他自己去做安这个欧拉玛,然后通过欧拉玛调用欧拉玛的接口,然后来部署这个 gm 四的这个模型,是已经可以用这个模型了,在 workbody 这个这个程序里面, 但是又发现一个问题,这个 g m 四模型它是一个大语言模型,相当于跟豆包一样,它只能跟你对话,它并不能完成一些复杂的这种任务,它只能比方说对话的话, 比方说我做软件开发,我跟他对话只能说让他帮我生成代码,而不能让他直接帮我生成这个可以部署的这个部署包,您明白吧?大家都明白吧,他只能说完成对话,所以我现在就是想 通过跟 workbody 对 话,然后让他自己帮我部署可以免费的, 就是可以免费不消耗积分的,并且可以帮我完成软件开发任务的这么一一个模型。然后我首先呢,我会问 这个我如果用本地模型是不是就不会消耗 workbody 的 积分了?然后 workbody 他 给我回答的是确认使用本地模型是不会消耗积分的。那么我接下来的话就是说 我告诉他一个这个问题,我现在需要用你来写代码生成部署文档研究学术生成学术文档用国内哪个模型比较好? 这这这时候呢?为什么我说用国内模型呢?因为国内没有模型,他相对于理解咱们国内的这种软件开发呀,这种他会结合的比较好,外国的开发方式以及逻辑的话可能会有一些区别,导致我们后期的话, 呃,进行这个软件开发,我再进行这个功能迭代版本升级的话可能会有一些不兼容,所以我想的是还是用国内模型比较好。 然后之后呢?他回答的我的是代码生成与工程实现是要用这个 deepsea 系列是比较好的,包括通易千问这些都是国内做开软件开发的一个主流的框架。然后之后呢我就想说,那么 看这边这边我就问了个问题,我现在需求是这样,我是需要去做任务,有两条线,一个是用学术专家模型去研究这个论文文档,一个是用产品经理模型和专家级开发工程师 u i c c 的 模型去做软件开发项目生成部署包。 然后我我又咨询了一下这个顶级模型能力,让我直接本地部署好,就不需要消耗积分了,这样能不能做到? 然后沃克巴蒂他就直接跟我交底了,他说顶级模型的能力是需要相当大的显存的,也就是咱们说的 gpu, 英伟达的显卡, 那我以我现在的电脑的话,我们只能说跟让他推荐我们做哪些比较好?然后我就后面给他说了我我的电脑的配置,我是华硕的这个 rog 笔记本处理器, i 七的 十二代,然后显卡是六 g 的 三零六零的读写,硬盘是一点五 t 内存,十六 g 用哪种比较合适?他就给我推荐了, 他说这个是有瓶颈的,有显存瓶颈的,所以说他推荐的是千万的二点五这个模型代码专用推理,然后这个 divx 模型,然后以及这个 这个是我认为比较好的方案,他给我已经推荐了这个本地部署的组合了,然后现在呢我就是 他询问我是不是立刻帮我部署这两项,这两个应该是这个千问二点五的十四 b 是 专门是负责推理的,就是相当于是大脑,这个千问的这个 code 七笔是专门负责帮我做软件开发的,写代码的相当于是最强的工程师。 现在是我需要他,他就帮我立刻从本地部署这个东西,这是一个部署过程,然后部署完成后,基本上就可以实现用本地部署的这个算力 去本地去执行你的,完成你的你交给龙虾的这个工作了。然后这个大家可以研究一下,然后这个部署时间比较长,在这我就给大家多说了, 然后后面我会出一些视频,用我本地部署的这些东西来做这个软件开发。然后大家如果你们有比方说你们的行业也需要软件,也可以把想法告诉我,我帮你们可以快速开发出一套你们想要的东西,或者你们对哪些业务 想做什么小程序的软件啊,都可以找我,我帮你们来做。好今天的内容就是这样,然后大家可以自己自己研究。 我目前是觉得这个 gm 四这个大模型虽然是好,但是它太吃配置了,那个电脑配置低的这些咱们的龙虾训练师还是建议不要用了, 而且它只有对话能力,并没有这个实际的代码能力。也就说它 gm 四强大的地方在于它可以告诉你怎么做,但是它不能帮你做事情。大家明白这个道理吧?其实就是 gm 四跟豆包一样, 就是他能告诉你,他能把你帮你整理思想,帮你整理思路。比方说你想做个软件 软件项目,他能,他能帮你,想帮告诉你怎么,并且他能给你输出代码,但是也仅限于文本对话对话式的这么一个交流,他没办法帮你,直接帮你生成任务,就生成这个文件包了, 直接帮你开发,他做不到这点,只能说现在还是在这个 gmail, 还是在对话的地方,你如果想真正的让你,让他帮你开发,帮你部署,那么可能是需要 cloud code 这样的一个模型去做, 不同的模型针对的这个应用场景不一样。我觉得以后的这个 ai 的 发展呢,肯定会是 各个 ai 的 角色做各个的事情。我这个专业的大脑模型就专门负责推理,然后我的动手能力强的模型,我专门负责去动手,去操作,去执行这个电脑端的任务,他会有这么一个分流, 当然他可能也会有总的总的这个流程,但是他肯定这个俗话说的好吗?鱼和熊掌不得不可兼得吗? 因为这个还是需要去大脑和肢体去配合,相当于 clioq 的是你的手脚可以去做事情, g y 四是你的大脑去去去构想,去想这件事怎么做。 然后我现在呢,还是偏向于咱们可以用国内的这种大模型,因为国内大模型更能理解你的语言,更能理解咱们的自然语言,能更好的执行任务。 好,本期视频就到这里,然后大家有什么想了解的啊,想知道的都可以发到评论区,然后记得给我点个关注就行了,我都会一一解答的。嗯,而且都是免费分享给大家的。好,这期节目就这样,大家再见。拜拜。

openclaw 重生记四点一一版本加宽三点五丝滑回归上期把 openclaw 和奥拉玛彻底清空,经过一夜拉取,我搞定了四个模型, g m 四的四 b 三一 b 和宽三点五的九 b 三五 b。 下午安装时发现 github 更新到四点一一版本, 新功能超多,具体去官网看,反正这次是有惊无险装好了,耗时一小时终于搞定首次回复花了十几秒,模型加载中, 但之后的回复超级丝滑。我调用的是 quan 三 five free five b a 三 b 这性能 macm 四跑起来简直起飞。刚装好就忍不住给虾友们汇报一下,接下来我要给他装技能,让他更懂我更实用。下期继续汇报测试成果, 关注我,看本地 ai 如何进化。

啊,大家好,呃,今天溪水哥给大家做一期关于 open color 的 这个 model 模型的配置,今天给大家讲的全面一点儿把。呃, 给大家分享一下我们怎么安装 model, 然后 openclaw 的 内置的这些 model 是 什么样子,有哪几种类型,然后做一个介绍,然后再给大家针对每一种类型做一个案例的分享,会举一个具体的例子给大家讲一下怎么配。 最后就是如果你的本地呃 openclaw 有 好多个模型的话,你怎么去切换它?对,就是如何切换 model。 好,我们开始第一部分,呃安装 model 的 这种大模型,呃,现在是一共是五种类型啊,就是 open clone 支持的五种类型有五种,一种是 api key 的 这种方式就是需要你把 api key 拿过来, 呃,这里面像 kimi 啊, mini max 啊, open ai 啊 clone, 然后还有智普都是属于需要你把 api key 拿过来 对进行配置,然后还有呃像 on os 的 这种方式,就是它会跳转到官网,然后呃你登录完了之后自动跳,自动授权,授权对,像谦问式这种, 呃,然后再就是自建的这种,就是你需要配置那个他的那个服务器地址,然后和 key, 这个就是 deepsea, 属于这一类的。最后就是还有那种聚合的, 就是,呃只需要配 key 就 行了,像这个 open root 这种,呃,它就属于聚合的。 还有一种就是欧曼,欧曼大家应该听得非常多,是本地模型,它的模型呢?那个点就是需要呃本地安装,然后端过,通过端口访问,然后它最大的就是呃它因为本地跑嘛,最大特点就是托肯是免费的 啊。对,一共是这五种类型,然后我们怎么配置呢?嗯,配置大概分为七步就完成了, 很快。对,如果你会的话,就是安装起来会非常快。我们依然首先还是要打开我们的这个命令窗口,如果我们的同学是 mac, 那 你就需要打开终端就行了。如果你是 windows 的 话,你就需要打开那个 pro shell。 如果你在 windows 是 装了 wsl 的 话,那你就打开 wsl 里面,点开之后你会有那个 u 帮图,你打开 u 帮图,如果是 linux 的 话,那就直接是命令窗口了就 ok 了。然后第一步呢,我们就需要这个啊,输入 open curl config, 也就是配置文件, 就是配置配置文件,然后选完了之后,你就选你的那个。呃,就是你在 git 会在哪个地方跑,然后你选 local 就 行了。 然后配置你要配置什么?它里面有好多种,就是你要配置你的 channels 呀,有配置你的这个 web tools 呀,对吧?然后还有配置 model 的 呀,对不对?你选个你的配配置就行了,就是选你的那个类型, 然后最后就是,呃,然后你就就选择选了 model, 之后你就选这个 这个谁,谁给我打电话,然后你就选那个千问,比如说啊,我是配的千问啊,你选模,选模型的话,你就选哪家模型就行。 然后选完模型了之后,这个模型有可能是让你 apikey 的, 有可能是让你弄那个 onos 的。 还有一种就是自建, 对,如果是 api key 的 话,你后面就粘贴 api key, 如果是 onos 的 话,你就需要登录去授权。如果是自建的话,你就需要这个啊,把你那个服务器的地址和 key 都要配置好。对,配置完了之后就输入这个,就是网关,重启 open clock, get away, restart 就 行了。 这就是啊,分为这几步啊,后面等会给大家讲案例啊,具体讲案例,然后这里给大家接下来讲一下内置的 model provider 介绍,也像我们 open core 到底支持哪一些? 呃,这个大模型,呃,你看这个第一类就是国际主流的啊,就是这几家,这几家我们好像都玩不了,玩起来比较费劲,要转要转好几站,对吧? 对,像这个 openai 的 呀,美国的,对吧?然后这个啊, cloud 呀,对不对?谷歌的是不是这个 gork 的, 对吧?还有这个法国的,这几个呢,都是需要填 apikey 啊,谷歌呢,是需要除了 apikey 还可以用 onos 的 方式去验证的, 然后国内的,这是国内的,国内的大家应该配的比较多了,对吧?这个像 mini max 啊,对不对?然后月之一面呢?然后千问呢?百度的呀,对吧?然后阿里巴巴的 这个字节,它有海外和海内的,然后小米还有智普。对,这几家呢,都是支持。呃,支持这个 apikey 的 只有这个。呃,谦问是需要 onos, minimax 也支持,两个都支持验证的方式。 然后这种呢是大家用的少,我们就不过不做过多的去介绍,但是它的那个默认配置里面是支持这些的。这个里面有两个得重点说一下, 一个是欧莱玛,欧莱玛是可以啊,他这个工具可以把一些开源的模型直接拽下来,拽在你本机本机上,这种最大的特点,刚才说了,就是什么呀? 最大的特点其实就是啊,再打一遍就是免费。对,但是啊,对你的本机的机器要求就比较高了,像你内存呢?显卡啊,对吧?然后这个呢,就是开源的,这个就配置,一般的人是整不起来的。 然后这个呢,呃,也是用的比较,这种方式用的比较多,像 deepsea 就 需要通过这种方式去配置用户自定义的方式, 这是我们整个呃整个 model 的 前面的介绍, 然后好,现在给大家分享几个案例,每一种类型的案例。第一种就是我们分享一下 kimi, kimi 怎么配置 kimi, 这种就是 api key 的 这种方式去配置啊,我们依然还是打开这个,呃,就是这怎么多了一个 依然打开这个,呃,命令窗口输入 openclo, 对 吧? openclo config 这儿输完了之后,它就会呃让你选择你是在本地 get 会是在本地跑还是远程跑,所以我们这个地方就选本地 local 就 行了。 然后选完这个之后呢,它就会跳到这个界面,让你呃你要配置什么,这里面可以配置你的什么工作空间呀,对吧?然后你的 web 的 工具啊,是吧?然后你的网关呐, get away, 对 不对?然后你的 channels 就是 你的这个渠道配飞书 还是配微信,对不对?这就是技能 skills, 它也是官方的技能,对吧?这个就是配置,这里面我们选 model 就 行了,选模型,对,模型选完了之后呢,我们就呃到了这个界面,这个界面呢就是大家看看你自己想用的是哪一个?我这给大家呃 分享的是 kimi 的 啊,我们选 kimi, 选完之后它就会让你输入,呃,是是 api key 了,这个地方因为我用的是 kimi code, 所以 我就选这个, 这个选完了之后呢,就让我粘贴这个啊 api key 了,我就这个地方,这个 api key 就是 在你的那个 kimi 的 后台去建,建完了 key 之后,然后直接粘贴过来就可以了。 这一步是这样的啊,然后这选这个回车完了之后就这个把 key 粘贴进来,这样就配好了。 这个是 api key 的 方式配置,然后再给大家分享。接下来分享的是谦问的这种 onos 的 配置,这个跟上面的这个 kimi 的 配置完全不一样的,我们在这个 model 这个地方选择的是 这个工业上模型。是,呃,是 q 问,这就是千问的,千问想完了之后,它就会自动跳转到千问的这个网站上,然后你就需要登录,登录完之后授权点确认就可以了,确认完了之后呢?呃,就配置完了。 然后还有一种就是 deep seek, deep seek 是 需要用这种方式,也叫 coster profiler 这种方式去配置的。 我们在这个 model 这个这个地方选的呀,就得选这个 custom provider, 选这种方式就是自定义方式,这种方式呢,你选完之后它就会让你配置 api base url, 对, 这个地方就是要配它, 如果是你是 kimi 的 啊,那个 deepsea 的 话,就来配这个,然后输完这个之后,他会让你粘贴你的 key, 然后你把你的那个 key 粘贴过来,输入你的 key。 对, 输入 key 完了之后,他会他会问你这个选项怎么选,你选第一个就行了。对, 这是关于这个的这个啊,然后再就是,呃,你就输入你的啊那个 model id, 这个 model id 我 们输 deep seek 杠 chat。 呃,为什么输这个呢?等会儿我告诉大家 为什么是输这个,然后一会后面都回车就行了,这样的话这种就是呃 deep seek 的 这种配置, custom 这种配置就这么来配的, 然后关于刚才那个 base u l, 还有那个那几个东西该怎么配呢?是这样的,你打开这个 api 的 官网啊,打开谁有电话给我 api 的 官网,然后打开 api key 开放平台,开放平台之后呢?呃,你就会,就会看到呃,那个文档里面就会看到这个内容,这里面会看到这个就是 base 与 r, 这个就是 model id, 一个 deep seek 杠 chat, 还有 deep seek 这一个,然后这个是关于呃那个啊 custom 这种配置,然后最后装了这么多模型的话,我们该怎么去切换模型呢?我现在又装了千问的,又装了 kimi 的, 呃,切换的方式是这样,你在命令窗口里面输入 openclaw models list, 你 就把你的所有的 models 全部列出来,列出完了之后你看它就这么显示,显示完了之后你再配置用这个命令就行了。 openclaw models set, set, 这后面是个名称啊,这个名称就是你的这一列,一定是按照这一列来啊,你输少了,输多了都是不行的,所以你看我这个地方是百炼千问斜杠, 对吧?这个千问三点五杠 plus, 就是 这个,这个就是你切换你的这个模型的命令。对,呃,这就是今天给大家做的分享,内容有点长,嗯,大家看完了,我们相互学习。好,谢谢大家。

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

前天我安装了 alama 本地大模型, 今天呢,就想在本地安装 open 可乐,让 open 可乐调用这个 alama 的 本地大模型。 首先呢,我用这个豆包大模型,然后问他一下怎么在本地安装 apple, 在 mac 电脑上面安装, 然后我就按照他的指令一步一步来安装。 由于是新电脑,所以不能直接复制拉取 opencloud 的 这个命令,先打开这个终端 看。我一开始直接复制这个命令拉取的话,它就出错了,它说缺少这个运行的环境, 所以根据它的提示,我就先安装了一个 pro 这个命令的环境。 把这个环境安装好了以后呢,还要安装这个 node js 这一个环境,这两个环境都安,安装好了以后才能安装这个 opencool, 否则的话是装不上去的。 现在反正都有大模型,有什么问题的话,你直接把这一个问题啊贴到这个大模型里面,然后问他下一步该怎么办就可以了。 用 blueprint 测试好。 blueprint 已经安装好了, 那现在安装的是 node js u d g s 已经安装成功,这时候就可以安装 oppo nano, 将 oppo nano 从原代码拉取下来, 将命令行输入到终端里面去, 这时候提醒我说镜像有问题,所以还是直接拉吧。 本来想它能不能快一点,通过镜像能不能快一点,但是镜像不行,这下面就按部就班的,根据它的提示,能够我们一步一步来安装 openclaw。 安装 openclaw 的 时候先选择呃,这个快速安装模式, 现在这个 open class 是 最新的,二零二六点四点九, 那 quick start 这个模式,我们选择 quick start, 下面配置飞速机器人, 这个飞速机器人的,呃,应用权限,这个上面要仔细一点, 我这个 oppo 可乐安装好了以后一直连不上飞速,后来查找原因,嗯,就是这个飞速机器人的这个应用权限没有配置好, 这种还要记得发布,不发布的话它也是不行的,就是音乐没有声,音效好。这个 opencloud 已经启动了, 等 oppo 可乐启动了以后,这时候我连接它的这个本地大模型还是不行。为什么呢?因为这个我连接的一开始连接的是千万三点五二十七 b, 二十七 b 这个大模型呢太慢, 所以它一直在这动, 后来我把它大模型改成千万三点五的九 b, 你 看这个是我连接飞速的时候,连接了好长时间都没连接上,后来还是一步一步排查原因啊,才才找到了。就是它的应用权限里面 没有配置好, 最终那个飞速机器人要和这这一个 opencloud 要进行配对,在飞速机器人里面发一个,你好,它会产生这个配对码,把这个配对码呢粘贴到这个聊天 界面上面去,它会自动的进行配对。那第一步呢,就是要把这个 搭模型要配置好,这个搭模型也花了我很长时间,主要是,嗯,电脑后台开的程序太多了,可能它运行不起来,跑不起来,所以现在更换了一个千万三点五九 b 的, 你看现在界面显示飞速配对成功了, 然后我问他,你用的什么大模型,看看这个模型有没有突出 这个反应。 open color 的 反应还是有点慢啊,这要等一会儿,它不像那个直接和大模型对话, 你看他出来了, 他显示的是饿了吗?千万三点五九 b, 这个模型九 b 参数是千万三点五的这个版本,然后他还告诉我运行的速度有点慢是什么原因, 你看它也出来了,说显存或者内存的限制,其实这个在本地跑这个大模型还是有一些弊端的,除非你的硬件特别好。 好的就这样这个本地的 openclock 和本地大模型就已经安装好了,谢谢。

又一台本地大模型服务器搞定,准备发货。这一台是 m 二 ultra, 六四 g, 统一内存,很多人问我为啥不选英伟达, mac 的 cpu 和 gpu 共享内存,六四 g 全都能当显存用。四零九零才二十四 g, 同配置价格是 mac 的 三倍。六四 g 跑千问三点五,二十七 b 的 q 八,量化 速度和智力都在最佳状态。这次是给一个电商老哥搭的,他有三十多家店,每天盯竞品爆款,以前全靠人肉翻页,对标账号什么时候上新,什么时候出爆款,全看命。现在这台机器二十四小时自己盯着,自动筛出竞品高销量款,预判爆款前置, 直接深层分析报告中小卖家拿到这个就是降维打击。更狠的是直接打通了他的一二品。你可以随口问哪些订单还没发货,上个月哪个品亏钱了,采购成本、平台佣金、物流费、退货率全拉进来, 不用等财务做报表,问一句就出结果。大促前让模型预判哪些 s k u 会爆单,提前出发采购,不断货,也不压库存, 最核心的所有数据都在你自己的机器上,一个字不出公司。我帮他把整套模型框架搭好,教他建企业私有数据库,后续模型更新我先测好再帮他升级。用 ai 清晰高效的管业务,是每个老板的必修课。

别划走 openclock 复点五,这次更新可不是小修小补,而是朝权能行 agent 猛冲了一大步。是不是觉得做内容要切好几个平台,生成视频,找 ai 配音乐又得换工具?现在 openclock 不 只会说话,还能直接帮你生成视频。更绝的是,它能在对话里直接出配乐,不用再切一堆平台。 还有更猛的 comfyue 的 深度级成,本地和云端工作流都能接进来。图像、视频、音乐统一编排,模型接入也超全。视频侧有 google imagine runway 和阿里 one, 音乐侧接了 google layer 和 mini max。 说白了,你的 agent 现在就是个全能创作者。如果说多媒体能力够炸,那这次最浪漫的升级就是 opencloud 的 梦境记忆系统。它模仿人类睡眠,整理记忆。 第一步,浅睡,收拢每天零碎信息。第二步,深睡,过滤没用的噪音,留下稳定上下稳。第三步,快速动眼期,把信息重新串联,形成连贯的长期记忆。 整理好的内容会单独写进 dream 的 答案,不跟日常笔记混在一起,长期知识和当天流水彻底分开,记忆结构更干净。更妙的是,它还加入了遗忘曲线和半衰期,模拟人类记忆自然淡化的过程。模型供应商也有大升级, 官方原声支持统一签文 fireworks、 ai 和阶月星辰还做了 g p d 杠五前瞻适配,给未来更强模型铺路。 c o d c i i 后台运行也优化了,对开发者更顺手。 amazon bedrock 现在支持 metal 自动发现,不用手动,配置繁琐, token 揭露门槛大幅降低。为了省钱提速,团队在缓存命中率上下了大功夫。一是指纹标准化和提示词去荣誉, 与一相同的请求更容易命中缓存。二是新增缓存诊断工具,跑 open cloud status, veros 就 能直接看到没命中的原因。普通用户最直观的感受就是 control ui 终于支持简繁体中文了。 ios 能通过推送审批任务, matrix 也有原生审批支持,插件也更顺手。新增 force 覆盖安装 kol hub, 还能直接搜索看详情并安装。 如果你是普通用户,界面变中文, agent 还能给你发视频和音乐。如果你是开发者或高级玩家,最值得研究的就是 comfyui 插件和梦境机制。 一句话总结, openclock 四点五不是单点增强,而是整体进化,它正在从会聊天的 agent 变成会创作、会记忆、会协助的全能型 agent。

装好了 opencube 之后呢,百分之九十的人会发现没有什么神奇的,这其实是你没有正确配置这五个文件,因此呢,卡在这里了。到目前为止呢,我高频呢,使用了两个来月吧,发现大家用小龙虾的差距不再,模型也不是说你用 mac mini 或者是怎么样,而是在于 你有没有把这五个文件配置好,你配置的质量到底是怎么样的?哪五个文件呢? agent, m d so, m d user, m d heartbeat, md 以及很重要的 openglue 点接收文件。那这个视频呢,就带你逐一来拆解一下,这五个文件,也会附带多场景文件配置的模板,你呢,可以拿来就用,当然你也可以在我们社区里面 查看一百八十九日前几天刚发布的啊,这个小龙虾蓝皮书,目前呢已经有近万人在学习了。首先一个问题就是说,为什么 配置文件决定了这个小龙虾 agent 的 上限,因为 openclip 呢?它有一个设计哲学叫做一切皆文本,就是所有配置都是纯 lockdown 或者是 jason, 文件用记事本就能打开就能改,不需要其他任何专有的工具。那这意味着什么呢?就是你写配置有多准确,你的 agent 就有多聪明啊。很多人装玩这个 open clue 呢,往往呢就随便填一下这几个文件,然后就开始了,结果呢,就抱怨说这个 open clue 啊,不够聪明,没有网上说的那么好。那其实真正的问题就是你给他的这个 工作说明书太潦草,太随意了,根本没有认真去思考到底要写什么以及怎么写。这个情况呢,就相当于你招了一个九八五毕业生,但入职培训呢,你只是简单的就说一两句,好好干,那他当然不知道 该怎么办。 openclue 的 核心配置文件呢,一共有五个,分布在 openclue 下面的 workspace 这个目录,下面我们逐一来拆解这五个文件呢。第一个文件呢,是 agent 点 m d 这个文件它是什么呢?就是小龙虾的工作说明书。这个文件作用呢,相当于系统提示词 sister prompt, 它的文件化的版本。每一个 section 启动的时候呢, openclue 都会加载这个文件,它定义了 agent 的 身份 职责,回复风格以及行为边界。所以你能看到,就这个配置文件,它的质量决定了助手的实用性。详细的配置能让 ai 在 每次对话中呢,都有充分的上下文,而如果你配置很简陋,则需要你每次都重复说明很多具体的需求。 下面说一下几个这个配置的要素啊。第一个就是核心的身份 agent, 你 的名字叫什么?做什么的。第二个呢,核心职责具体负责哪些工作,你把工作细致描述一下。第三个呢,回复风格怎么样的?你的语气格式啊,回复的是简略还是非常的详细。第四个呢,叫做行为规则,你要写就是 你的这个权限,比如说你如果配置了这个渠道,你要写渠道的 id 或者是名称。第五个工具使用规则,哪些操作?需要确认的哪些操作呢?小龙虾他可以自己去操作,这给到大家一个通用模板,你直接拿去就可以用。 同时呢,也给大家举几个场景的案例啊,比如说你想让 openglue 当一个自由职业者的全能助手,你就可以这样写啊。再比如说,你想让 openglue 呢,当技术团队 leader 的 开发助手,那你可以这样写。 再或者呢,你想让他当一个学生的学习助手,那你应该这样来。配置 面呢,是几个避坑的提示。第一呢,就是不要把你的个人片号啊写在这个 edit 点 m d 里面,那么这个写在哪里呢?写在 user md 里面,下面我会介绍。第二呢,不要把临时任务 进去 agent md, 它是稳定的操作说明书,不是代办清单啊。再一个呢,角色的定义呢,你要具体,比如说你是一个有用的助手,这句话就等于没说,你要说什么。你是一个专注于 python 后端开发的技术顾问,擅长发自 a p i 和数据库,这才有用。所以能具体呢,就尽量要具体化。第二个文件啊, so 点 md, 这个是小龙虾的灵魂现法,它定义了核心的人格,以及不可违背的价值观啊。它有个特点,就是说你创建这个 md 之后呢, 不应该被后续的对话修改,就不可篡改,那这是 opencube 安全体系的基石。即使有人通过题词的注入 试图改变 angel 的 他的这个人格, so 点 m d 里面的规则呢,依然生效。那我根据国内外开源社区的这个实践,总结了有效的 so 点 m d 的 五大支柱啊,第一个,身份认同就是我是谁,服务于谁。第二个呢,沟通风格,主动的还是被动的?第三呢, 领域知识你要加上,比如说做开发的,技术站的偏好,部署的模式,代码风格。第四呢,决策框架,你可以给他指导选择的一些原则,比如说你可以告诉他,安全性永远大于便利性。 第五个,价值观和优先级,你使用 open cool 的 优化的目标是什么?准确性?实用性?还是隐私?这呢,是通用的模板,你可以直接拿去用啊。说几个场景,比如说,你想让 open cool 呢,是一个高安全需求场景的企业管理者啊,你可以这样写, 那如果你想让他成为一个温暖陪伴型的个人生活助手,你可以这样来写。 那再比如,你想让他成为一个严谨专业型的金融分析助手,那你可以这样写, 再讲几个避坑的提示,要用绝对语言,不要模糊表述,比如说绝不泄露就比尽量避免泄露呢要更有效。再有呢,就是按类别分组的规则,比如说安全、财务操作、用户 交互,方便维护。 software 点 m d 创建之后尽量啊,不要频繁的修改,因为它是现章,现章就意味着长期性,你可以每个月审视一次,但是呢,你不要每天去改它,不要把 software 点 m d 呢当任务清单啊,这会导致 agent 行为不稳定。好,接下来呢,第三个文件啊, user 点 m d 这个呢,顾名思义,就是我们使用者的结构化的信息,让 agent 能够提供针对性的个性化服务啊。每次绘画开始的时候呢,我们工作呢,也会加载这个 user d m d 的 内容到上下文窗口里面。当 ai 从第一句话开始就知道你是谁,你做什么,你喜欢什么,你讨厌什么,所 所以呢, ai 它如果有灵魂,但是不知道你是谁,它效果也是不太好的,等于白搭。相当于说 smart 点 m d 呢,定义了 ai 的 性格,那 user 点 m d 呢?定义了你的偏好,两者就缺一不可。配置要素呢,包括以下这么几点啊,第一个就是基本的信息,你包含称呼,还有你所在的这个时区语言这类 内容呢,很少变动的。再来第二个就是偏好和习惯,包括你的作息,沟通风格啊,你希望的格式偏好这些呢,仅需偶尔的调整。还有第三个就是你常用的这个联系人记录重要人物以及联系方式, 可以按需更新。第四个呢,就是你当前的工作重点,你现在正在推进什么项目,以及这些项目的关键截止日期。哎,这个放进去很有用。 ai 呢,它会在你每次跟他对话的时候联想起这些任务, 可以找出一些你可能自己都没想到的当前的对话,跟你现在做的这些任务之间的关系。所以这一点呢,是建议每周更新的。好,这个呢是通用的模板啊,你可以这样来写,具体呢,给几个案例。比如说你是个创业者,那你可以用这个,如果你是远程的自由职业者呢,你可以这样来写, 那如果你是一个研究生,那你可以这样来写。关于这一点,几个避坑点就是 user 点 md 呢,是变化很快的文件,建议每周花五分钟更新当前工作重点。还有呢,写的要具体,越具体 越好,我喜欢简洁的回复呢,就不如回复限制在三句话以内,使用项目符号,不要问是否还有其他需求等等。不要在 user 点 md 里面啊,写 agent 的 行为规则,这个呢是 agent md 和哨点 md 的 事情。第四个文件 heartbeat 点 md, 这个呢,让 agent 能够主动心跳啊,这是很有名的一个功能。 那么这个 md 文件呢,它定义了这个定时任务,那也是小龙虾非常受欢迎的一个原因,就是这个地方,它让小龙虾在没有用户触发的情况下,能够主动地执行操作。这个呢,也是我现在最常用的功能之一,我设置了好多的这个定时功能啊,每天早上这个全球播客这些内容, 我一醒来他就给我弄好了。那 opencube 的 这个文件,它是心跳啊,是一种周期性意识的机制。在主绘画当中呢,按固定间隔出发检查,让 iint 将多个轻量的地形检查合并到 同一轮里面。当然这个心跳呢,跟定时任务啊有一点点区别啊,比如说心跳呢,能共享主绘画的上下文,而定时任务呢,则是独立运行的,成本上呢,心跳一次可检查多项内容,更加的精细。那定时任务呢,则 每个任务独立消耗 token。 适用场景上,心跳适合监控检查、心跳提醒等场景。定时任务呢,则更适合精准的定时报告、固定时间推送等场景。整体原则是这样的,就是需要精准时间点的使用。这个定时任务需要智能监控的呢,使用心跳通用的模板呢,是这样。 那具体使用的场景呢?比如说,如果你需要做创业者的全天候的监控啊,你可以这样来写。如果你需要做自由职业者的客户管理呢,你可以这样来写。 如果你需要做学生的学习节奏管理呢,你可以这样来写。 那心跳任务呢,会持续地消耗 token, 那 这是很多新手会踩坑啊,这里呢,有几条铁律,第一个,日常检查呢,可以用免费的模型,比如说智普的四点七 flash, 这个模型 完全够用了。第二呢,只有需要高质量输出的任务呢,才用 cloud 系列模型,比如说周报生成,深度分析。再有呢,就是要设置活跃的时间窗口,没必要在这个凌晨三点钟,你还在心跳检查。最后一点呢,就是心跳,这个间隔 不要太短了,你不要设成五分钟啊,心跳一次,一般来说呢,一个小时三十分钟比较合理。好。最后一个重要文件,第五个, openclube index, 全局配置的 中台,那这个接收文件啊,它管理呢?模型选择 a p n 密钥预算控制,网关设置,渠道配置等等核心的参数。如果说前面四个文件定义了这个 agent 是 谁,做什么以及用户是谁,那么 open clue 点接收这个文件呢,定义了 用什么样的工具啊,消息你发到哪里就有渠道,以及花多少钱,具有哪些技能等等。这个阶层文件的核心模块包括以下这些,内容,环境变量模块,用于储存 a p i 的 密钥。 get 位网关负责网关端口配置和认证的管理。 agent 点 default 点 model, 这个非常重要,这个模块用于设置默认模型以及模型降级垫,也就是备用的模型。还有呢, agent 点 default, 用于配置每日 token 与费用上线。还有呢, models 点 provider 这个模块呢,用于定义自定义的模型提供商,因为可能有的朋友他是用的是第三方自定义模型。 下面呢是一些不同场景的这个配置的推荐,你们也可以拿去看一下。 好,以上呢就是这五个文件详细的文件解读,如果你是新手呢,第一次配置 openclue 呢,可以按照这个顺序来。第一个就是 配置 openclue, 点 just, 先确保模型能够跑起来,你要点 a p i 配点这个设置预算。第二步呢,是 so, 点 md, 定义 agent 的 人格和底线,这个文件以后尽量不要改。第三步, agent 点 md, 写清楚 agent 的 职责 和回复风格。第四步呢, user md, 告诉 agent 你 是谁,你现在在推进什么任务。第五步就是心跳,点 md, 配置定时任务,比如说先从每日早报开始。第六步就是测试你发几条消息,看看 agent 的 表现是不是符合你的预期。第七步呢,迭代,根据实际使用体验持续优化配置。 大家要有一个概念,配置呢,不是一次性的事情,最好的 openglue 的 配置呢,是在使用中不断的打磨出来的,每周花五分钟更新 user 点 md 的 里面的工作重点,每个月 审视一次 side md 和 agent md, 你 的小龙虾就会越来越懂你,你也会越来越喜欢用它,并真正解锁其强大的能力。希望呢,这些解读和案例呢,对你有启发,让你真正开始用好小龙虾。也欢迎在社区查看我们的一百八十九页的养虾蓝皮书,我们下一期呢,继续。

我真的愿称 cloudco 为最强的 a 准,起因是我之前 cloudco 配的 api 一 直用的都是国内的大模型,但是我想去体验更好的模型,比如说像 angeloop, open ai, 还有追命奶他们家的一些 api。 所以 我当时就了解到有 openroot 这样的一个品牌,它用一个 key 就 可以任意调用市面上最强的模型,比如说上面有提到的 lops 四点六,还有智普的 glm 五点一这些模型,所以我当时就申请了这样的一个 key。 但是后面问题来了,因为我除了使用 clolo 之外,其实我还有用小龙虾,那使用 clolo 其实通过 cc switch 来帮我去配置好这个 api key 的, 那在小龙虾当中是怎么样它一个 key 同时调用多个模型呢? 于是我就把这些问题在 clolo 里面去问他,让他一步步给我解答,我为什么觉得他是最强的 a 准,就是他可以帮你去改本地文件的一些配置。比如说我的小龙虾是搭载腾讯云服务器去进行配置的, 所以他就会一步步地去查看我 opencloud 本地配置的一些文件,然后一步步地去帮我改各种环境的变量,还有配置要出现什么问题,也可以直接丢给他,他会去追踪各种问题,然后自行地去进行一个解决, 最后就看到他成功帮我配置好了 openroot, 下面可以任意调用不同的一些模型,所以我真的觉得他很厉害。 现在大家都在使用小龙虾,或者说最新的爱马仕,但是我觉得 clalco 永远是最稳定、最强的 agent, 各种新的工具会不停的迭代,但是我希望大家一定要学会怎么去使用 clalco, 如果大家感兴趣的话,下期我会出一期详细的教程,教大家怎么去使用上 clalco。

cloud 把免费通道堵死之后,所有人都在问同一的问题,现在用 opencloud, 到底哪个 ai 模型最能打?我测了二十四个,结果有一个黑马连我都没想到。先说背景,之前 cloudmax 无限额度计划被掐断,等于你的 ai 助手的大脑被人摘了。这哥们 mike 直接跑去拉了一张二十四个模型的后补名单。 antropic, 酷狗 x a i 欧拉玛, oppo, rota, 小 米,连你可能都没听过的 kokoito 都上了。然后他用自己的健康 ai 做考场,真刀真枪开测。他是这么说的, so now we're in the wild trying to find the ai model with the best personality let's dive in。 对, 就是在找最有灵魂的 ai model with the best personality let's dive in。 对, 就是在找最有灵魂的 ai model with the best personality let's dive in。 对, 就是在找最有灵魂的 ai model。 同时跑资代理 把所有模型并行跑同一份健康日报,结果存成代号文件,防止打分时有偏见。科学精神,我给满分。先说说那几个订阅方案。欧莱玛很多人以为 只是本地跑模型用的,但他们现在有云端计划,每月二十美元,而且麦克狂用了一整周,消耗还不到百分之十配额。他自己说, and it's actually incredible i found i don't even need the one hundred dollar a month plan yet。 二十刀一个月捶一整周,还剩百分之九十额度,性价比确实大劣。而且模型库里有 g l m 五点一 jimmy 四 nba 内蒙川 随便挑。 open router 也可以玩,但没有无限制套餐,得一直充钱按 token 计费。灵活是灵活,但容易不知不觉花多了好,直接进入残酷评分环节。 d 档只有一个 google 的 占马四,四点五分,评价是太单薄,没建议没观点。 c 档四个一起挂了。 nvidia nimotron i c i 的 grog 四点二零 mr 二点一。 grog 的 评语最新了,听好了。 who the feedback was m dashes everywhere are all violation check boxes for things that are already done corporate motivational poster energy with no opinions。 企业励志海报的气质,没有任何真实观点。这话一出,马斯克应该坐不住了。顺便说一句, grog 调用工具倒是挺便宜,一次突破才一美分,但便宜没好货。这话在 ai 人格上依然成立。 g p t 自家的开源模型,一千两百亿参数版本,你以为会有大长底气?结果 c 党评价是满屏破折号,还编造了一个根本没做过的狐灵训练,捏造内容直接出局。 openai 的 g p t 五点四 beta 倒是进了 b 档七分,但没按系统提示用以谋记,建议也太模糊。 而且更心痛的是, and as you can see just this week i've spent just over fifteen dollars testing my open claw instances so even open ai when it's not unmetered is well fairly costly。 仅仅这周测试就花了十五美元多,而用 club 的 opus 走 api, 一 次健康报告三点二美元,一个月就是三十三美元以上成本直接把你劝退。 jamie 三点一,不管 flash 还是 pro 都卡在六点五分的 b 档, 结构可以,但被评为略显表演性,有点夸张。总结就是感觉像在演,不像在说话。 a 档开始有意思了, mini max m 二点七拿到八分,全程声音强劲。 kimi k 二点五得七点五分,被评为有 windhamf 那 种冲劲,就那种冰水浴大师的能量感。 然后来了个真黑马。小米的 mimo v 二 pro 八分评语式, it's no screen blue light lecture needed you know the drill treats mike like an adult and has punch。 哎,用户当成年人对待,有冲劲。小米出 ai 模型这件事本身就够震惊了,结果还打进 a 档。 mike 自己都说小米不只是空气净化器。 s 档最终决战 colo 的 oppo 四点六和 colo 的 sonata 四点六,双双八点五分干 wait, 数据扎实,还能调用历史数据给你洞察。 sonata 的 评价是框架精准表扬,具体可执行。如果你担心 oppo 费用跑飞换 sonata 基本不会掉分。但 s 档还有一个, here's the feedback, it gave eight point five out of ten the same as the chord models。 质朴的 glm 五点一同样八点五分,跟 cloud 模型并列。 s 档平语式,风格老道,数据扎实,直接教练腔调,非常接近原版健康 ai 的 声音。更关键的是,这个模型你用欧拉玛二十美元月套餐就能跑,不用按投肯烧钱。 所以结论就是, cloud 的 人格天花板目前还没被打破。但 g l m 五点一是目前性价比最炸裂的平替,二十美元包月,三档人格工具调用稳。你现在的欧阔到底在跑哪个模型?评论区告诉我,说不定你的选择才是真答案。

大家好,这里是小凡 ai 研习社,我是小凡,本视频是上个视频 openclaw 最新版 windows 安装教程,超详细的补丁片。上个视频我在 onbody 流程的模型提供商选择环节特意选了千问 ohother 来演示, 主要是因为它免费易用,而且只需要网页授权,不用一开始就跑去别的平台注册和管理。 iprkey 对刚接触 openclaw 的 新手特别友好,我本来的想法是先让大家把重心放在 openclaw 的 安装和首次配置上,模型这块后续放到 reconfigure later 阶段再慢慢讲。但该选项在后续新版本中已被官方移除。 b 站和抖音上有一些同学来问, 没有这个选项的话,其他模型提供商该怎么配置?所以这期我专门再带大家演示一遍其他模型提供商的配置方法,帮大家顺利把 openclaw 跑起来。 如果大家想了解千问 uau 被移除的原因,可以查看这个官方 issue。 简单来说,是千问团队主动与 opencloud 沟通,取消了千问的 uau 认证方式。另外,我也顺便集中解答一下大家在各个平台留言问的比较多的问题。 一个是新版本在 onbody 完成后没有自动弹出 web ui, 另一个是 gte 安装包下载太慢怎么办? 没有亲吻 o o 则的话,我们再拿 mini max 给大家演示,理由是它的控制台页面比较简洁,注册、登录以及管理 ipr k 都相对友好,而且前期的免费额度也足够使用。另外它还是 opencloud 支付 peter 本人在公开场合推荐过的模型, 你也能看到,选项里 mini max 后面还标着 recommend 的 推荐标识,按回车后进入到 mini max 配置详情。我们看到有四个选项,选项一和三括号中标识了 c n, 是 让国内用户用的。选项二和四括号中标识了 global, 是 让海外用户用的。因为国内和海外的语言、登录、验证、支付方式都不一样,所以 mini max 的 主站点和控制台页面也就有两套。 如果你是在国内站点维护 ipr k 的, 那么你要选择选项一和三。如果你是在海外站点维护 ipr k 的, 那么你要选择选项二和四。 大部分同学都在国内,手机号和支付方式也都是国内的,那肯定是在国内控制台去管理 ipr k, 所以 我们就用国内站点来演示,对应到选项里就是选一或者三。那这两个又该怎么选呢?其实就是认证方式不一样。 选项一是 i p r key 方式,需要我们去控制台复制 i p r key 再粘贴过来。选项三是 o o z 方式,会自动弹出 mini max 授权页面,你只要点击同意授权就行,不用手动复制粘贴密钥,跟上节课演示的千问 o o z 是 一样的。 mini max 的 o o 的 方式只针对 token plan 套餐,如果你没买 token plan 套餐,用这个选项只会送你一天。 token plan 基础版试用有效期实在太短了,所以暂时不打算购买套餐的话,就不建议用这种方式。 在安装配置 opencloud 的 新手阶段,我更推荐大家选选项一,它既支持 token plan 套餐的 iprkey, 也支持按量计费的 iprkey。 最重要的是,新用户完成实名认证,会送你有效期为九十天的十五元代金券,可用在按量计费的 iprkey 上。 配置之前我们需要到 mini max 开放平台去生成有效的 ipr key。 在 国内主站右上角登录,这里选择 ipr 开放平台,也可以直接通过我提供的直达链接 进入到 mini max 开放平台的登录页面。来到开放平台登录页之后,选择手机验证码登录新号会自动注册。注册登录后点击这里进行实名认证,在弹出框里选择合适的认证方式。我这里选的是个人实名认证下的设备。扫脸认证, 第一步,输入姓名和身份证号码。第二步,用支付宝扫码之后在支付宝上进行人脸识别。实名认证成功后,在系统通知里会收到十五元代金券已到账的提醒。来到余额页面就能看到可用额度为十五元代金券已经成功到账。 我这边因为已经使用过一部分,所以显示的额度会少一些,建议你设置一个余额预警,防止超支了。接下来我们来到接口密钥这个页面,维护我们的 i p r k。 这里默认会有一个创建好的名称为体验中心的 i p r k, 我 们可以直接使用这个默认创建的, 但是我更建议重新再创建一个,因为这个默认创建的 ipr k 是 无法删除的,万一不小心泄露了,你也没法作废,会有安全风险。点击创建新的 ipr k 这个按钮,在弹出的输入框中输入密钥名称,再点创建密钥进行提交, 提交之后,列表中就会多出一条 i p r k。 我 们输入的秘钥名称只是用来做备注标识的,真正的 i p r k 是 一长串由平台自动生成的字母,后面我们需要用到的时候,直接点击复制,把这串 i p r k 粘贴过去就行。 我们回到终端,带大家完整配置一遍。模型供应商这里选择 mini max, 回车之后选择第一项回车。接下来会提示我们输入 ipr k, 我 们再回到 mini max 开放平台,把刚刚创建的 ipr k 复制一下, 在终端这里鼠标右键即可粘贴进来,粘贴时注意一下,复制完成回到终端后,直接鼠标右键就能粘贴。过程中不要再用鼠标左键点击终端的黑屏区域,不然粘贴内容会被覆盖掉。 如果真出现这种情况,重新回去复制一遍再回来粘贴就可以了。粘贴好后,回车后续的步骤就和我们之前配置千问 o o z 一 致了,这里同样让我们选择一个默认模型,我们就保持默认的第一个选项 keep current。 回车之后模型配置就结束了,后边的流程就和上个视频基本一致了,比如接下来就是配置聊天渠道了。 最后再简单跟大家说一下免费额度用完该怎么处理。十五元的免费额度用完后,以咱们目前的配置,你可以直接充值,充值有额度就能继续使用了。但日后你要长期用 opencloud 的 话,我不建议大家直接充值, 因为它是按 talking 使用量计费的,而 openclaw 本身非常好, talking 按量计费很不划算,更推荐大家选择固定包月的计费方式。在 mini max 里叫 talking plane, 在 阿里云、百念百度、千帆、火山方舟这类平台一般叫 coding plane, 这类套餐性价比更高,也更适合长期使用。如果大家购买了 talking plan 的 话,模型需要重新配置一下,因为咱们这里带大家配置的 iprkey 是 按量计费的, talking plan 的 iprkey 是 另外一套,二者不够用。购买了 talking plan 之后,在接口密钥会多出一组 talking plan key, 你 得换成这组 iprkey 才会走。 talking plan 模式 最直接的体现是按量计费的, ipr k 是 以 sk 杠 ipr 杠开头,而 talking plan 的 ipr k 是 以 sk 杠 cp 杠开头。虽然目前还没教大家怎么配置 talking plan, 但凭借咱们这两期视频学到的内容,大家完全有能力用 mini max 的 talking plan key 来配置大模型。另外, mini max 对 于 talking plan 的 配置还支持 o o 的 认证方式,也就是前边带大家介绍过的选项三 视频这里也不过多介绍了,大家有兴趣可以尝试一下。支持储备完全是够的。 没有自动弹出外部纠 i, 这也是很多同学问我的一个问题,我测试了二零二六点三点三一和二零二六点四点一这两个版本,发现 onboarding 完成后,确实是既不会自动弹出外部纠 i, 也不会让你选择使用 t u i 还是外部纠 i 打开。 目前还不确定是后续版本都不再自动弹出,还是只是近期这几个版本临时调整。不过没关系,不管是哪种情况,只要发现没有自动弹出界面,直接用上节课最后讲到的命令手动打开就可以了。 一个命令是用来打开外部 ui 的, 一个命令是用来打开 tui 的。 带大家演示一下我当前的状态就是 on body 刚完成,外部 ui 没有自动弹出,这时候我执行一下 opencloud dashboard, 就 自动在浏览器打开外部 ui 了。 web ui 打开后可以和它简单对话,测试一下是否正常。之后我们再回到终端执行命令, open curl tui 就 打开终端界面了,我们同样可以和它简单对话,测试一下是否正常。 也有不少同学反馈 git 安装包下载太慢,这是因为官方的下载源是 github, 国内访问 github 不 太稳定。大家可以到腾讯软件中心下载,打开后直接在首页搜索 git, 选择对应自己操作系统位数的版本就行。 现在大多应该都是六十四位操作系统了,比如你要下载六十四位的 git, 就 点击这里的立即下载,点击后会弹出这个窗口,选择下方的直接下载,这个立即下载不要点,不然会给你下载腾讯电脑管家 课程文档,可以在同名微信公众号,小凡 ai 延习社回复关键词养虾直接领取。提醒一下,是在微信公众号里回复,不是微信视频号,我是在公众号设置了关键词自动回复。养虾这两个字也千万别打错啦!