关于 openclaw, 这段时间我用下来有很多的体验和感受,非常的细节,这里边有很多采看的地方,也有觉得这个产品很棒的地方,所以今天我会花比较长的时间跟你仔细的去讲一讲我一些相对来说比较突出的感受。 首先就是 mac mini, 到底 mac mini 是 不是一个必备的选项?先说结论,如果你是一个纯纯的代班小白,而且对于自己的电脑操作能力没有那么的自信,又希望整个使用能够足够的稳定省心,并且把 oppo color 的 能力尽量发挥出来。那我最推荐的方案就是买一台 mac mini, 而且用 api 的 方式去跑 openclaw, 当然还有很多其他选择,从我目前的整个体验来看,也只有这套方法是最省心,最稳定,也最有效率的。那我一开始的设想其实还比较复杂,本地模型加上 api 的 三层结构, 比如用一台能跑本地模型的 mac mini, 同时配合 api 去完成我的一些日常任务。那当时我 web coding 开发了一个模型路由 skill, 相当于用一个模型调度员,按照任务的性质把模型的调度分成了三层。第一层就是使用 open cloud 开发者也最推荐的 cloud opus, 四点六,那效果最好,质量最稳,美中不足就是价格偏贵。 第二层就是国内的一线模型,比如说像 m 二点一啊, kimi 二点五啊等等。这第三层就是本地模型,当时我的选择是前文三三十二 b 的 q 四量化版本。 那真正跑起来之后,我发现其实坑还是挺多的,而且都是那种很小但是很让人挠头的问题。比如一开始做调研的时候,我跟 ai 聊了很多轮,最后得出了一个结论是,我只需要去购买一台 m 四 pro, 六十四 g 内存的 mac mini, 就 能够把千分三三十二 v 跑通。 当时我还算了一笔账,如果我每天大概消耗一百万的 token, 按照这个成本和产出来看的话,可能七到八个月我购买硬件的成本就能回本了。但是实际跑下来发现,最理想的速度在终端当中是十一个 token 每秒,导致回复还是偏慢的。 如果只是在终端里跑,那速度还算能接受,但一旦接上了 openclock, 这里边有各种 skill 规则、历史记录等等,速度就会明显变慢, 平均下来一个回复的响应时长经常要去到一分半甚至两分半。所以这个速度的体验用我的话来说就是真的非常的拉垮。 所以我后面还排查了一轮,想要搞清楚到底问题出在哪。结果发现其实真正的瓶颈不只是内存,而是在于内存待宽。比如一台 mac mini m 四 pro, 它的内存待宽是两百多 g 每秒, 如果我希望 token 输出的速度更高,比如要跑到二十 token 以上,就得上到 max studio, 但是这样一套下来,成本就往两万块走了。 所以你再去对比一下入门的版本,如果还能通过别的方式拿到更优惠的价格,这个使用 opencloud 的 成本就是四五倍甚至更多的差价。所以与其花一万五六千块钱去升级硬件,还是把这部分钱用在 token 上, 那我更倾向于后者。而且对于我个人而言,使用第三方模型也并没有特别强的隐私焦虑,所以我更能接受纯 api 的 方案。那么问题来了,既然本地模型这么吃硬件,为什么不直接上 vps 或者其他云部署方案呢? 我自己也对比过整个不同方案之间的一个区别,我觉得目前 mac mini 方案最值得推荐的原因有三点,第一点就是它还是能够用到很多 macos 本地系统的能力的,很多东西你再去调用 opencloud 的 时候需要的一些能力, macos 本身就很顺手,而且直接用了系统级的功能去做事。 第二点就是你基本上不需要做太多的额外的配置,就能够第一时间去上手 opencloud, 那 整体使用的路径更短,不容易在环境依赖权限上反复折腾。第三点就是它可以低功耗的二十四小时稳定运行, 那如果你本来就有一台 mac mini, 或者说能够以更加便宜的价格拿到,那整个这个成本和使用体验就会更好。接下来我想讲一讲一些具体的使用细节。 opencloud 跟我们平时使用的正常的 ai 聊天软件到底有什么不一样?首先第一点就是 界面体验,你会发现它的整个界面非常的朴素,甚至是有点原始。如果你用 webchat, 也就是本地网页去聊天,你会明显感觉到它不像 chat gpt、 cloud gemini 或者是豆包那样的简洁清晰。 核心的原因是它会把很多后台规则以及本地执行的命令信息直接展示在前端,所以整体看起来会更加的工程化,不那么小白,用户友好。 第二点就是整个思考的展示方式,大家现在主流用的模型,像我们上面提到的那些产品,通常会把它的思考过程展示给你看。但是在 openclaw 里,它通常只会显示一个 thinking 的 气泡,不像其他模型那样让你看到整个过程,而且它的速度也算不上多快。 当然,这个取决于你具体使用的模型,尤其是当你使用了飞书跟他的沟通后,你会发现他可能会在 thinking 这个状态上停留很久,页面没有任何文字的流逝输出,也就是说你看不出来他到底在做什么,进行到哪一步了。第三点就是文件和截图这类的能力相对来说偏弱。 比如你希望他自动发截图给你,其实需要提前去做一些固定的设计,或者是预埋留一些习惯让他知道你的偏好。否则在默认情况下,他更倾向于把文档和图片保存在本地,然后你得自己去打开对应的 md 文档或者是图片进行查看。 综合上面所有的尝试和对比,我最终的选择是用了一台配置更加入门的 mac 模型,而不是原来的本地模型加上 api 的 组合。 再往下一个更加现实的问题是, open club 到底适不适合普通人去使用呢?那我的结论是,他更适合那些有探索精神,也能接受相当程度风险的人, 因为他出风险的概率实在是不小。你会在网上看到各种成功的案例,但是很少会有人把自己遇到的风险和翻车的经历一五一十的讲出来。而且这种风险不止存在于 open club 这种独立开发者开发的开源项目, 就连前一段时间 cloud 推出的 cowalk 也有类似的系统级风险。我印象最深刻的是看到的一个帖子,有人用 cowalk 的 时候,直接把电脑里一百多 g 的 文件全删了,而且找不回来。 所以如果你不希望发生这类的事情,最稳妥的方案就是做真正的物理隔离,用一台专门的 mac 或者是主机单独去跑 opencloud。 而且在真正决定使用这个产品之前,还要做一个二选一的决定,要么你给他系统提供权限,让他可以调度整个电脑操作系统的很多底层能力,要么你就干脆不要用它, 因为一旦你限制了他的权限,不让他做事,你拿到的就是一个很基础很受限制的积累,整件事情就真的没有必要浪费时间了。那么 open cloud 的 价值到底在哪呢?我觉得本质上他是 ai 圈里的先行者,是那种用来探索上线的产品, 他的很多技术能力在行业的从业者来看,其实并不算前沿,甚至可能在一年前两年前,其中大部分的技术能力就已经有人做出来了。 但是这个开发者真正厉害的地方在于两点,第一是他把这些能力整合成了一个完整的产品,可以让你在一个地方跑起来。第二就是在很多细节体验上做了大量的调教,最终把功能上限和实际体验做到了一个相对极致的平衡。 不过如果你是完全的小白,没有任何代码基础,也没有很多 ai 使用的经验,那我的建议是先等等。因为现在很多国产替代已经在路上,而且很多产品已经很好用,也更适合普通人直接上手。 那最后说说我自己的后续,对于我个人来说,我还是会继续去探索 open 这种玩法,因为如果把它当做一个探索自主化智能体的项目,它确实非常有意思, 而且我觉得它有很大的利用空间,能够帮助我去做咨询、抓取内容选题和生产,甚至半自动化的工作流,去迭代我目前正在使用的这套 ai 内容生产工作流。那最终我的目标是获得一个有眼力见,懂我的需求的合格的数字员工。所以后面 我还有很多的东西会分享出来,包括很多具体的 open class 的 使用方法。不止会包含 ai 自媒体方面呢,也会有很多适合普通上班族的用法。所以如果你感兴趣,欢迎关注我,这里是实业,正在与你分享 ai 一 人公司的成长过程,我们下期再见。
粉丝640获赞3737

终极进化现在开始, 今天给大家讲一下如何在这个手机上搭建 open color, 我 看大家对这个热情也挺高涨的,对吧?就家里面的旧手机啊,旧平板啊, 当然是安卓的哈,放着也是放着,既然现在这个 oppo 可乐这么火,那就都利用起来,搭建一个在线的手机版 oppo pro, oppo pro 不好意思,嘴瓢了。 其实呢,单单独花钱买个 mac mini, 就是 阿里云,腾讯云提供的那个, 呃, open call 那 个没意义,白花钱嘛。既然能把家里面的旧东西用起来,那不最好嘛。第一个就是我们需要准备哪些东西,就一台旧手机,然后需要安装一个 tmx tmx api, 还有一个五斑图,这个是在 tmx 里面装的 这个 tmx api 呢?他是干嘛呢?他就是让你能够通过饿本可乐可以代理访问咱们手机里面的拍照啊,获取位置啊,打电话这样的权限, 发短信发不了,这个我试过了,完全发不了。然后下面就是怎么安装吧, tmx 是 在 github 上面安装的,地址在这这边打开来就是就是他的一个 安装液,我们一般下载的就是这个 a r a r m 版的处理器的,如果实在不知道自己是什么什么什么版本的,就选这个 universal 它,它是自动匹配的,你看包很大,那我们先开始吧。 pos app 这就已经装好了,在这了,装完过后要给他一个权限 应用, 就是后台弹出界面,显示悬浮窗,还有一个是电量选择无限值,它其实耗电很少的,挂了一天都耗不了多少电。 这就是进来了,然后看这边,到了这边更新系统并安装核心主键,这边需要复制, 这边稍等一会, 到这卡住了,需要按一下 y 还是 y 回车, y 回车 这个就安装好了,然后根据教程这边变成这个命令, 当然如果你不想体验软硬件连接的话,可以不下载这个 tmax 杠 api 这边也装好了, 主要是通过这个 port disk 来安装无绑图,所以在这边我们需要运行一下这条命令, 这边等他安装一下无绑图系统,稍微等一会,看到这条红色命令不用管, 但只是这条红色命令,其他的都要去看一下什么问题。好了,到这边他就写了 log in with proto destruct logging 帮主,所以咱们输入这条命令 好了,到这边就开了,咱们就已经进来了,第一开始它是这样的一个符号,小波浪号加一个美元的符号,进来过后是这样, root at local host 毛号。这个 到这边呢,我们就继续往下走,进来过后需要就是更新无绑图的软件园, 这边要更新一会, 好了,安装完成了,更新完成了,下面我们就安装这一行代码 回车, 因为在无朋图系统中呢,它是直接运行这个 a b t install node js 的 话,就是安装是比较旧的版本, 就是我们的这个 open color, 它运行必须得是在我没记错的话是在二十四以上,所以这边要改一下,使用这条命令去更新 node node js 的 语言,所以我们复制粘贴 就好了,然后运行这条命令, 然后验证是否安装是否成功。 note 杠 v pm 杠 v, 一定要是二十四百万以上。 紧接的小技巧,这边是什么呢?就是每次打开这个雾棒图,你看都要输入这个 perrot disk locker 雾棒图就太麻烦了,所以我们要设置一个指令,就以和输入 u 就 能进入雾棒图,我们先返回上一层的 tmux 这个界面, 就按输入这个 exit, 然后输入这个命令复制粘贴回车,然后我们输入 u 看看, 对吧,就直接进来了。现在需要安装这个 opencloud 小 龙虾,这条命令如果大家在电脑上装过的话,应该都熟悉,复制粘贴 这边要等一会了。 ok, 安装完成,安装完成过后,不要就是像之前一样运行这个 opencloud onboard, 因为配置过后呢,他会就是语音,这个过后配置的时候配到最后会报错,就是因为安卓十以后就是禁止普通应用读取这个网络接口信息,所以他会启动报错, 这时候呢我们就需要一个假的接口来骗过他,就是创建一个补丁的文件,就在这咱们复制粘贴回车。 回车过后呢,这边就有了一个编辑的界面,编辑界面呢就是把这块完整的复制给他, 然后点 ctrl 加 o 回车, ctrl 加 x 退出,这一定要记住这个动作,这就是在六六 x 里面通过 nano 来编辑文本的一个保存并且退出的方法。 刚刚这个写完过后,我们还把脚本放到这个环境变量里面来,同样的复制粘贴回车,这就已经写进来了,其实可以看一下, 就是最后一条,就在这就这个下面就可以启动我们的欧文 club 了。 好了,我们进来了,这是跟之前的配置就一样了, 我填一下 api key, 大家别傻乎乎的来点我这个 key 哈, 这马上录完视频我就把它删掉,然后就是这块大家自己应该都知道怎么去配置了,对吧?我们暂时先挑过吧。 skill 点 npm 这块我建议就先装一个,这个 他是帮我们找找一些,你看 search install update and publish agent skills 他 有很多,这里面就有很多 skills 在 里面的。然后回车 这个没有没有没有没有没有没有没有,正常到这里就已经就是如果不运行刚刚咱们这个脚本的话,到这边就已经开始报错了, 还是选择 yes 好, 到这基本上就卡住了,就不会再动了,而且咱们程序也没运行起来,所以这边点 ctrl 加 c, 然后他就会返回到这个界面,然后咱们运行这一局, 是不是熟悉的界面就跑起来了,对吧?这边就基本上就没问题了。剩下的就是刚刚咱们那个还没有配置吗? 手机联系的那个,那个方式还没配置,就通过什么 telegram 啊,还是什么 whatsapp 啊, discord 啊,然后还有什么飞书啊,那个自己想怎么配置怎么配置吧。然后访问其实在手机上也是可以访问到的, 就是到这个时候咱们可能也并不需要去使用那个什么什么什么软件,我来复制一下, 这边出来要改一下格式,这边格式不对, 你看不是照样也是进来了吗?对话也一样可以啊, 是吧? 然后这个就安装完成了,就是但是调用摄像头,呃,或者说打电话那个下次咱们再说吧,今天先讲这么多, 对了,最后还有几个小事跟大家说一说吧,也是这次评论区几个小伙伴也问的比较多的。第一个是用什么模型? 在国内其实用 g o m, mini max 它们的这个 coating plan 一定要用这个,量大管饱一个月,我这边大概跑了四点五个亿的头坑吧, 对吧?而且春节也听说 g l m 五和有还有 mini max 二点二也准备要上市了,到时候再看看能力吧。 但中间呢就是有没有白嫖的模型,有的就是 gethub 这个 copilot 免费体验 pro 版一个月。这个体验呢,里面就是有可闹的四点六啊, gpt 五点二啊, gmb 的 三 pro 这样的,就是 国外比较先进一点的模型,而且还不知道是不是个 bug。 就是 我记得我当年那个好像是一月二十号买的吧,免费体验一个,体验一个月,但按理说我们这个做体验一个月肯定是一月二十号到二月二十号,他中间是一个 持续的用量,但是他就是他好像在二月一号的时候重置了使用量,就是说我一月二十号买的,到一月底我用完了,然后到二月一号的时候呢,我又能用了,所以就是相当于可以白嫖两个月。 关于手机的问题,只要能跑安卓系统都行,但是安卓系统必须得在安卓十一以上。安装的时候遇遇到问题怎么办呢?遇到问题复制一下粘贴文档 ai 就 可以了,基本上为 ai 都能解决。然后就是 tmux 这个耗电量大不大? 基本上排在最后,没什么好点亮用途呢。那都用摄像头啊,打电话就已经很有搞头了,很多时候就充当家里面的一个摄像头。当然既然是无伴读系统了,他还可以装欧鹏扣的 cloud code 之类的,就是变成 c l i, 同时呢, open cloud 里面还有一个 skill 叫 coding agent, 它就是专门调用这个,调用这几个 c l i 的。 看一下, 就这个它也可以是调用调用 open code 的, 而且咱们的确是真的可以装 open code 的。 你看 new session 输入 u 进入无网堵系统, npl 刚 g code 刚 ai and latest 输入这行命令就可以安装了。行了,今天就这样,谢谢大家。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

hello, 大家好,这又是一期 opencloud 的 小白安装教程,为什么说又呢?是因为距离我啊上一次发布的 cloud boot 安装教小白安装教程过去仅仅不到两周, opencloud 就 历经了两次改名,由于它的屡次改名,实际上完全影响了它整个安装流程。 第二个就是说当我的视频发布之后,有很多用户在后台私信我,就是他们在安装过程中啊,遇到了很多奇奇怪的问题,所以经过我的汇总和分析呢,我决定再录一期就是 opencloud 的 小白安装教程,这一期的这个教程会更容易理解,然后 啊,操作起来会更简单。那么废话不多说,我们直接开始。首先呢,要完成 opencloud 的 正常安装,你需要确定一件事,就是你的网络联通性,你的网络联通性直接关系到了你的这个 opencloud 是 否能够安装成功,所以你需要确定这三个网站 是可以正常好用的。第一个就是 opencloud 的 ai, 也就是它的官网。那么第二个呢,就是 gitlab, gitlab 实际上是我们程序员托管代码的一个网站,但是由于 opencloud 的 很多插件和它代码是托管在 gitlab 上的, 所以说如果说你不能正常地访问 gitlab, 那 你极大概率也是没办法正常完完成正常安装的。那么第三点就是这个 brave search api, 那 么这个网站实际上是呃辅助 opencloud 进行网络搜索的一个工具,那么你必须要能够访问 bravesearch api, 并且成功地申请到它的一个 key, 你才能让你的 iphone 壳正常的进行网络搜索。 ok, 那 如果说你经过上面的验证,发现你都是没问题的话,那我们接下来进行正式的安装过程。首先呢在它的官网你可以找到这样的一个命令,然后大家只需要点击这里复制就可以了,然后你在你的 mac mini 上,然后点击这个右上角这个搜索按钮,然后点击一下之后呢 输入中文的终端或者 tome 的 都可以,都是都都是可以找到这个这个程序的,然后只要找到这个 icon 就 很好了。然后点击双击之后呢,这个时候你要在粘贴刚才你复制的命令之前,先输入速度这个命令,然后点击空格,然后粘贴, 这时候大家只需要点击回车就可以了,点击回车之后,大家会发现它会提示你输入 password, 也就是你的密码,这时候啊由于 terminal 的 一些比较特殊性,就是你在输入密码的时候, 这部分是没有任何显示的,所以大家只需要在你的通过你的键盘把你的这个密码正确的输入进去,然后点击回车就可以了,你不用理会这个界面上是否出现了你输入的内容,因为输入密码它就是不显示的。 ok, 那 我们输入密码, 然后点击回车,然后它就会开始一个正常的安装过程。 ok, 那 么如果说你的安装流程没有出现任何问题,你的网络联通 也是畅通的话,那么你就会接下来会进入这个页面,这个页面就是说白了就是你会选择一堆的东配置,然后来正确的设置好你的 opencll, 那 么接下来第一个问题就是他会问你是否了解安装 opencll 的 一些风险啊,这里我们选择 yes, 然后如果说你选择的 yes 的 话,它 yes 左边会出现一个绿色的 小点,然后点击回车,然后我们这里选择 quick start, 这里会让你选择模型,由于千万目前是免费的,所以我们选千万就好了啊。把通过箭头然后 移动到千万这里,之后点击回车,然后这时候它会问你是否进行认证,然后这里继续点回车,如果不出意外的话,它会弹出千万的这个网站,那如果说 你的这个网络没有问题的话,你就会见到这个页面,当然因为我这个网站已经登录过了,所以如果说是你的话,大概就可能会弹出一个登录的界面,大家只需要正常登录就可以了,这时候点击确认,点击确认之后呢,我们再回到我们的 control, 然后大家会发现进入了下一步叫 keep current, 然后这里选择 keep current 就 行了,就也是第一项就是这一部分,选 keep current, 然后接下来啊会让你配置你愿意用什么样的通信工具来控制你的你的 mac mini, 这里我们选择飞书啊。如果说有看过我上一期视频的话, 大家会知道在上一期视频的时候,其实当时的 cloud boot 还不支持飞书,那现在已经支持飞书了,然后我们这里选择飞书,然后我们这里选择 download from npm, 也就是第一个, 然后这里他会问你是否配置你的 skill, 这里我们先选择 no, 因为啊 skill 这个东西你可以随时的去去配置,然后这里选择 no, 然后因为这个实际上我们我这个机子已经安装过一次了嘛,所以这里会可能这里出现的选项和你不一样,但是大家记住,你只要选择 restart 或者 install 就 可以了, 然后这时候他会帮你安装 git suite, git suite 说白了就是呃这个一个后台服务,这时候呃大家切记要选择 install 好 吧, 然后选择 install, 之后呢,选择第二个 open the web ui, 然后如果你选择了之后,你就会发现他帮你打开了一个 open curl 的 控制页面,那么 ok, 到这里你的整个的 open curl 就 安装完成了。如果不出意外的话,你这里去问他任何问题, 或者说你给他打个招呼,他是会有信息发送出来的。如果说你到这里,然后你去给他发送信息,他没有回复你,那就说明可能是你在配置千问的那一步出错了, 那么你可能就需要,那你需要怎么做呢?你需要输入这个指令, 输入这个指令,你当你输入这个指令,然后点击回车之后, 它又会把刚才的流程再进行一遍,然后你需要按照我的步骤严格的详细的重新执行一遍就可以了。 ok, 我 先假定你已经进入到了这个页面,并且你去给他发信息的时候,他能够正确的回复了, 那么接下来就到了我们配置飞书的时候了。也就是说因为很简单,你在 mac mini 上安装了 opencloud, 你 最终目的不是说你人去手动地去操纵 这个 mac mini, 对 吧?你希望是通过飞书或者说其他聊天软件来控制这台电脑帮你远程的做事情,所以接下来配置飞书的这一步非常关键,那么我们看一下怎么配置呢?大家只需要这样子,输入 open cloud, 然后输入 config, 然后点击回车, 然后选择第一个 local, 然后选择这个 channels, 然后点击回车,然后点击第一个 config and link, 然后点击回车,然后找到我们的飞书,然后点击回车, 它告诉我们这个时候你看出现了一个错误,你发现没有? plug in install field, plug in already, 它就说这个,这个东西你已经安装了呀,但实际上, 但实际上我们其实是要配置的呀,我们先先这样试试,我们先 r m 杠 r f, 然后我们把这个复制进去, 我们这样的话就把插件删掉了,然后我们再来一遍,看看行不行。 输入 open claw, 然后 config, 然后 local, 然后选 channels, 然后选 config 的 link, 然后选飞书。 ok, 没问题了,看见没有?当你按照我刚才的指令把那个插件删掉之后呢, 它就可以正常的进入到下一个环节了。就它会问你,你是用中国的飞书还是海外的飞书?因为海外的飞书叫 luck, 所以 大家目前都是用国内的,所以这里要选择飞书,然后 china, 然后这时候点击回车, 然后这个时候它会问你要飞书的 app id, 那 么这个玩意从哪来呢? ok, 接下来跟着我一步一步的,咱们去找到飞书的机器人,去给它制作一下 啊。那么先简单的插播一个小小的广告,因为实际上我们在前一段时间发现了很多用户对 open klo 的 使用方法,包括安装流程都有一些问题,所以我们把这些问题啊,还有包括一些教程啊,都进行了汇总 啊,我们还准备了,还开发了类似于啊命令速查表这种工具,还有开发了一个提问社区,那么大家只需要在苹果商店搜索 open klo, 然后百科, 然后就可以下载这个 app, 这 app 上面我们也会进行积极的回答各种各样的问题,然后包括很有用的一些教程和速查表啊,感兴趣的朋友也可以去下载一下。 那么我们通进入飞书的这个官方网站,大家可以看一下啊这个官方网站,然后进入这个网站,并且登录之后呢,你会看到一个企业自建应用的东西,然后这是我因为我其实之前已经创建了两个嘛,所以其实大家可以 如果说你一个都没有创建的话,这个页面可能稍稍有些有一些区别啊,大家只需要点击创建企业自建应用这个按钮,然后它就会让你输入一个名称,这个名称其实啊大家可以随便说啊,比如说我就叫 open cloud, 然后测试, 然后描述就有 open cloud 测试一下啊,这个随便输就好了,你只需要自己能记住就行了,然后给它选一个颜色,然后这时我们点击创建, 点击创建之后你就进入了它的这个啊详情页面,这时候大家要切记要点击添加机器人这个按钮啊,点击添加, ok, 那 么这个时候我们再点击凭证与基础信息,大家会看到这会有一个 app id, 这个就是我们需要的东西,这时候我们点击复制,然后我们回到我们的 terminal, 然后这时候我们点击 粘贴,然后点回车,然后这时候会有一个叫做非输 a、 b、 c 的 东西,然后这时候这个东西在这儿,然后我们点击这个按钮,然后我们这时候啊继续粘贴进来, 然后我们这时候点回车, ok, 就 完事了,那接下来怎么做呢?接下来我们点 finished, 然后选第一个 parent, 然后这时候点 continue, ok, 这个在 open cloud 这一端飞书,我们的飞书就配置结束了,这时候但是整个这个飞书的步骤配置过程还没有结束,那我们再回来到这个网页,那我们接下来要干什么呢?我们接下来啊先要给它 添加一些对应的权限,那么这些权限在哪找呢?很简单,这时候权限我们在这里找,我们只需要输 get up open curl, 然后非输, 一般来说第一个就是第一个,这个 get up 的 仓库就是我们要找的,那么我们想要这个仓库干什么呢?我们实际上 这里大家可以点击中文啊,中文的话就可以看到了,这时候我们实际上不需要,不再需要安装这个插件了。 看过我上一期视频的朋友们应该知道,这个在早先 clubbot 不 支持飞书的时候,实际上我们是要安装插件的,那么现在我们已经不需要再安装它了,因为 open club 已经内置了飞书这个啊交流工具,我们实际上只需要这个列表而已,就是我们需要一些列表, 这些列表就是我们需要开通的权限,我们怎么做呢?我们只需要把这段话复制一下, 复制,然后我们再回来我们的网站,然后点击开通权限,这时候点击粘贴,然后大家也可以看到,在这里就可以找到这一条,然后点击这里点上小对勾,然后我们点击确认开通权限, 然后我们就按照刚才的流程,把这些权限全部给它添加进去, 咱们一个一个来,然后复制,然后开通权限,然后把它粘贴进去,然后给它打上小勾,再开通,然后还有两个,我们把这个也加一下, ok, 还有最后一个,然后把这个加上,然后点击开通权限, 好了,我们开通权限的部分就搞定了。接下来我们还需要点击事件与回调,那在这里呢,我们会点击这个按钮,然后这时候会默认选择使用长连接接受事件,这个是没问题,然后我们点击保存, 然后这个时候呢他会有可能极大概率会显示应用未建立长连接,包括后台。也有很多人来告诉我,他们遇到了这个问题。不要紧,我们怎么解决这个问题呢?因为实际上我们刚才已经在 我们的这个 terminal 里配置好了飞出的这个 app id 和 app secret, 对 吧?但是我们实际上忽略了一步,我们需要给它重启一下 open close, 然后 get v, 然后 restart, 然后大家记住这个命令,啊啊,然后点击回车, 然后经过它重启之后呢,我们这时候再点击保存 搞定,然后我们就可以保存,按照这个长连接的方式来进行保存,然后这这个页面,特别是这个事件配置啊,我们还需要添加一个事件,我们添加什么事件呢?我们再回到这个 github 的 页面, 然后我们一直往下拉,然后这时候呢我们需要把这个这条选中,你看在事件订阅的这一部分里面,然后选中这个, 大家到时候自己安装的时候可以把这一块暂停,然后把这个复制,之后呢我们再回到这个网站,然后点击添加事件,然后粘贴进去,然后我们把这个选中就好了啊,确定, 然后这个时候我们再点击回调配置,然后我们这里也是同样的道理,然后点击保存, 然后到这里飞书我们基本配置就完成了。然后这时候我们要怎么做呢?我们要点击创建版本,因为你只是创建,你还没有发布,你没有发布的话,你在你的飞书你就搜不到这个机器人。然后我们可以设置一个版本号, 首次添加这里可以随便写,但是版本号大家要按照我的这个格式写才可以啊。然后点击保存,然后确认发布, ok, 我 们的飞书就配置完成了。那接下来我们要测试一下我们的飞书到底能不能正常的来去工作。 那么我们打开我们的飞书,然后大概率你会收到这样的一条信息,就是应用审批通过,已发布成功, 然后你可以看到你的应用 open call 测试已通过管理员审批并发布成功,这时候只需要点击打开应用, ok, 如果说你没有收到这条信息,没毛病,我们可以在搜索里直接搜 open call, 你 大概率也会找到这个机身,然后你只需要点进去,然后因为我刚才其实已经跟他沟通过了嘛,这时候你需要进行第一步,你给他发任何一条信息,比如说你发个你好, 然后他会给你回复这样的一条信息,这条信息的意思就是说你虽然已经配好了肥叔的 open app id, 但是你还缺一部,那缺哪一部呢?他甚至会给你把这条命令直接发出来,你只需要复制最后的这句话, 然后复制一下,然后到我们的 terminal 里,然后点击 command v 或者粘贴,然后点击回车, 这个时候呢,你的这个飞书啊,因为刚才出了点小叉子,对吧? 所以其实这里他会提醒你,你的这个飞书已经配置成功了,那么按照我的这个步骤执行完之后,你就可以和他进行正常的聊天了,你这时候再去给他发一些你好呀,或者你想让他干什么事,然后他就可以搞了。所以 那咱们其实接下来还剩最后一步就是我其实你可以看到我,让他帮我去 ready 上看一下最火的 iphone app 是 什么,然后呢,他会回复你,就是说我现在啊需要配置一下网络搜索功能, ok, 那 怎么去配置呢?就是我刚才讲的就是你需要进入到这个网站, 就是我们的 brave 网站, 然后呢,你需要去做一个登录, 然后这时候你会找到这个叫做 apikey 的 东西,然后你把它复制一下,你把它复制一下。复制完了之后,你怎么去配置它呢?很简单,我们只需要这样配置就行。 open call, 然后 config, 然后这个时候呢,选 local, 然后选 web tools, 然后选 yes, 然后这个时候大家只需要把这个 brave k 给它粘贴进去就好了,然后选 yes, 然后就完事了,就这么简单。 那么接下来呢,然后其实我就会问一下 c 叔,就是你可以帮我搜索了吗? 它会让啊,其实还是要还是要重启一下的啊,我们再重启一下,然后 restart, ok, 我 重启了网关,然后我们再试一下, ok, 大家可以看到就是它已经能够进行正确的搜索了,所以说大家只需按照我的这刚才的教程,然后去把你的 brave 设置的 api 配置好之后,那么 open cloud 就 可以帮我们去搜索了。 ok, 那 么今天的这期视频就到这里,如果说你在如果说你在配置的过程中遇到任何问题,那么你可以去下载我刚才说的 oppo 科百科这个 app, 然后上面有一个问答的板块,然后大家可以去上面提问。那么今天视频到这里感谢大家,再见。

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。

hello, 大家好,这期视频跟大家介绍一下如何给 openclaw 选择一个性价比最高的模型,因为其实在之前的这个视频中,我主要强调了一下,就是大家可以选择千万这个模型,因为千万这个模型目前是免费的,但是目前呢,我陆陆续续收到一些反馈,他们在使用 openclaw 的 时候呢,实际上千万的免费的拓展数量已经不够用了, 所以这期视频我还是想跟大家介绍一些啊,目前收费的,但是性价比极高的一个模型,那么我最推荐呢,其实大家就是用 kimi 的 coding plan 啊,大家可以去登录这个 kimi 的 这个官方网站,然后选择 kimi code 的, 然后会进入到一个 kimi code 的 这么一个啊主页,大家往下拉会发现它目前有三个套餐,一个四十九,一个九十九,一个一百九十九的啊,本期视频不是打任何广告啊,首先我还是想强调一下,就是目前大家只需要选 四十九,每月的这个就已经足够了,那么怎么去配置呢?我也简单的跟大家演示一下,然后大家只需要打开这个 terminal, 也就是我们的终端,然后输入 openclaw, 然后 config, 然后选择模型啊,选择 local, 然后选择 model, 然后选择这里大家会可以发现有个叫 mc 的 一个英文的名字,大家选择这个之后呢,选择第三个, 然后选择第三个之后,就会要求你输入一个 kimi 的 扣定 api k, 那 这个东西从哪拿呢?其实你只需要订阅之后,你就会可以在你的控制台,然后找到你的这个 api k, 然后如果没有的话,你创建一个就可以了,那么利用这个 这个 api k 呢?就然后再输到这个同城里啊,经过我自己的实测啊,就进行一个中度频繁的交流的话,这个四十九元的套餐是完全够用的。比如说我现在给这个 opencloud 设置了大概十个左右的定时任务,然后每天会在不同的时段去执行这些定时任务。其实执行定时任务都是需要耗费大量的 tokyo 呢,那么在这种情况下,四十九元也是够用的。如果说一个免费的千万的这一个 模型,然后你的 tokyo 的 量超限了,那么你也可以给他配置一个 kimi ko 的, 但是我的建议就是大家可以同时配置这两个,为什么呢?因为 这样的话, open cloud 可以 在用完你免费的千万模型之后,它会 fall back 到你的这个 kimi code 的 这个 coding plan 里,所以大家不用担心说我配置了多个 呃,这个 open cloud 的 模型之后,它能不能够正常的工作,它其实是会有一个执行的顺序的,这个大大家不用担心。所以如果说你的这个千万的免费额度不够用的话,大家也可以去申请一个类似于这个 kimi code 的 coding plan 这么一个东西啊。 ok, 今天视频到这里,然后大家也可以去自己尝试一下。

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

这几天又一个 ai 硅谷了啊,就是这个 cloudbox, 它可以通过手机远程控制电脑自己完成任务。 废话不多说,我这次三分钟教给你如何本地部署,如果喜欢的话可以点赞收藏一下,谢谢!他到底有多厉害?我们这次先看看 jimmy 怎么说的,他说这是一个可以接管电脑操作系统的 ai, 传统的 ai 只能给建议,但是这个可以直接拥有系统权限。 我让他用一句话总结,他说可以通过手机聊天软件直接控制电脑,远程让电脑自己完成任务,这真很厉害了。然后他可以把聊天窗口当成全能的一个跑腿助手。好,接下来就是教程。 首先你们可以搜索这个 open cloud, 之后出来的这个红色的图标就是千万不要点错了,然后往下拉,在这个 quick start 这里直接点击这个复制这一串, 然后在终端直接复制粘贴,点回车等待一会, 然后出现红色这一串英文的时候,你们就可以按键盘左箭头点 yes, 然后回车点 quick start, 然后回车之后跳转的这个页面就是你可以选择的模型,平时我都用叉 gpt, 所以 我这次就用 open ai 了, 然后它会弹出一个页面登录,让你认证一下,认证之后再回到这个 keep current, 然后回车 之后跳转到聊天软件的页面,你可以根据自己的需求去选择一个你需要的一个聊天软件,然后他每一个的认证方式都是不一样的,因为我平时用这个 whatsapp 做,所以我选择这个第二个,然后这个 这个 app 他 就会弹出一个码,然后你用手机扫码去登录,然后再在终端这里输入你账号的手机号就可以,之后点 yes, 然后选这个 npm, 然后接下来这个页面是选择安装的工具,嗯,空格就是选,然后上下箭头可以移动,选完之后按回车就可以了,后面这些全都点 no 就 可以了, 然后过一会聊天页面就自动跳转出来了,我来试一下,告诉我叫什么。好了,成功了。

兄弟们,似乎全网都在说,为这个 open cloud 去配个 mac mini 是 一种韭菜行为,而我就是那个韭菜。是的,为了配置这个 open cloud, 我 专门去二手市场买了一台 m 一 芯片的 mac mini, 总的花费呢,大概在两千左右。那我到底出于怎样的考虑去选择 mac mini, 而不是用之前这个 windows 呢?首先第一点,这个 windows 四零七零的显卡,加上它的 cpu 啊,内存量各方面啊,整个酷炫灯光接在电源上,它的功耗就很高。 而 mac mini 它的功耗是多少呢?不到五瓦懂吗?不到五瓦的功率。 然后有同学就要说了,你直接去买阿里云啊,怎么腾讯云上面都有 opencloud? 你 为什么去买云上的?我是这么想的,因为云上的环境,它还是在服务器,它对本地的这些内容的操作权限啊,还是要另外的配置的,很烦, 不如在本地直接去配置,直接去调用。你去买服务器,上面配置大概是两核两 g 的 内存,那说白了,他其实跑不满的啊,如果你要上内存的,那你的价格又要上去了,那说白了,我这个麦克迷你,我二手买来,我两千块钱,我过段时间哪怕我不想用了,我卖掉 一千八,对吧?一千六总归可以卖出去了,对不对?和这个租其实也差不多,但是体验上是完全不一样的。然后这个 open club, 它这个项目本身就是针对 linux 系统和 mac os 系统去设计的,所以各种工具调用在这上面会更加的顺畅一点。 所以综上所述啊,我觉得买个 mac mini, 你 花两千块钱把 open club 部署在上面,然后我觉得这个整个方案呢,是比较合适的, 就从性价比和体验感上来说,肯定是比布在云上或者是在 windows 上去实现要好, ok, 当然这只是我的个人观点,如果你有自己的方案,那你也可以按照自己方案去实行, ok, 就 这样。

不用买 mac mini, 不 用自己的电脑,也不需要复杂的代码配置,九块九就能一键部署你的 open clone, 也就是最近大火的 clone bot, 这是我接入好的,已经开始为我去赚钱了。屁话不多说,跟着我这个教程跑起来。首先打开火山引擎,薅一个羊毛,拿上我视频下方的邀请链接,注册并关联一下子,你这一下子我就能赚一块钱,咱俩平分怎么也得对半分呢?如果你有账号了,也可以登录并关联啊。 然后打开第二个链接,下单九块九的一键部署服务,填写一个简单又复杂的密码,再点开高级设置。 重点来了,我们要做的核心动作就是填上这几个 k, 下面一定要按我说的操作,因为我发现全网都没人教怎么去薅这波火山的羊毛, 包括火山官方的配置文档也是一塌糊涂,我还做了一份详细的配置教程,文档链接放在视频下方,如果觉得我写的好,记得赏个关注,谢谢了。保持这个页面不要关闭,我们打开这个链接, 然后打开开通管理界面,根据这个步骤选择要开通的大模型,建议呢?开通一个升图的模型,然后打开 api k 管理,这个 api 就 可以不用去复制它。 然后回到这个界面,模型选择就能看到自己已经配置过的模型,下面的 api k 就 能直接选择出我们的 k, 那 模型的配置就完成了。 下面我们开始把飞书接入进来,首先要访问飞书开放平台,点击右上角的开发者后台,选择创建企业自建应用, 填写应用名称,写上描述,点击创建,然后点击凭证与基础信息,复制这个 id 和 app 密钥, 再回到这个界面,填写上飞书的两个选项,再点击页面下方的创建,点击确定,至此我们的实力创建完成,让它开始运行。 回到飞出的开放平台,打开权限管理页面,点击批量导入导出,然后到我的教学配置文档当中去复制这个代码,全替换进去,点击 下一步,再点击申请开通,然后在左侧的事件与回调点选一下,选择事件配置页签啊,单机订阅方式旁边的这个编辑小按钮, 然后选择使用长链接接收事件,并单机保存在已添加事件区域,单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签,并勾选接收消息, 如果找不到的话,你就先搜索接收消息,然后点击确认添加按钮, 然后我们向上看,点击页面顶部的这个创建版本这四个字,按照这个需要的配置内容呢,我们写上版本号及更新说明啊,随便填几个字就行了。翻到页面底部,点击保存按钮,然后单机页面个人发布按钮,完成应用的发布。 这个时候你就去看一下你的飞书是不是多了一个机器人,让你去审核,然后点击审核通过你的机器人就可以去用了,这个时候打开手机的飞书或者是桌面端的飞书,找到我们这个机器人,发送一个任意消息,比如说你好, 首先它会出现一个等待表情,如果出现等待的表情,那 ok, 说明正在调用你的模型,那我们的配置就成功了, 等他回复你的时候,你就知道新的世界已被打,已经被打开。如果你想通过浏览器去访问 open、 cloud、 web 这些界面的话,你可以参考一些官方的文档,更多的玩法大家可以自己去探 索。如果觉得我的教程比较详细,比较明确,那大家可以给我点一个关注,谢谢大家!再见。

这个 cloud bot 现在改名叫 opencloud, 有 人说这是 ai 历史上 chat gpt 以后的又一个里程碑啊。我觉得这个 opencloud 啊,不太适合百分九十九的人吧,哪一天你的一切都没想清楚,把你文件全删了, 你欲哭无泪啊。现在已经有了一个我认为啊,对于百分之九十九人最适合的 opencloud 的 平替啊,更易用,更安全, tiktok 不 需要额外花钱。 这几天啊, ai 圈最火的事件啊,除了十四岁的一个少年来参加我们举办的 ai 黑客马拉松大赛差点夺冠之外啊,就是一款叫做 cloud bot 的 产品的横空出世啊,在 google 上啊,以 历史上最快的速度得到了十万星啊,他就是给电脑啊,装了一个掌控电脑的超级 agent, 这个 agent 使得你啊,可以远程的就通过给电脑发消息让电脑干活了,你人也不用在旁边啊,睡觉以后他也继续干, 无论是写代码呀,整理文档啊,甚至帮你下单呐,对吧,甚至跟别人沟通啊,发邮件他都干。哇,这突然让人感觉到第一次啊,电脑真的成了一个真真切切的生产地中心了, 电脑真的就跟个人一样啊,就像个电脑牛马一样不停歇的干活了,对吧,因为以前我们用电脑,你必须在他旁边,你不给他指定他不干活啊,现在他不完全的自主在干了,这就引发了一系列的惊呼啊,有什么最后这电脑给你打电话了, 自己写了个程序就开始给你打电话了,在你要吃饭的时候,直接把外卖给点好给你在家门口了,甚至最近出现了一个 milk book 的 这么一个社区啊,就只让这些电脑们上网去发帖子哇,也是火速到了,什么几百万铁 啊,又开始各种讨论,所以这个 cloud bot 现在改名叫 open cloud。 哇,已经是当红炸子机啊,连 emask 啊这些大神都给点赞啊,甚至有人说这是 ai 历史上 chat g p t 以后的又一个里程碑。 这个礼从背什么呢?就使得 ai 啊,从一个回答你问题的这么一个知识性专家,变成了一个去干过去由人和电脑在一起才能干的所有的这些工作。仅论颜值啊,就是今天绝大部分的白领工作,电脑自己干了,你可以想象一下,就好像有无数多个助理跟着你, 对吧,随时说,帮我订个机票,帮我点个外卖,帮我下个单,当然这是一个美好前景啊,现在只是初步具备了这个功能,这使得一个什么问题啊,就是现在大家都非常焦虑,就看着这个 open claw 爆火啊,很多人就非常焦虑啊,我的后台有很多粉丝的私信啊,说, 副总啊,这个怎么装啊,怎么听说要专门去买个 mac mini 啊,这个我真买了,我发现我装不来呀,但是不装不用是不是就被淘汰了?不,你老说嘛,这个对吧,淘汰你的不是 ai, 是 会用 ai 的 人。好吧, openclaw 这个产品,底层杯式的产品啊,但是我想说,这个产品现在真的不适合普通 人,而且你现在用不上也不要太着急,看上去非常火,但基本上还是很多技术专家的一个讲,为什么不适合普通, 重要第一啊,就是它的成本太高了。虽然说 open cloud 啊号称都支持 mac 和 windows, 但是事实上对 windows 兼容非常不好啊,只有 mac 电脑才能很好的用,而且呢,又由于它现在机子不健全,经常会把电脑东西给删了,导致很多单独去买个 mac mini 成本太高了,你看一个 mac mini 四五千块钱没了吧。这还只是购买成本啊,但问题在于说我们看上去它是开源免费的,问题是接那个模型要钱啊,它现在表现最好的就是 cloud 的 这个 opus 的 四点五的引擎啊, 那一跑起来你的钱包哗哗就作响啊。有人说这两个小时过去几十美金就没了,他是在不停干活,但不停的在烧我钱,所以真的今天成本啊,我觉得不适合你,还没想清楚干嘛的普通人。 第二呢,他安装部署太麻烦了,现在在推特上啊,在外网上一个什么如何安装部署帖子可以几 百万的阅读啊,这就说明他很难你知道吗?你要不会点命令行,不会点配置不懂什么网关,你可能真搞不定,或者就算勉勉强装上也各种各样的问题。插件呐,对吧,我就说一个命令,各种插件呐, a p i 接口啊, key 啊,哎呦,我说这些东西挡不住百分之九十九的人,不仅你们琢磨不明白,我现在搞起来都挺费劲。 第三啊,就是这东西不安全,因为你给他所有电脑的权限嘛,这个电脑事实上就暴露在互联网上,他不安全来自两层面,一层面就是说他暴露在互联网上,他虽然对外去可以给你发邮件,那别人可以攻击进来对不对? 然后呢,他由于有了电脑所有权限,所以他可以对你的文件任意的增删改,哪一天你的一切都没想清楚,大魔仙想错了,把你文件全删了,你欲哭无泪啊。这种事已经不是一次发生了。所以真的,今天我觉得这个 open cloud 啊,不太适合普通人, 也不太适合百分之九十九的人吧,但你说怎么办?咱就干瞪眼看着嘛,就焦虑嘛,不用,咱有办法嘛。现在已经有了一个我认为啊,对于百分之九十九人,最适合的 open cloud 平替啊,就是我们国产的,叫元气 ai bot。 哎,这个产品我特别熟,你知道为什么吗?因为大半年前啊, 我当时看了 minas 出来以后,我就觉得 minas 跑在服务端的一个虚拟的 a game, 我 认为在本地电脑上一定会有个强大的 a game, 所以我们从大半年前开始啊,也就开始研发这款元气 ai bot, 咱举贤不避亲啊,一定推荐给你。 我们从大半年前就开始想,如果你要用电脑的话,如果有个 a 镜头在上面,你跟他说,哎,我的打印机坏了,我的这个 c 盘空间不够了,哎,就可以跟他说句话就帮你解决了,这就很多人已经是个很大的用途, 再往下就说,对吧,你帮我把这个文件夹的目录都整理一下,这个文件夹下的所有的 pdf 给我做成 excel 表啊,这事我没有做了。 第三个就是后来翻还不够,可不可以给我微信,好朋友们生日时候都发个消息,有时候记不住啊,有个什么消息,我可以一个一个找到这个相关的人,都给你们发出去啊。哎呦,以前我发的眼睛都绿了,这事我没做, 还有玩游戏的时候,这个新游戏不会啊,那怎么他可以指导你?那么由此京东去帮我找个东西,做个笔架,这些我们都做了,也做了大半年,为什么要做这么久呢?然后一方面啊,是因为 a 进的太新了,对吧,我们需要去学习。另一方面,我们在做的考虑了,如何保证你的安全 就是关键性的文件目录,无论大冒险怎么想,那不能给你删啊,一些重要的文件想要去删除或者修改时候,要征得你的同意,叫我们是搞安全搞了二十多年的,就安全这事我们花了太多精力, 最近由于 open cloud 出来,这也不瞒您说,手机这个发个消息,电脑去干活这事啊,我们也在规划中,最近我们有加班加点的啊,这个周末我们的兄弟们都在干啊,把它发出来了。还有一点就是我们对 windows 的 支持极度是友好的啊, 不需要你懂命令行,不需要你去填什么 apikey, 我 们是完全国产的,非常适合中国国情的,对 windows 支持也友好,安装也非常的方便,点几下就行了,不需要你做任何配置,也不需要你去这个拿到什么大模型的 apikey, 我 们都帮你内置好了, 而且用的是国产模型啊,合法合规啊,这大家都懂的,而且中间还做了很多技术的用法,帮你消耗的这个 token 呢,这个成本变得非常低,所以现在我们这个干脆全是免费的,性价比很高吧,所以刚总结了,我们花了大半年时间,对吧?做到了, windows 更友好,不需要额外设备啊,现在电脑就能用。然后呢, token 也不需要额外花钱, 对普通用户非常友好啊,点几个键就装好了,配置全帮你配好了啊,不需要你懂那么多高深的知识。第三个,操作电脑的功能也非常强大, 我认为在很多操作电脑功能上,讲句不谦虚的话,跟 opencloud 各有千秋。我们对一些中国内的软件支持也非常好,基本上抢个红包啊,发个消息啊,当然有朋友说要抢个票啊什么的,各种网站,各种产品,知道你怎么用啊,我们都做了。所以呢,今天大家记住叫元气 airpod, 上周末我们刚刚发了个内测码啊, 大家反应非常强烈啊,现在隆重的推荐给你。我们有句话,不是 mac mini 买不起,而是 windows 更有性价比,也不是海外的软件我们不 会用,而是国产软件更方便更易用,既能够让你享受 open cloud 强大的功能,同时又无后顾之忧,还帮你省了钱。大家可以试一下哦,有什么问题可以在评论区告诉我。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

openclaw windows 系统详细安装部署教程来了! openclaw, 一个能让 ai 大 模型像人一样操作你电脑的智能助手,今天就带你花两分钟在 windows 系统本地部署小龙虾。操作步骤很简单, 首先前往官网安装 node js, 这里我们直接下载稳定版本即可。下载完成后,打开文件夹,点击进行安装,安装的选项全部默认。 安装完成后,使用管理员模式运行终端,使用指令查询 node 点 js 的 版本号。 接下来开始安装相关指令,可前往评论区领取,可以看到安装已完成。接下来进行具体配置,输入指令后,这里默认为不同意,我们改成同意 yes, 这里选快速安装 quickstart。 由于我之前配置过一遍,所以这里选择更新 模型。以 glm 为例, apikey 可以 前往官网获取接入的聊天软件,我们先跳过安装 skills, 选 yes, 选择 npm 安装软件包预设 skills 我 们也跳过,这里是第三方应用的 apikey, 相关设置都选 no, 给出的三个 hooks 最好都勾选上。由于之前配置过官网服务,这里我选择重装 reinstall, 等待它安装完成。 抽象 bot, 选择 open the web ui 配置完成后,我们就进入 open cloud 界面进行简单的尝试。比如我们让它在 c 盘创建一个文件模型,回复我们文件已创建,那我们进入 c 盘检验下, 可以看到确实已经创建,说明我们本次的安装部署成功了。关注我,解锁更多开源软件操作小技巧!

前几天折腾黑苹果折腾不出来,主要是用我这个配置做黑苹果的话太卡了。最后呢,我还是装了这个 windows 版的, windows 版的整体用下来感觉要比腾讯云要快一点,要稳定一点。说实话确实是要稳定一点。而且啊,在平板上使用的话, 它可以直接修改各种文件,它也更直观一点,就比如说我新建文件夹呀,或者是改一些文件就更直观的更好改一点吧。如果单从这个性价比来讲的话,我这个平板现在也就卖三百块钱,性价比比 mac mini 高出来太多太多了。 这个性价比拉爆了。现在刚刚装的有五十五个技能了,执行一些正常的程序任务应该是没有什么太大问题的吧。 我这边让他去跑了一个,我把我需要装的那些软件跟他讲,然后让他去跑,然后他就自己把这些 skill 给装好了。同作为一个系统级的应用来讲的话,我觉得还是蛮惊艳的。 我预测如果说再发展下去的话,小爱同学都可以接接进来了。现其实现在相比来讲的话,小爱同学就太弱了。我上半年我玩过一个小爱同学接入 gdp 的 一个项目,其实用来用去也不是很理想吧,现在在看这个就 太厉害了。其实我还是比较期待小爱同学接入这个 opencloud 的, 我幻想哈,如果真的能接入的话,那真的和贾维斯差不多了,真的和贾维斯差不多了。

这可能是二零二六开年超火的 ai 工具,连续三次改名, github 上超过十万新,号称电脑里的贾维斯。 openclaw 是 一款开源自托管的个人 ai 助手,不光能聊天,还能真正接管本地设备,打通聊天平台、浏览器和各类应用,实现跨平台自动化操作。 今天这条视频教大家如何快速部署 openclo, 并把它集成到飞书里,打造一个随叫随到的 ai 员工,小白也能学会。建议先收藏。详细的文字版教程已经整理好了,视频结尾可以自取。一、 打开清亮应用服务器,并安装 openclo 镜像,进入这个界面,点击应用镜像,选择 mode 时长,这里可以根据自己的需求选择。目前有活动六十八,能用一年。点击这里, 然后点击这里,进入管理后台。二、配置 openclaw 接下来我们配置 openclaw, 打开阿里云百链,点击左侧导航栏的密钥管理单机创建 apikey, 然后回到云服务器界面,点击实力 id, 进入服务器概览页面,点击应用详情,开始配置 openclaw, 先点击这里的一键放通, 然后点击执行命令,复制粘贴阿里云百炼深层的 a p i t, 点击下一步。接下来点击执行命令就可以获取 openclaw 对 话的地址,先打开这个地址,等下还会用到。 点击执行命令,可以查看 token 配置,然后切换到 open kala 的 对话界面,点击左侧导航栏的 config, 点击该退,切换至 h t t p 页签,在 responses 区域将 enable 切换至开启,如果已经开启就不用再设置了。到这一步,我们已经可以正常和 open kala 对 话了, 接下来我们还可以进一步把 open kla 集成到飞书。三、创建并配置飞书应用进入飞书开发者后台,点击创建企业自建应用,填写应用信息后单机创建。在左侧导航栏中选择添加应用能力,选择按能力添加,找到机器人卡片,点击添加。 在左侧导航栏中点击权限管理,点击开通权限,搜索并添加屏幕上的这五个 api, 权限完成后进行下一步。点击左侧导航栏的凭证与基础信息, 查看并复制 app id 和 app secret, 点击左侧导航栏的事件与回调,点击加密策略 重置,生成一个新 encrypt key, 之后再复制 encrypt key 和 verification token 到粘贴版。四、创建飞书连接流打开阿里云 app 福洛模板中心的飞书 openklo 模板,点击立即使用添加一个新的飞书凭证, 填写凭证名称,剩下的四栏分别填入前面复制下来的信息,之后在下拉框中选中创建好的凭证。接下来创建 open kla 凭证 token, 这里填入前面获取的 open klo 凭证,填写完成后点击确定,并在下拉框中选中创建好的凭证。点击下一步。这里我们需要前往服务器详情页获取服务器公网地址, 并按页面提示填入公网 ip 端口号默认为一八七八,点击下一步,直到完成配置。配置完成后点击发布,复制并保存 weboker。 五、配置飞书机器人 返回飞书开发者后台事件与回调界面,点击事件配置,然后配置订阅方式,选择将事件发送至开发者服务器,填写上一步复制的 webhooker, 点击保存 已添加事件区域,点击添加事件搜索并添加接收消息。事件填写完成后,点击左侧的版本管理与发布,点击创建版本,填写相关信息后保存并提交审批。我们就把 open club 在 飞书里配置完成了。接下来返回飞书,在群机器人中找到 open club 并添加, 然后艾特机器人发送消息就可以实现对话,也可以让 open club 在 飞书里帮我们执行更多任务。 到这里,一个接入飞书二十四小时在线,还能帮你自动处理繁琐工作的 ai 员工就部署完成了。详细的文字版教程我已经整理好了,有需要的朋友直接在评论区扣 open club 就 能领取。以上就是本期全部内容,我们下期见。

openclaw 火爆全网,但你知道吗?我二十分钟就烧了十五块钱,有没有办法白嫖算力 a p i 呢?绝对有,全程无广,今天教你用,真免费 a p i 无限量使用,国内可用,还是最新的 mini max 二点一模型,点好收藏、关注赞走起! open class 现在真的太火了,这两天我也是玩疯了,特别是接入飞书之后,你可以直接在手机上处理电脑上文件,新建 excel, 制作 ppt, 让他给你找图片文件等,然后直接发给你。各种各样的玩法层出不穷,好多大厂都连夜出了这个云端版本,比如 腾讯的,还有阿里的,火的都不行了。但是啊,所有人都在强调这个工具的强大,却没几个人说这东西烧 token 的 事。大家可以看看我的账单,我就跑了二十分钟左右,几个任务直接近十五块钱就没有了。算了下,如果一个小时是四十块,一天就是八百块,一个月就是两万多。而且这个工具啊,便宜模型不好用,贵的模型用不起。 现在英伟达的免费用户可以直接使用以下这些模型,还可以达到四十请求每分钟我偷摸用了两天,如果是个人玩家的话,基本上是够用的。点击右上角的登录, 因为我已经认证过了,就无法演示了。认证通过后,直接到 api 界面这里申请 api 申请后,你就按照我给的这几个关键要素到你的 open call 替换模型的参数即可,这样就可以通过这个模型进行对话了。这个是无限量的,所以你就进 请使用吧。如果你自己不熟悉代码,基本零基础,但是也想折腾尝试下,那你可以跟我一样安装下 kiro, 现在这个新用户的试用额度非常足。然后用 kiro 打开这个 openclaw 所在的文件夹,不懂怎么安装启动,就把 github 的 网址发给他,让他一步一步按照说明告诉你 怎么安装,如果还不行,就让 kiro 直接上手,包括这个 model 的 文件配置,你也可以让他给你进行配置。不过我个人建议还是避免将重要的 api 秘钥信息上传到 kiro 的 服务器中, 尽量自己操作具体的文件。另外还有就是这个工具目前安全漏洞还是蛮多的,要做好网络隔离防护才行。好了,如果需要详细步骤、文档的评论区留言,记得点赞、收藏、关注、转发,我们下期见啦!

这个巴掌大的小黑盒,算力能完爆我们公司巨大的 ai 服务器。去年三月, nvidia 发布了一款能揣进兜里的 ai 超级计算机 dj x spark。 这么小这么好看,它到底能干多少活呢?我手上呢,是搭载了同款 nvidia gb 幺零 grace blackwell 超级芯片的惠普 zg x nano ai 工作站。 它在不到一本书的空间里呢,塞了二十个 armb 核心和六千一百四十四个 nvidia 酷达 gpu 加速核心,还有一百二十八 g 高速统一内存。 这台口袋电脑每秒可以运行一千万亿次 f p 四 ai 计算,总共耗却只有不到二百瓦,体积也缩小到原来的四十分之一。靠着大面积菱形进气格栅的全新散热设计,即使全速运转,机器的声音呢,也只有不到三十分贝,比笔记本电脑还要轻。要不是有个指示灯亮着,我还以为没开机呢。 不过它并不是一台精致的小玩具。转到背面,马上可以看到两个巨大的 q s f p 接口。这两个接口呢,提供了二百 g b p s 的 数据传输速度,是消费级雷电五接口的二点五倍,可以让多台主机的算力高效叠加。不过真搞个十台堆起来,成本也并不低。 所以 nvidia 贴心的在 blackwell 架构上推出了核心省钱科技 nvfp 四量化技术,可以在保证 ai 大 模型输出质量的前提下,把显存占用和计算量砍到只有四分之一。除了 nvidia 自己的 tntlrm, 这种高效率的数据格式,在 vlrm 和 sgl 两大推力框架下也都得到了支持。 微店官网上有提前配置好的刀口容器,一行代码下载下来,就可以体验这台机器的全部实力了。而惠普这边呢,又助攻了一套 z g x toot, 能一键解决这台机器的前期开荒部署,让我们能直接进入 ai 开发环节。 我们用 nv f p 四量化后的一千两百亿参数模型 g p t o s s 在 v l l m 和 ten 三 r t l m 两大推力引擎上进行了对比测试。 v r r m 的 文本生成速度更快,在没有上下文的情况下,可以达到每秒三十三点五头啃。而把上下文长度增加到三十二 k 之后,依然能以每秒二十四点七头啃的速度领先 t c r t l r m 百分之十三。 不过在响应速度方面,这两个框架的排名就对调了过来。在三十二 k 长上下文模式下, t c r t l r m 输出第一个字母需要等待七点八秒,而 v r m 呢,则需要十六点六秒, 所以在实际使用下,就得做好权衡。 vrm 更适合用户多,但是对话简单,聊天场景,而到了分析文档、写代码这些超长上下文的任务, type rrm 就 会更适合一些。 当然,对开发者来说, zg x nano 呢,肯定不只是用 ai 模型,还得能造 ai 模型。对独立开发者和小型团队来说,这指的就是微调和量化这些对大模型深度定制的精细化。 虽然消耗没有丛林训一个 ai 大 模型那么恐怖,但这些任务呢,依然对算力,特别是显存大小有非常高的要求。先说量化量化,就是把原始高精度格式的大模型转成低精度,它可不是简单抹个小数点就行了,而是要在保证输出准确性的前提下,完成模型的压缩,加快 ai 的 输出速度。 它的硬件门槛就在于计算机要能把原版模型完整装进显存里。基于 b f 十六这个常见的原始模型精度, z g x nano 的 一百二十八 g 显存,可以给最大五百亿参数的大模型完成量化加速。搞定了量化,如果想让模型在特定任务上更聪明,就得靠一条了。 为了展示 g b 幺零芯片的极限,著名的微调加速框架安斯拉斯团队呢,在二零二五年的 openai dev 上打了个样,他们通过 q lara 微调了一千二百亿参数的 gbtos 模型的四比特量化版本,让 ai 可以 更擅长当年大火过一阵的小游戏二零四八。 经过四个小时跌淡了一千步特训后的 ai, 得分提高了百分之三十三点四,胜率冲到了百分之六十。不过,即使用 q l r 这种省吃俭用的微调驯服 g p t o s s 这样一个一千两百亿参数的巨兽,依然消耗了六十八 g 显存。 如果要做最原始的全参数微调,这台机器也能支撑最大八十亿参数的模型,完全可以覆盖个人开发者学习原理、验证想法的需求。 不过对于大团队来说,这个小盒子的意义就远不止是算力了。以前大模型开发就没有十万元以内这么个生态位,要么就是直接在几百万的集群上花巨大的成本试错,要么呢就是存几张显卡自己 diy。 但是跑通了的模型放到高端计算卡上,架构不一样,搞不好哪里,那就又报错了,查起 bug 来又要烧掉不少服务器租金。 c g x nano 的 底层软件架构和大型 ai 服务器完全一致。在这台机器上,填好的坑、调好的餐,几乎是直接复制粘贴就能迁移到万卡集群,这就省掉了巨额的云端试错成本。 而除了硬件,在 c e s 二零二六上, nvda 还一起推出了更高效的扩大 tile 编程模型。在价格昂贵的 ai 服务器集训上,效率提升百分之一都是巨大的成本收益。但以往呢,这就需要死磕 c 加加直面抽象的线槽同步和内存读写。 在新的扩大 tile 规范下,只需要用直观的拍丧语言来描述需要完成的任务,编辑器就能自动完成后续的精细逻辑控制。 左手是完全对齐工业界的硬件架构,右手是让开发者几行命令就能手搓底层优化的软件工具,一个人一张书桌就可以复现最新的大模型。论文为一条智能助理,为大型游戏开发复杂的 ai npc。 这台小机器就是针对 ai 快 速开发验证给出的标准答案。

上期视频,我们用 openclaw 完成了策略代码的迁移和上线,但今天我们介绍一个更实用的应用,搭建一个完善的交易系统。 我们都知道市场行情在趋势和震荡之间来回切换,我们很难准确判断当前是什么状态。趋势策略放在震荡式里会反复止损,来回打脸,网格策略碰上单边行情又会深度套牢,这个痛点相信做量化的朋友都深有体会。 所以今天我们来做一件更有意思的事,搭建一个能自动判断行情切换策略的智能系统。 在这套系统里, openclo 扮演的是决策大脑的角色,他要完成一个完整的闭环,首先是感知, 通过 m c p 协议读取发明者平台的实盘状态,通过文件系统读取鱼情新闻。然后是思考,根据我们定义的规则分析市场情绪,判断当前是恐慌还是贪婪,是该追趋势还是做网格。最后是行动,调用 api 启停对应的趋势或者网格策略,把分析报告推送给我们。 这样一来源本需要我们盯盘分析,手动操作的事情就变成了 ai 自动化,我们只需要定好规则,剩下的交给它。 明确了思路,我们来看需要准备哪些东西,主要是三块,第一是 m c p 配置,让 openclaw 能连接发明者平台,这个待会详细说。第二是消息渠道,我用飞书,如果你不熟悉飞书,机器人怎么配?没关系,直接问 openclaw, 它会一步步引导你完成配置。 第三是发明者平台上对应的实盘策略,鱼情采集工作流和两个交易策略,一个趋势,一个网格 先搞定 m c p m c p 是 一种让 ai 调用外部工具的标准协议,通过它 open core 就 能获取和控制。发明者平台的试盘配置流程是这样的,首先在发明者平台的账户设置里申请 api 密钥,然后获取平台提供的 m c p 协议地址。 拿到这两样东西后,打开 openclaw 的 配置文件,把服务器地址和认证信息填进去。配置完成,我们来测试一下,让 openclaw 执行获取实盘列表的命令,可以看到,返回了账号下所有实盘的信息, id、 名称、运行状态、累计收益都有了。 这说明 openclaw 和发明者平台已经打通了 make c p 通了。接下来在发明者平台准备策略和数据源。先说策略,我在自营策略库里挑了两个,一个是多品种超级趋势策略,用 atr 指标判断趋势方向,趋势来了就顺势开仓,适合单边趋势行情。 另一个是专业网格交易策略,在设定的价格区间内低买高卖,适合横盘震荡。这 两个策略的试用场景正好互补。但注意,我们不是同时开两个石盘,而是让 openclaw 根据市场情绪判断当前适合哪个,只启动相应策略。所以先分别创建好石盘,放着备用 再说。余情数据员,我在平台上部署了一个余情采集工作流,他从九个 r s s 数据员定时抓取加密货币相关的新闻快讯,保存成 jason 文件,每条新闻包含标题、时间和摘要。后续 openclaw 会分析这些新闻的关键词进行情绪判断。 渠道和策略都准备好了,现在要给 openclaw 布置具体的任务了,在这份指导语中定义了 ai 每次执行时应该做什么, 我们来看具体关键点。首先是决策定义,实盘配置,然后是核心执行流程以及余情分析规则,接着是最核心的决策矩阵, 根据余情信号以及策略收益进行不同策略切换的抉择。最后还有日制格式报告模板、定时任务和飞书通知配置这些,搭建了一个完善的任务执行流程。 指导语写好了,上线之前,我们先手动跑一遍验证效果。出发执行后,可以看到 openclock 依次完成了这些动作,读取实盘状态、余情分析、决策执行,最后生成一份完整的分析报告并发送到飞书, 整个流程完全自动。我们看一下报告,情绪指数、重大事件、策略收益、本次决策和原因都清清楚楚, 手动测试没问题,现在让它自动跑起来。在 openclaw 里创建一个定时任务,执行频率设为每小时整点,设置完成后,每小时整点, openclaw 就 会自动醒来,进行设置好的操作,从此策略管理变成全自动。我们再也不用纠结当前到底是什么行情,该跑哪个策略了。 系统跑起来之后,我们不可能一直坐在电脑前盯着,这时候移动端的价值就体现出来了。每次定时任务执行完, openclock 会把分析报告推送到飞书,打开手机就能看到,相当于有个 ai 分 析师每小时给你汇报一次市场情绪和策略表现。 在地铁上,在吃饭时随时能掌握系统运行情况。当然,有时候我们等不及下一次定时报告,想立刻知道情况怎么办?直接发消息问就行。比如我发一条查看一下实盘收益。 open call 收到后,立刻调用发明者接口,返回两个策略的最新状态,包括是否在运行,运行了多久,累计收益多少,今日收益多少。这种双向交互让整个系统非常灵活,不只是被动接收报告,而是随时可以主动了解情况。 还有更实用的玩法,比如我发现趋势策略跑了一段时间一直没开仓,我就发消息问策略,长时间不开仓有什么优化思路? openclaw 分 析了一下,给出建议,不开仓通常是因为 atr 通道太宽,价格没有突破趋势线触发信号。 建议把 atr 周期从十调到十五,让指标更平滑。把 atr 乘数从三调到二,让通道变窄,更容易触发。 我觉得有道理,就回复暂停实盘,按这个调整一下参数。 openclock 收到指令后,先调用 api 暂停策略,然后自动打开浏览器,进入发明者管理后台,找到参数设置面板,调整 atr 周期和陈述的滑块,点击保存。 整个过程我只是问了一个问题,确认了一下建议,剩下的全是 ai 自己完成的,这才是真正的智能助手。 好,我们回顾一下今天做的这套系统,核心是用 open call 解决趋势和震荡行情难以辨别的痛点。 通过 m c p 连接发明者平台获取实盘数据,通过余情工作流感知市场情绪。用指导与理的决策矩阵自动判断该跑趋势还是网格策略,用定时任务实现自动执行,用消息渠道随时接收报告和发送指令。 当然,这不是一个完美的框架,可以优化的地方还有很多,但今天的重点是给大家展示各种工具的组合应用方式,希望能帮助大家理解这些工具怎么配合使用,在此基础上做出更多更好的创造。我们下期再见。