粉丝6780获赞3.6万

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

大家好,现在有很多人说在电脑上安装 openclaw 养龙虾不安全,还有很多人说安装和卸载 openclaw 小 龙虾都非常费劲,那本期视频就分享一下如何用虚拟机来安全地养龙虾。将来凡是有自由度过高的 ai 软件,你都可以用这个方法一劳永逸。 你现在看到的这个窗口里运行的虚拟机 macos 系统。 我在这个虚拟系统里安装了 openclaw 小 龙虾,并且能够通过手机上的 app 和他对话,让他帮我整理文件,筛选邮件。当然,这个虚拟机系统的窗口也可以全屏幕的哦,这样左滑右滑,就可以在你本机真的 macs 系统 和虚拟 macos 系统之间丝滑切换。那么 perilous desktop 往后边就简称 p d 虚拟机,那用它部署 openclaw 小 龙虾有什么好处呢?虚拟机就好像是一个黑盒子,对里边的任何软件包括 openclaw 来说,是完全独立于你真正的 macos 系统的。 通过 p d 虚拟机的软件设置,把与真正的 macos 系统唯一的共享开关关掉之后,它就是一个完全隔离的系统。 这样的 openclaw 就 好像被关进了笼子,你即使给他最大的权限,他也只能在笼子里玩,只能在这个虚拟机里转悠。对于虚拟机外边的这个 macos 系统根本就没有感知,他不会知道还有一个系统在外边,不会伤害到你电脑的本身系统可以随时关停,随时删除, 随时在克隆,任你操作。那有人一定会问,在 p d 虚拟机里可以一键安装 macos 虚拟机, 有内置安装入口,你所要做的就是点下鼠标,稍等片刻,它就能下载安装完成。对于喜欢折腾的人来说,比如说 ai 爱好者或者是技术人员, p d 虚拟机软件已经不只是能让你在 mac 上运行 windows 了,它现在变得更有用了。你可以在上面安装各种 linux、 windows 和 macos。 比如你可以安装部署一个基于五班图 linux 的 open cloud, 同时还可以部署一个 macos 或者 windows 版的 open cloud。 每个虚拟机系统都是独立运行的,像真正的电脑一样,局域网内的其他电脑和手机都可以访问到这些虚拟机系统, 包括使用上面 open cloud 服务。如果你哪天不想要某一个了,在 p d 虚拟机控制台里就可以一键删除 open cloud 所在的虚拟机即可,里边的 open cloud 也会随之彻底销毁,没有残留。 当然,有的时候我们可能因为误操作,把配置好的 open cloud 搞崩溃了,所以我通常在虚拟机里边把 open cloud 运行环境配置好之后,直接把这个虚拟机文件复制一下,进行一个备份,这样随时可以一键恢复到之前的样子。 实际上,你用 p d 虚拟机软件安装的各种虚拟系统,所有的数据都会在一个大文件里边,你可以把它们复制到移动硬盘或者 n s 上进行备份,需要时可以把文件随时拷配回原来的位置,就可以完美恢复了。 另外,如果你的 mac 空间不足,你可以把虚拟机复制到这种固态硬盘上来直接运行。实际上我就是这么做的,你直接双击固态硬盘上的虚拟机软件,加载它,启动这个虚拟机。 我现在这个虚拟机 macos 里已经配置好 openclaw, 在 这台 mac studio 真实的系统里,我安装好了千万三点五三十倍的大模型本地运行,通过手机 app 就 可以让虚拟机里的 openclaw 帮我做事, 可以读写操作我虚拟机 macos 里的文件,帮我看邮件。如果你本地电脑配置有限,不能本地运行 ai 大 模型,那这种方法也可以通过虚拟机直接让小龙虾使用线上的 ai 大 模型没有问题。 所以这种方式可以让 opencloud 和你的真正 macos 系统完全隔离,这就是使用 pd 虚拟机本地部署 opencloud 的 最大优势。而且工信部目前发布的关于防范 opencloud 的 安全建议也是建议无论企业还是个人用户,都优先在虚拟机或者沙箱中运行。 唯一需要注意的是,虚拟机一麦克 s 系统,它本身需要至少八 gb 的 运行内存,所以建议使用十六 g 或者更多内存的苹果电脑。 ok, 这就是本期视频,如果对你有帮助,别忘了点赞关注我们,下个视频见,拜拜!

手把手带你安装 openclaw 龙虾必备的 skills。 之前我出过一期 openclaw 保姆级安装教程,但装完之后你会发现它其实还只是一只裸龙虾。你让它查看文件,它说没权限,你让它算下天线,它说没联网,属于一同操作猛如虎,另近一看原地图,所以这个视频带你正确配置龙虾,补齐必备技能, 让它真正从能聊天进化成能干活。但在开始之前,我们先熟悉几个会频繁用到的命令,如果你是 windows 系统,就在 power 里输入这些命令,如 mini 是 micro, 二,系统就在终端 terminal 里输入。要开始用 openclaw, 第一步是先把网关启动起来,对应的命令是 openclaw gateway start。 启动后,我们可以打开 openclaw 控制台,也就是它的可式化操作键。面对的命令是 openclaw dashboard。 如果你暂时不用 openclaw 了,也可以把网关停掉。对应的命令是 openclaw gateway stop。 技巧一,本地文件读写从二零二六点三点二版本开始啊。 opencl 默认对本地文件访问权限做了限制,所以如果你想让它读取甚至进一步操作你电脑里的文件,要先把对应权限打开。操作也很简单,打开 opencl 或终端,输入 opencl config set tools, 点 profile for 命令回车执行。 把 opencl 的 工具权限切换成完整版,运行后还需要重启网关,让配置生效。对应的命令是 opencl gateway restart。 搞定以后,你就可以让 opcode 做各种文件提取和修改的操作了,比如批量重命名、文件整理、桌面分析、磁盘空间占用等等。 技巧二,联网搜索 opcode 默认情况下是无法获取网上信息的,所以你问天气、问资讯、问股价,他通通不知道,但我们可以安装一个负责联网搜索的 skill。 skill 可以 理解成是 opcode 的 技能包,本质上是一套针对某类任务的说明和流程, 用来教他在特定场景下该怎么做。比如这就是一个简单的 skill 的 例子, openclaw 有 个官方技能市场 clawhot, 你 能在上面看到很多别人做好的 skill, 可以 直接拿来安装使用。要事先联网搜索,可以搜一个叫 tablie search 的 skill, 这个 scheme 要求从 tiffany 点 com 获取 api 密钥,我们可以稍后设置。安装方法也很简单,我们可以直接复制 call hop 上 tiffany search 的 页面链接,粘贴到和 opcode 的 聊天里,无论是控制台还是飞书这类通讯渠道聊天窗口都行,然后让 opcode 自己帮你安装。 tiffany search 还会用到 api 密钥,所以我们来到 tiffany search 官网 注册登录后啊,就可以直接得到一个密钥,他每个月呢都有免费额度,而且不需要绑卡。拿到之后,我们可以把 api 密钥一起发给 opencall, 让他安装后自行完成配置。 装好之后,我们可以简单测试一下,比如在飞书里问他茅台目前的股票价格是多少,这时候啊, opencall 就 能顺利返回来自互联网的实时信息了。 技巧三,定时任务欧姆克劳支持通过 com 创建定时任务,不需要额外安装 sku。 比如你可以直接对欧姆克劳说,每隔五分钟汇报某只股票当前的价格,他就会创建一个定时任务, 然后按设定的间隔自动运行,帮我们实现对股价的监控。所以啊,不管是每天早上七点发资讯,每周一九点写周报,还是二十分钟后提醒浇花这类定时任务,你都可以直接交给他。 小四,浏览器操作 opcode 本身自带 browser 工具,不需要额外安装 skill, 就 可以读取网页内容。比如可以对他说,帮我看看知乎上现在有什么热点网址是这个,它会自动用浏览器打开网页,读取页面内容,把上面的信息整理出来。而且不只是读网页, 像点击输入之类的基础操作啊,它也能完成。比如让它去 github 上搜索 linux, 然后把排在前三的搜索结果给你, opcode 也能直接搞定。不过它的缺点啊也很明显,第一是比较稍 token, 因为网页内容因为状态,还有每一次工具调用的结果啊,都会不断进入模型的上下文。 第二是执行速度比较慢,因为 opcode 的 工作方式不像程序脚本或 rpa 那 样,流程确定后一次跑完。而 每做一步,都要先看当前页面,理解页面内容,探讨下一步该点哪里,再执行操作,然后再读取结果,继续推理下一步。所以它更像是一个会操作网页的 ai 助手,而不是一个高效率的自动化程序。另外,如果遇到强制登录、扫码、验证码校验,或者比较严格的反爬机制啊,我不靠也容易翻车。 技巧五技能查找 opcode 的 skills 很多,但真正麻烦的是不知道该装哪个。这里推荐两个实用 skill, 一个负责找 skill, 一个负责审 skill。 第一个是 find skills, 它的作用就是根据你的需求去查找合适的 skills。 安装方法和前面一样,直接把链接发给 opcode, 让他自己安装就行。 装好之后,我们可以对 okl 说帮我查找邮件自动化相关的 skills, 他 就会推荐合适的 skill, 这样你就不用自己去技能市场里一个个翻了。但接下来还有一个问题是,他推荐给你的 skill 真的 安全吗?那么我们可以再安装一个 skill better, 它的作用啊,就是在安装前先帮你做一层安全审查, 重点看看有没有权限问题、可疑行为,平常窃取回销代码或者数据外传之类的风险。我们可以再提醒一下 oppo, 安装每个 skill 前用 skillbetter 检查一下,这样后面啊,他在安装新 skill 的 时候就会先审一遍,再决定要不要装 技巧六,既能创建与改进除乱中别人已经写好的 skill, 我 们也可以直接通过自然语言让 opcode 创建新的 skill。 比如可以直接告诉他帮我创建一个 skill, 把新收到的邮件内容提炼成三句话总结。这样一来, opcode 就 能根据你的描述自动创建一个 skill, 让这套流程可以长期服用, 以后再遇到类似任务啊,他就不用每次从零开始了。如果你还想让他越学越聪明,可以再装一个 skill, 叫 self improving agent。 这个 skill 的 作用就是帮 opcode 把错误纠正和新学到的方法都记下来,慢慢沉淀成经验。 具体来说就是有失败的操作时,他会自动记录到 error state, md, 你 纠正他了,或者他学到了更好的方法,会记录到 learning state, md, 你 提了他一个还不会的功能, 会记录到 feature request, 点 md 一 些真正有价值的内容啊,后面还会进一步沉淀到 memory, 点 md 这种长期记忆文件里。那么安装之后, okl 不 止完成当前任务,还会把每次失误和改进建议啊,沉淀下来,自动应用过往经验,变成一个会复盘的助手。那希望以上这些技能补齐之后,你的龙虾能真正下场干活了。如果这个视频对你有帮助,也欢迎点赞和关注,我们下个视频见。

最近这个龙虾特别火是吧?然后呢,很多学员都在问我为什么没看到我在推?其实呢,我算是很早一批安装使用龙虾的,安装对我来说没什么门槛,很简单,但是安装后发现我这么一个深度使用 ai 的 老玩家 安装后,我竟然不知道能用它来干什么。我今天在网上看到了一篇文章,他的浏览量已经超过十万了,就是他说的一个观点,我是特别认同的啊, 他说百分之九十九的人,你其实是用不上龙虾的。你用不上 ai 的 自动化,为什么?因为你还没有到那个阶段,你看大微每天发这种谁谁谁搭建了一个一人公司是吧,省了几百万,然后赚了多少钱?你是不是真的信了?还是醒醒吧, 就为了搞个什么 agent 的 这个写作,买个 mac mini, 然后呢,事没怎么干呢?钱呢?哗哗往外花?就你连日常的这种 ai 的 对话你都没整明白,连提示词都写的半半颗颗的,你就想让 ai 帮你自动化决策了?就是最搞笑的就是那种虚拟公司, 然后搞个什么 ceo 啊,产品经理啊,程序员,甚至还配个财务,一个跑在你电脑本地框架的 agent, 你 配个财务管什么?就管你 api token 花了多少钱吗? 那他应该是第一个跳出来拉闸的吧,就因为这几个 agent 来回开会讨论审批,然后偷啃,就像烧钱一样消失了,那你花着十几美金,最后整个不可控的半成品就别搞笑了。 而且这种本地多 agent 的 框架只是个过度产品,大厂只会推出越来越像什么超级大龙虾啊,这种成熟的解决方案端上桌,不用你下海去捞,不用你去搞这么复杂的流程,你现在花大把的时间和偷啃的钱 去折腾那些不成熟的半成品,你就像自己下海去捞龙虾一样是吧?你终于捞上来了,隔壁桌已经吃上处理好的了。所以听我一句劝,咱们先学会走,再学会跑。咱们先用 ai 处理一件 你自己真实工作中能用的上的,不要去搞得那么焦虑,然后别人用什么你就一定要用什么,咱们先看看自己要花多少钱,再看看自己实际的应用场景是吧?不要在中间流程花那么多精力和钱对不对?关注我,让你使用 ai 模型更简单。

这个就是我们 openclaw vacuum 的 一个主页面,这个就是我们开发的一键包,我们双击一下进行安装,然后点击我同意,然后点击,然后找一个地方,然后安装,然后我们点击完成,然后它就会自动启动我们的这个 我们选择中文,然后进行下一步,我们暂时跳过设置,我们看一下。 首先给大家介绍一下 opencloud 是 什么?它是一个本地开源的一个个人的助手,这是我们的一个思维导图,它有非常活跃的社区,截止到今天为止,它已经登顶 gitup 上的榜首。 我们在之前提出过一个问题,就是为什么在 opencloud 里面一句你好,一个打招呼的两个字,竟然消耗了一万五千多播放呢?直到现在有十五万关注的一个浏览量。我们接下来看一下 opencloud, 作为一个 ai 的 个人助手,它可以比如说像网页的新闻搜索,每天什么时候定时给我汇报,或者说作为一个工作的一个客服,或者说一个知识库的问答都是可以的。然后我们介绍一下我们开源的 opencloud viking, 这是一个基于 open cloud 还有 cloud x 的 一个独立维护的优化版本,它解决了什么?它解决了一个古法代码启动的问题,比如说我们之前的话是在 linux 进行一个命令行的启动,这对于很多 不是程序员的用户很没友好。我们现在的话是一个纯图像的一个操作,我们看一下 一键启动,然后我们前端启动,后端,然后接下来回到我们的思维导图,它可以摆脱 linux 的 一个烦恼,比如说 win 系统的 wsl, 然后接下来是一个一键的图形安装,这是我们的一个开源地址,前期的话我们正在一个维护, 然后已经开源,然后接下来我们给大家介绍一下它的一个特性,第一个功能就是减少我们的噪声,它至少可以减少百分之五十以上的透光的消耗,也就是对于我们的一个更加省钱,这对于我们之前的视频实测过,大家可以看一下。 接下来是它的一个时间记忆的永久保存,我们采用的是 open viking 的 一个思路进行制作了一个三层缩影,接下来给大家慢慢的介绍。最后就是我们的三层缩影,就是我们的记忆白盒可以溯源。 我们首先来到 viking 的 主页面,配置一下它的模型,在此会很简单的配置一个,我们选择是 cloud 四点六这个模型,我们点击,然后输入 api k 就 可以了。现在先给大家演示一下如何进行跑通,我们接下来演示怎么获取,我们在这里面输入自己的 api k, 然后点击测试连接,我们发现已经连接成功了, 这个在国内不用开任何的一个科技或者魔法都可以使用,这是一个直连的,为什么说是直连呢?是因为今天中午的时候 cloud 它崩了,然后我们进行测试,结果可以显示它是一个官转的一个 api, 它是一家上市公司,待会介绍,然后我们点击提供, 我们进行提问,我们看一下他已经回复了,我们问一下当前的工作目录有哪些文件, 这个命令就是检测的是我们温系统是否可以读取我们的一个温系统的系统以及执行一下操作,他是可以成功的执行他的系统的命令,因此我们在温系统是绝对可以实现的。 然后接下来我们可以进行测试它的一个写入以及运行代码的能力,这些技能对于我们运行 skills 等等是一个重要的基础。我们让它写一个 python 的 一个脚本, 我们发送过去,我们可以看见他已经成功的执行了写以及执行程序,然后这就是他的一个文件的位置,然后我们进行测试一下他消耗了多少 token, 我 们输入斜杠 context detail, 然后就可以看到他的一个详情,我们可以看到他执行这个任务消耗了八千五百个头肯,按照我们上次的对比,原版的话最起码得在 一万七到两万之间的这个头肯的消耗。接下来我们看一下他的一个版本介绍,这个就是我们的一个三帧缩影, 我们看一下 roe 的 招标,就是一句话定位它有时间戳,就是我们优化了一个上下文的一个记忆,无论什么时候我们可以精确的定位,比如说像二零二六年 三月一号发生了什么事情,我们可以精确的进行定位当时的对话,然后来到我们的记忆,所以我们可以看到这个就是我们的一个白盒式的,可以看到当时的一个记忆,二零二一二二都是可以的。然后接下来给大家看一下它的模型的配置, 我们点击设置,在这里面可以进行一个自定义的 ai 的 提供商。 在此的话我给大家演示的就是我们推荐的这个魔星广场,因为它足够的优惠。然后我们点击这个, 然后我们会在这个优云智算里面进行注册一下,手机号注册,这个就是我们注册的,然后点击一下 它里面会送我们五元的一个余额,也就是说我们进行一个充值一块九,我们看一下我们进行充值, 然后我们现在就支付成功套餐订阅,然后点击这儿,然后点击立即购买,这个就相当于原价 a p i 的 一折起,我们实测了一下,基本上像 cloud 是 二折,然后像其他的都是一折,我们点击购买,然后我们点击复制,这就是我们的密钥, 然后来到我们的一键包打开,在这里的话我们比如说我们可以选择 open i 的, 在这里面我们可以任意选,在此的话我选择 open i 的 最好的编码的模型,我们在这里面输入,输入之后我们点击测试, 我们可以看到测试成功,然后我们点击添加就可以了,在这里的话它就会自动重启这个网关。 在设置里面我们可以看到我们这样点击一下使用的就是 gpt。 五点三开启一个新的对话,我们提问一下它是哪个模型,我们可以看到它的回答是正确的,也就是说我们可以在国内的环境进行直连,这个的话它一共消耗了两千五百个头狠。 像其他的比如说像定时任务以及我们的这个技能都是可以使用的,像这些其实说实话可以删掉,因为他在国内的话可能用不了, 我们可以来到这个市场上可以进行一个安装技能,在国内的话咱们可以联系一下钉头,就是我们钉钉以及非书。 然后接下来这是我们的一个设置模型设置已经给大家演示了,然后接下来这是我们的一个记忆缩影,这个就是我们一个长期记忆的优化,甚至到我们的一个时间戳。

这是一台二零幺五年买的 macbook, 已经在角落吃亏好多年了,今天我要重把它重新打开,让它重获新生。可以看到它真的很旧很旧了, 八 g 的 内存,然后版本 macos 居然是十二点七点六的。好了,我已经把它装好了龙虾。 很多人觉得现在玩 ai 大 模型必须得买最新、配置最高的电脑,其实真不一定,我给这台老古董装上了 open cloud, 你 看,嗯,一下子就装装好了。 然后现在看看它的运行速度怎么样?我用的模型是 kimi 的 二点五, 看看这运行速度其实也不怎么卡,响应非常的丝滑。你可能会问,这么老的设备为什么还能够带动得起大模型? 但是秘密就在于它是通过 api 连接了线上的大模型接口,所以你的电脑只是一个负责提问和显示的传话筒, 真正进行复杂计算的是在云端的超级计算机,所以只要网速跟得上,本地配置根本不是问题。家里有吃灰的老电脑,可以拿出来赶紧试一下喽!

做了一个虾盘啊,呃,优卡在中国做 oppo nano 还是很麻烦的啊,有很多的依赖,还要用 get up 去虾。那就做了这么一个东西,这个插上这就可以了啊,大概怎么用呢? 插 u 盘的话,然后然后打开里面有个优卡 啊,里面有使用说明啊,如果是啊 mac 电脑的话,直接点这个就可以了,如果是 windows 的 话就点这个, 那我们来点一下哈,点击这个以后打开的就是这个, 会有来选择啊。刚才这个是已经选择过了哈, 然后打开一下这个 啊,最开始弹去它会是这个界面,它会检测你这些东西有没有装,没有的话 就问你是不是要一起安装,如果以后安装完了,必须后面要维护,要备份也是选这里就可以了,选这个备份他就会自己备份,然后也可以重置恢复, 然后一些 sky 也可以直接安装。这是后面用的,前面就是安装了 啊,包括这个 qq 啊这种都可以配置。 ok, 那 这个就是刚才我点了一下,我这个电脑是没有装这个 open club 的 啊,它现在还在装,它自动从 u 盘里面,从这个 u 盘这里,从 u 盘这里 copy 出来, copy 过去, 因为这个运行这个车需要安装很多依赖的这个环境在配置。平时我们装是比较麻烦的, 大概就这么简单,就是勾选一下就可以了,而且未来还可以有很多的这个维护工具在里边啊,这个还会在 后面还会升级哈。嗯,大概是这样的啊,也可以刷我们的网站,也可以刷我们网站去去看 啊相关的一些文档哈,大概是下雨的木风这样子的,就是之前 windows 时代一个很有名的一个。呃,简易安装 啊,内置的 qq 机器人这些啊,这些工具都有,像常用的这个聊天平台都是支持的。然后一些常用的这个,呃, skype 它也是放到里面了,可以直接直接用,不用再去下载了, 就这么简单,插个 u 盘,然后点击启动,然后安装就行,就这么简单。然后配这个的话也很简单,比如说 qq book 的, 这我们中国人就把这个 copy 过去就可以了。 呃,这些模型也是可以的,主要是国产模型哈,这里面都有 啊,后面有什么问题也可以发邮件或者是微信加我的微信这个网站上面都有啊,就就优卡点 o r g 这个好嘞。

qq 啦是腾讯基于 open 跨做的一键安装版,下载双击扫码三不不超过三分钟,目前需要邀请码点击这里。微信远程扫码登录绑定之后,微信里多了一个龙虾客服 给他发消息,电脑就自动执行,无需任何插件。目前所有 open ql 产品里,微信直连只有它能做到。 内测期间默认模型,偷客免费每天刷新额度。也可以配置自定义大模型,任选 deep、 c k、 kimi、 mini max 等主流大语言模型, 但需要提供 apikey。 我 的邀请链接就放在视频下方,点击邀请链接会出现这个画面,点击注册并关联,选择扫码或者手机号验证即可。讯电脑管家推出 ai 安全杀伤功能格律三位一体机制, 将 ai agent 的 高权限操作纳入安全可控的隔离边界,打开后在右侧显示每一步执行的操作和安全检测,可以手动关闭。 系统内制定时任务,填入具体任务要求,直接下达定时任务灵感广场内置大量任务模板, 选择试用场景,点击立即使用框拉启动。中国近代史极简知识框架列出了三条主线,核心分析设置、引用量统计,可以看到当前的绘画数、对话次数以及 token 消耗。 除了这些内置技能外,腾讯还推出了一个面向国内用户的 skill hava 技能社区,它是基于 open 克拉官方开原生态打造的本土化配套服务平台,相当于一个专门的 skills 集散地。目前已经聚合了来自官方生态的二点二万多个 skills, 并持续增长每一个技能的详细信息、安装方式分类和关键词搜索,快速找到你需要的 skills, 我 们直接复制提示词 agent 自动安装 成功,列出了可用功能。我们的文件目录包含大量的图片和录屏,上克洛整理一下,整理完成,首先扫描总文件数量,按照命名规律匹配关键词匹配和 ai 语义分析。整理了所有的录屏和图片,自动创建新的文件夹,存放文档。 我们让 cll 整理我们的发票汇总文件,并导出 excel 表格, excel 表格创建完毕,看一下表格内容,包含了所有的发票类型号码、开票日期、金额类别和备注。下一个测试,看看 cll 有 没有发微红包和查看聊天记录的权限。 cll 称这个操作暂时做不到。帮我总结这周和朋友的微信聊天记录,列出还没处理的事项。 微信聊天记录受限, qq 老既无法发送微信红包,也无法直接访问微信聊天记录,所以不用担心钱包被偷获。微信消息泄露,微信员工也已辟谣, 之前的 ai 自动发红包是假的。 qq 闹使用也有一些限制。第一,微信里它不是好友,是客服,消息藏在二级菜单不能置顶,每次找它多点一步体验有点别扭。第二,本地应用控制还有限制,本质上还是终端和浏览器层面操作, g u i 级别控制还没打通。第三,文件只能在电脑端打开,没法直接微信传手机。总结一下, q 克拉无需复杂配置即可快速启动,通过自然语言指令控制。电脑目前还在内测,需要邀请码。你最想让这只龙虾帮你干什么?评论区聊聊,我们下期视频再见!

哈喽,大家好,我是鸽子。最近 openclaw 可以 说是彻底活出圈了,上期我们已经出过 windows 平台的部署教程,这次咱们换个玩法, 把 openclaw 搬到 mac mini 上,再接入飞书,打造一个随时随地可以用的私人 ai 助手。 mac 迷你来跑 openclaw 简直是绝配, 功耗低,性能够一百六十八个小时挂着也不心疼,天生就是一台家庭 ai 服务器的料。而且这次我们更进一步, opencloud 帮你生成个人作品集站点,让你的面试官点开链接就能直接体验。废话不多说,今天我们打开终端,在部署 opencloud 之前,我们需要安装 homebrew, 它是 macos 平台上的标准软件包,管理系统,输入命令。安装 homebrew, 如果你已经安装了,可以忽略哦。 安装完成后,按照终端提示的环境配置命令依次粘贴回车进行执行, 完成后我们再次输入就能看到版本信息了。有了 homebrew 这个管家,安装 opencloud 的 核心引擎就变得非常简单了。一般情况下,安装完 homebrew 后, mac 就 自带 get 了,所以我们只需要执行这行代码,安装 node js 就 行。 等待安装完成,我这里先快进了。安装完成后,我们来检查一下 note 版本,我这里是二十五点八版本。再来检查一下 get 的 版本,我这里是二点三九点五。 ok 环境打好地基后,我们现在就要把 oppo cloud 的 程序搬进你的 mac mini, 让它跑起来了。在终端粘贴官方一键安装命令进行安装 oppo cloud, 我 这里先快进了,看到这个页面就代表安装成功了。 接着我们能看到安全警告声明,我们在页面按键盘的左右键可以选择,选好 yes 以后回车继续。如果你不小心选择了 no, 退出了配置向导界面,别怕,可以执行这行代码,重新进入配置向导,下面选择 quick start, 快 速开始回车。 来到模型及工商选择界面,也就是给 oppo club 配置一个 ai 大 模型,这里我推荐选择 mini max、 千问、微机流动等平台,因为他们都有额度体验, 每个模型都有差不多一百 w 的 tokens 进行体验。我这里以归机流动为例,来到归机流动的界面,点击侧边的 a p i 密钥新建一个,密钥创建好以后点击复制,我们备份下来后面使用。接着继续回到终端界面,配置 openclaw, 用键盘上下选择 custom provider 回车 自定义配置,回收后在 api base url 这一栏填写归机流动的 base api 地址,接着会询问你想要如何去提供这个 api, 直接选择第一个回车继续,然后我们粘贴刚才复制好的 api 回车,选择 api 接口兼容,默认为 openai compatible, 然后会让你输入 model id, 也就是你要使用的模型。 我们可以回到轨迹流动,在模型广场选择一个你要使用的模型扣的。我这里以 mini max m 二点五为例,复制整个名称,然后回到终端配置界面,粘贴这个模型名称回车,等待验证。看到这个 successful 就 代表成功啦。接着 endpoint id 像直接回车,来到模型别名部分,随意设置一个就行, 到这大模型就配置好了。然后我们会来到选择消息平台界面,在这里我们先选择最后一个,跳过回车,后面再配置这个搜索服务的配置项也是暂时不进行配置,优先跑完流程,等后续你有需求可以再配置。选择跳过回车技能配置项选择 no 回车跳过 来到 amber hux, 第一个火箭是启动的时候自动生成并发送系统环境状态的 mark 档报告。第二个是自动加载指定的本地外部文件, 比如自定义提示词或知识库。第三个是记录所有执行过的指令日记,方便后续审计和排错。第四个是持久化保存对话上下文,让机器人重启以后依然拥有记忆。通过键盘上下键选择,然后按空格选中, 我这里选择全部,当然你也可以按需选择。然后回车就开始安装网关服务了,等到安装完成后,会提示询问你用哪种方式打开它。我们选择 opencloud 的 浏览器页面, 我们现在就可以进行对话学问啦。我这里来提问一下,你好,你是谁?你当前运行在什么操作系统上?进入的是什么模型?你能够干什么?请你详细回答,能看到他正常响应了我们的问题,给我们进行了详细的回答。 到这里欧盟 club 就 配置好了,接下来就只剩下飞书的剩余步骤了,我们首先来到飞书开放平台,先登录,然后进入右上角的开发者后台,接着点击页面上的创建企业自建应用,需要填写应用名称以及应用描述,随意填写就行。然后图标这里你可以上传一个你喜欢的头像, 背景颜色,也可以自定义。设置完以后点击创建,创建完成后会自动跳转到机器人详情页面,然后点击添加应用能力里面的机器人添加。 转到机器人菜单后,再如何开始使用部分,点击编辑按钮,设置一个机器人的名称,完成后点击保存。然后我们打开左侧菜单栏的权限管理,在这个页面点击批量导入粘贴这段 jason 配置一键导入所需权限,文字版教程我已经放在评论区了,粘贴记得一键三连自取哦。 粘贴完成后,点击下一步确认,然后点击申请开通,继续点击确认。好了,现在权限设置也基本上设置完成了。 接着来到左侧菜单栏当中的凭证与基础信息,点击 app script 复制按钮,恢复密钥,回到麦克迷你的终端界面,输入这行代码,我们来配置,选择消息平台页面,这里选择 yes, 然后渠道这里我们按上下键选择飞书回车, 接着选择第二个使用内置的飞书插件回车。我们稍等一会,他会问你怎么提供密钥,我们选择第一个,然后将刚才在飞书上复制的 app 密钥粘贴到终端上面回车。 继续回到飞速页面,点击复制 app id 的 内容,粘贴到终端回车,提示客户端准备就绪,就代表连接成功了。接着在接下来这三个步骤里面,我们都选择第一个回车, 然后在配置群聊绘画 id 当中,我们选择不让机器人加入群聊,直接回车即可。后续如果需要添加群聊,可以修改配置添加这一项选择频道,我们选择最后一个 finish, 然后他问你现在配置 dm 私聊接入策略吗?我还是选择 no, 然后他说现在需要将你的飞书账号与后台配置的 ai 角色关联起来吗?我们选择 yes。 接着这一项回车默认看到弹出这样的提示,说明已经配置好飞书了,我们粘贴这行代码,重启网关,使配置生效。 完成以后,我们回到飞书开放平台,点击事件与回调,找到订阅方式编辑,这里默认选择长连接接受时间,点击保存, 点击添加事项,搜索接收消息,勾选上以后点击添加。接着找到版本管理与发布,点击创建版本,填写应用版本号更新说明,像我填写一点零点零,大家都可以随意设置。 然后可用范围这里部分成员后面有一个编辑,如果你需要修改,让群成员也可以用,就编辑,不需要就保持默认。最后点击保存,点击确认发布, 这样飞书机器人就配置好了。接着我们来到飞书官网的下载界面,选择你要使用的客户端进行下载,下载完成后登录到飞书上,应该能在开发小助手当中看到刚才审核通过的机器人,点击打开应用, 接着随意给你的机器人发一条消息,不出意外应该会收到像我这样的授权信息。我们复制机器人回复的消息当中的最后一条回到麦克迷你的终端上进行执行,出现这条就代表授权成功了。 我们在飞书对话进行测试一下,看他出现这个小表情图标,代表机器人已经接收到你的信息了,他正在敲键盘呢。可以看到机器人成功的响应了我们的询问,并且给到了回答,这样 oppo 可乐就成功接入飞书了,接下来我们还需要切换副工具集。 默认情况下, open class 使用抠定工具机,主要包含文件读写、执行命令等基础工具,适合日常对话和编写代码使用。但在实际使用场景当中,抠定工具机可能不够用,比如我们需要发送图片给用户,浏览器控制飞速文档操作等,都需要切换到副工具机才能使用。 所以我们粘贴这行命令来切换,然后粘贴这行代码,重启网关是配置生效,这样就修改好了。好了,接下来就让我演示一下他的玩法吧。我们直接在飞书上和他进行对话询问,让他截一张当前界面的图片,然后发送给我, 可以看到他弹出来一个 node 的 窗口给我,我们打开系统设置,把第一个 node 选项开启,等待机器人回复这里我发现我等了好久他都没回我,我们在终端上打开网关设置,看一下怎么回事,输入这条命令。 哎,我刚打开日,他就回我了,看一下,他跟我说显示的是锁屏界面,需要解锁,这不就是在乱说吗?所以我们还需要再调教他一下,和他说一下怎么截图给我们。我准备了一段提示词, 看可以看到他已经能够成功的给我们发送截图了,现在我们已经测试了,让他发送图片。接下来我们来一个进阶一点的玩法,让他来给我们生成一个 ppt 稿件, 我们来和他说一下,帮我做一个 ppt 主题式迎新活动,要美观好看一点的,大概页数十张左右。咱们稍等一会, 看来又不说话了,我们打开终端粘贴这行代码,让他把对话日期也打开,确认一下他在干嘛呢。这个路径下面就是存着我们和他的对话,还有他在后台默默思考和执行的日记记录。把这个呃的命改成你自己的麦克用户名。看到对话里面写了我电脑里面并没有能生成的 ppt 软件,他帮我直接安装了, 而且现在 ppt 文件已经创建好了,正在转换当中。我这才发现右上角已经有做好的 ppt 了。他回我了,说已经做好放在桌面了,一共是十二页,并告诉我因为我没有装 office, 所以 他帮我转换为 pdf 打开的好细心的小机器人,我们打开看一下,其实还可以, 因为我没有给他太多的详细提示词,可能没那么好看,但是我没有给他活动流程什么的,他还能自己给我写一套, 反正比我手搓的快。我可是没那么多脑洞去想这些,这要是老板突然让你出一样活动,直接把主要时间线扔给他,这不分分钟就完成了。这个还是没有任何配置技能的情况下,用自然语言和他交流完成的。是不是感觉已经很强大了, 还不够让我们再来玩一个稍微更精简一点的?我来问他帮我使用 html 格式生成一个好看的个人作品集,能看到他很快就帮我创建好了, 并且介绍了功能特点,我们打开看一下,还不错,在我没有任何细节指导的情况下,设计的还是挺美观的。如果让我手搓一个这个,我不知道要花多少时间,早知道我把名字也告诉他了,而且这些小标签都是可以点击的,这里我居然还可以上传作品,我来上传一张试试, 很快的就展示出来了,这真的太厉害了,但是还不够,我再给大家秀一个更酷炫的,我让他帮我使用 cpollo 来把这个页面穿透出去, 这样我就可以在面试的时候随时随地打开链接,直接把我的个人站点展示给我的面试官看,能看到他很快就帮我穿透成功了。我们用手机打开看一下,依旧是可以成功访问的,相信大家已经看到了 opencloud 的 厉害了,不希望好不容易在外面想让 ai 干点活,结果内网穿透断线了,对吧? 所以这个工具你必须拿下,后面的教程你必须看在前面。我们已经安装过了 homebrew 包管理器,所以我们直接在麦克迷你的终端上执行这行代码进行安装 coper, 接着进行安装服务,然后启动服务。 然后我们来到 coper 官网来注册一个账号,并且登录完成后,在浏览器输 locos 的 九二零零访问 web ui 管理界面, 输入刚才注册好的 cpl 账号,登录就能进入后台页面啦。到这里就已经可以由 opencll 自行穿透了,但是我来教大家手动穿透,这样我们能更容易的理解和使用 cpl。 我 们继续回到飞出机器人的对话框,让他给我们写一个小游戏界面, 就以大家都熟悉的五子棋为例吧,让我们和他说帮我写一个五子棋小游戏页面,好看点放在桌面上, 稍等片刻,它就帮我生成好一个带有端口的界面了。还有它的一些功能特点,比如颜色主题可以毁齐,还支持手机端自适应。我们打开看一下,一个简洁美观的五子棋小游戏成功生成,我们现在来手动穿透它。回到刚才的 coper web ui 界面,点击创建隧道, 隧道名称自定义本地地址填写八零八二域名类型这里。因为我想长期使用,所以我选择二级子域名。如果你只是为了测试或者非长期使用,也可以选择随机域名,这个是免费的,虽然一样能用,但是他给你的域名是随机的,二十四小时变一次,大家按照自己的需求来选择就行。 接着我们来到水炮的官网去保留一个二级子域名,这样防止被别人占用。点击预留,选择保留二级子域名地区,选择叉 top 名称自定义,点击保留,然后复制保留好的子域名。回到配置界面,粘贴到域名这里后,点击创建。创建成功后,打开左侧的在线隧道列表,就可以看到我们生成了两条二级子域名公网,地址随便复制一条。打开浏览器,粘贴成功,访问今天的。

不会有人真的去花钱安装 open club, 都二零二六年了, 免费的保姆级的,从零到一的使用和安装过程,从准备工作,安装部署,基础配置,所有的内容,怎么样去控制浏览器,包括 skill 技能。这里面每一个里面的都有详细的一个步骤,你只要能看懂中文,按照我文档里面步骤一步一步操作就可以了。 安装这玩意完全是免费的呀,不会真的有人要当这个大冤种吧?需要的话大家可以评论区留言,我免费给大家一份。

这个是搭载了 open 可乐的电脑,这个是飞书,现在我把 open 可乐接入了飞书,我只要在手机上发布指令,它就会在电脑上帮我自动执行。你是怎么实现这个过程的?这个很简单,你按照我总结的思路一步一步去做就能够实现。 所有内容我都放在了这个开放的网页上面,但是在这个过程当中可能会输一些代码,但是没关系,有问题你就去问豆包,要不你还是直接帮我装吧。那我这还有一个简单方法,你直接去下一个 ai 编程软件,如我用的是字节跳动旗下的 tree, 你 直接把安装指令丢给他,全程什么都不用管,但是他跳出任何的窗口,你一定要点同意。 是我还是不明白,我部署 oppo 可乐有什么用呢?那你有没有发现现在连央妈都在直播带货推这个 ai 提效手册?我觉得这就是在告诉普通人,要赶紧去学,要赶紧会,包括前两天国务院发布的人工智能加行动意见也是如此, ai 在 未来是会改变我们的生活方式的。人工智能加 没听说过。那你知道二零一五年国务院发布互联网加行动意见之后发生了什么吗?万物皆可上链接,行动意见里面就明确提到了未来普及智能终端、智能体的几个关键时间节点。也就是说 ai 不 仅要成为大众化的产品,更要在万物互联的基础之上, 让一个人拥有过去一整家公司才能拥有的能力。最近一人公司确实很火啊,好多地方都在支持一人公司创业。一人公司并不是今年才出现的呀,之所以一个人是做不成电商公司的, 你既要会运营,又要会客服,又要会写,又要会说,但是现在 ai 可以 帮你剪,可以帮你说,可以帮你运营,可以帮你看后台。那你觉得 ai 会替代人吗?觉得 ai 会取代人这个说法不太准 确,应该是说在未来很长一段时间内,可能 ai 会取代一部分岗位,但是在这个情况出现之前,首先会出现另外一个情况,就是会用 ai 的 人会把不会用 ai 的 人踩在脚底下。什么意思啊?会用 ai 了不起呗?举个现实一点的例子,一个月大几万的成本 开去了,但其实你用扣子加豆包加引刀,就完全可以做出一套智能客服国产模型,就完全可以跑起来,一台电脑二十四小时都在线。同样是做生意,我成本比你低,效率还比你高,你拿什么都跟我斗?那就所有人都去做艺人公司,你的产品在哪呢?你的服务群体又是谁呢? 我觉得现阶段的 ai 最现实,最能够落地的作用不是让我们凭空的去创造新业务,而是让已有业务实现提质增效、降本。可是有很多案例,人家就是用 ai 找需求,设计产品,完成销售,成功变现的呀。这套流程看起来确实可以轻轻松松用 ai 完成,但其实这中间至少有两个难点。 第一,利用 ai 发掘的需求,真的是用户愿意花钱的需求吗?你必须先测试,先完善,这是成本。 第二,就算是真需求,宣传要不要成本?流量是不是成本?你可以把做产品的过程拍出来,边做产品边做流量,养成一博主吗?思路没问题啊,但是执行起来变数太大了。很多人做这一套,他根本就不是为了做产品, 而是为了借助 ai 起号做流量。所以你还是觉得现阶段 ai 最大的作用就是在已有业务的基础之上实现提效。江门。是啊,我认为我们现在该做的决不是去盲目跟风,但也不是观望啊,要主动去学去用,去跟上节奏,尽可能的让 ai 提高我们做事情的效率, 比如可以让他去完成那些我们不擅长但又不得不去做的事,这样至少就可以保证一个点我们不会被割韭菜。

ok, 接下来我们来从零到一的实操下 openclaw 的 安装、部署和使用。那装之前一定要问自己一句,你想让他帮你做什么?不要盲目跟风。 目前的 openclaw 不 太适合用于生产环境,所以只能算是一个有意思的玩具。如果你有闲置的 mac mini 或者任意一台闲置的 macos 系统电脑,那他们一定是最好的选择。 如果你是 windows 电脑,那也可以,只不过 openclaw 的 生态对 macos 系统支持比较好。那如果你都没有,不建议大家为了使用 openclaw 去买一台电脑, 也一定不要在你日常使用的电脑安装,包括国内各个公司基于 openclaw 推出的一键安装的客户端,都不要在自己日常使用的电脑安装。 如果你实在想体验一把,我们可以花二三十刀,也就是一百来块钱购买一台两合两 g 的 vps 就 可以了。如果你觉得你会长期使用,从而装很多东西,那就买一台四合四 g 的 vps, 大概是四十刀到六十刀左右。哦,对,我说的是一年的价格,非常便宜。那我目前这台 v p s 应该是一个三合四 g 加一百 g 的 硬盘配置,使用的是无斑图二四系统,不是它必须得这个配置,而是我目前只有这样一台闲置的 v p s。 来做演示了。那我之前一直在使用的 oppo cloud 服务,其实是部署在一台两合两 g 的 v p s 上, 没有问题,基本够用的,也装了很多额外的扩展,那目前这台机器的内存占用是百分之四十,此盘大约用了有十五个 g。 ok, 我 们来到官方文档,复制一下安装命令,然后回到终端直接执行, 这里由于要安装一些东西,所以比较慢,大家要等一下安装完成之后,我们就进入了一个引导配置,那这个提示简单来讲就是问此安装是不是你一个人在用?如果是个人用,选 yes, 那 如果你这台机器还会给别人登录,或者是放在公司服务器上,以及要对外公开访问,那就选 no, 我 们选择 yes, 然后选择快速入门。接下来是选择模型厂商这块,根据自己的需求来,他特别需要注意的是,如果使用国产的 mini, max, kimi, 智谱这些厂商,他们分国内版和国外版,那我们这里先选一个自定义的 provider, 也就是自定义厂商,输入我们的 base ul, 大家根据自己使用的平台写就好,但一定要注意,因为我们平常使用可乐扣的扣的 x 去配置自定义厂商,背四幺 l 的 时候一般不用写后面的 v 一, 但 open colle 这里要写。然后回车,我们选择直接粘贴 api k, 把我们的 api k 粘进来,回车短点兼容性,这个看我们自定义厂商的平台支持啥,一般都会支持 opa 这种格式,所以我们直接选 opa 就 可以。接着是模型 id, 如果你是选择自定义厂商呢?模型 id 需要你自己填,那我们这里用 gpt 五点四 回车, ok, 刚我们回车之后,它自己做了验证,那如果你的填写有误,这块会验证失败,那接下来是填的自定义厂商名字, 接下来是模型别名,我们直接回车即可,不用填。然后就开始配置聊天频道了,就是你要在哪个应用上跟你的瞎子聊天就选哪个。那我的建议是能用 telegram, discard 就 用它们,用不了的话,国内最合适的就是飞书,那飞书国内版目前也已经内置在 opencloud 包里边了。既然配置麻烦了点, 目前最简单的消息频道配置是 qq, 但他最多只支持五个机器人,还容易被屏蔽一些消息。那微信的话想要接入就只能走起微了,那更麻烦。 最近腾讯出的比较让人期待的 qq 了,最终走的也是客服消息,而不是给了个人微信机器人号,所以也不推荐。那后面我会使用飞书做演示,其他几个消息频道的接入教程就不在视频里讲了,看视频的附属文档就可以。这里我们先选择跳过 一会再来配置聊天频道。接下来是选择联网搜索的供应商,那如果你有这几家的 api k, 那 就填,如果没有的话就跳过。 然后是配置技能,也就是 skills, 我 们选择否后面再按需安装就可以。其实 skill 为啥出来比 mcp 晚,但是却能盖过 mcp? 我 们在玩瞎子的过程中会有深刻体会, 这一步是在问你要不要起用一些附加小功能。自动钩子,通俗点讲就是当瞎子触发了某个事件时,自动帮你做一些事情,不开也能用。开了只是多一些自动化或者是增强功能。看到的这几项大概可以这样理解, bot md 就是 在 get 位启动的时候自动运行 bot, 点 md 文件,也就是 open cloud, 一 启动就先把你写在 bot 点 md 里面的启动说明,输入法规划 及预设内容读进去可以理解为开机自启动的说明书,那接下来这个是在 agent bootstrap 阶段额外注入一些工作区文件,那官方说明是,当你的工作区里面有多个上下文跟目录,比如 monroe ripple 多模块项目,想要把额外的 agent 点 md tools 点 md 这类文件一起带入上下文,但是又不想改工作器跟目录,那就用它。然后是 command log, 它是记录你执行过的命令,方便排查问题,把所有的命令事件记录到一个统一的日期文件里。 section memory 保存绘画记忆, 就是让他记住这次运行中的一些上下文。当你发出斜杠 new 指令的时候,他会把当前绘画的上下文保存进 memory。 通俗点说,当你打开一个新的绘画时,会把旧的绘画存档,那这些都是一些基础的户客,大家可以根据自己的需求去选,不选也可以,我们这里可以选都勾选上回车, ok, 这就已经就绪了。这一步是在你想用什么方式把下子启动起来。第一个 t u i 就是 在 v p s 部署,所以它是推荐方式,也就是直接在命令行里和它交互,不用开浏览器。 第二个是 web ui, 这是个网页界面,就是启动后用浏览器来操作,看起来更直观。第三个就是不启动之后再说,我们直接选择 web ui, ok, 它让我们运行 dashboard 的 命令来查看这个 web ui 的 服务,我们直接跑一下这个命令, 那由于我们是在服务器上跑 opencloud, 没有 g u i 页面,所以你会看到它让我们在本地使用 s s h 连接服务器内部的一个服务端口,通过这样的方式就可以在我们自己的电脑上访问这个 web ui 控制界面了。我们直接把这一行复制一下, micro s 就 打开 bash item, windows 就 打开 powershell, 然后把这个命令粘贴回车一下,是否继续连接输入 yes, 然后我们输入服务器的密码,回车 密码输入时啥也看不见是正常的,大家只管输入完回车即可,输错了就重新来一遍,只要回车没有报错,那就是成功了。也就在本地电脑和服务器的 opencloud web 服务之间建立了一个隧道连接,然后我们回到服务器终端,我们复制一下这个链接, 打开浏览器,那这样我们在本地电脑浏览器就可以看这个外部 ui 界面了。那需要说明一下,之所以使用隧道的连接方式,是因为这是默认且 opencloud 推荐的方式。当然我们也可以直接将服务器的 opencloud 外部服务暴露在公网上,通过服务器的 ip 或者是绑定域名来访问, 但这样很不安全,如果你需要暴露到公网,那么 opencloud 的 配置力度需要在细上一些,以应对一些安全风险。进入外部 ui 之后,默认就是聊天面板,我们直接发送一个消息, 那如果你的模型配置没有问题,就会收到回复。 ok, 到这里快捷的引导设置就完成了,夹子也算基础部署成功了,后面就是定制化了,接下来我们来配置一下飞书机器人的接入。那首先我们要打开一下飞书开放平台, 这个不需要使用企业飞书,个人飞书也可以点击创建企业自建应用,我们给个名字和描述,然后选一个图标吧。 ok, 创建完了之后,我们就可以看左侧的侧边栏,选中凭证信息,这里的 app id 和 app secret 我 们要复制下来保存好。 ok, 我 们回到服务器的终端面板,输入添加频道的命令,问我们是否配置。是,然后我们选择飞书, 那上面这个是让你重新下载飞出这个插件,但是现在它内部集成了,所以我们直接使用插件路径就可以。 ok, 它让我们填 app secret, 我 们回到飞出平台,复制一下这个 app secret, 回来粘贴回车,然后设 app id, 再复制一下 粘贴回车。连接方式,我们选择默认的 web socket 就 可以,然后非输的域名,那国内的就是 c n 的 后缀。群组的安全配置, 第一个是白名单,只有在白名单内的群组机器人才会回复。第二个是全部打开,机器人被拉进任何一个群组它都可以回复。第三个是直接在群组中借用机器人,那我们选择白名单就可以,由于我们还没有创建群组,我们直接回车就可以,后面有了再添加。 ok, 这样就基本上配置完了,然后我们选择 finish 完成,让我们配置飞书的 dm 策略,选择 yes, 这个策略我们直接全部打开就行,这样最简单。给账户添加显示的名字,然后我们选择 no 就 行,然后给这个账户绑定 agent。 yes, 那 选择 agent 的 时候,它只有一个默认的 man, 我 们回车。 ok, 这样就配置好了,然后再回到飞出控制台,点击权限管理,然后点击批量导入权限,然后粘贴所有权限的 jason, 那 这个大家直接粘贴我提供的这份就好,因为官方文档上面的那份, jason 缺少一个权限,点击下一步确认申请开通,确认 确认, ok, 权限开通好了,我们点击机器人,然后配置一下它的名字, 然后在左侧点击事件与回调,点击这里的订阅方式,然后选择长链接保存。注意这里保存时, opencloud 的 应用程序必须已经配置好了,并且正在运行中才能保存成功。然后我们点击添加事件,直接搜索接收消息,勾选它添加, 然后我们直接点击上方的创建版本,给一个版本号更新说明,也填一下,滑到最底部,点击保存确认, ok, 这个时候我们打开飞书, 那在飞书里面就可以看到一个应用创建成功的推送,我们直接点击打开应用,然后给他发个消息, 当我们收到了回复之后,飞书的渠道配置就已经完成了。 ok, 接下来先不着急,我们先来了解一下 openclaw 的 目录结构。首先你一定要知道一个目录,点 openclaw, 我们使用 cd 命令来进入到 opencloud 的 根目录,然后输入 ls, 看一下根目录下都有什么文件。 opencloud 点 jason, 这是 opencloud 的 主要配置文件,相当于总控面板,大多数的核心设置都在这里,以后也少不了和他打交道。我们刚刚在引导配置中的绝大多数内容最终都落到了这个文件里,那这个文件还有一些,后面带 back, 然后 back 一, 这是配置文件的备份,当我们执行一些修改操作时, opencloud 就 会帮我们把之前的内容存一个备份,避免我们改坏了回不去。 workspace, 它是默认 agent 的 工作区目录,放的是你希望这个 agent 的 长期记住遵守的东西,比如项目文件、说明书、长期规则、人设等等。那 agent 目录, 这是每个 agent 自己的后台数据目录,用来存放这个 agent 的 运行状态、认证配置、绘画记录等内容。官方会把一个 agent 分 成三部分, workspace 用来存放 agent 的 人格以及规则,还有记忆文件。 agent d i r 存放每个 agent 的 状态配置。 session 存的是 agent 的 绘画记录,其中 agent d i r 和 session 最终都会落在这个 agent 下面。那这个目录下面现在只有一个 man, 它是我们在程序安装时的默认 agent, 那 这个名字叫 man 的 agent 对 应的工作区目录就是这个 workspace log 文件夹存的是各类的运行日制,那出问题的时候第一时间看的其实就是这里,尤其是 getaway, skills, hux 相关的错误。 converse, 它是用来规划和编排的临时目录,很多 a 正的框架会把计划任务分解,临时中间产物放在类似的区域,用来支撑一个提示来触发多个模型调用的链路。 on, 它是定时任务与自动化触发的文件夹。 devices, 它是设备与执行环境的抽象层。飞书目录,它存放的就是飞书机器人适配与凭证的相关信息。有这个文件夹是因为我们装了飞书机器人 identity, 它是存放身份与认证的相关目录。 update check, 这是 opencloud 的 更新状态与相关原书记检查的文件。 我们再来看一下 workspace 里面都有啥 agent 点。 md, 这个里面存储的是有哪些代理各自负责什么?相当于岗位的说明书,一个工作规范,也是最重要的一个文件。四五 md, 这里面存放的是瞎子的灵魂设定 u 字。 md, 它存的是你是谁,你的偏好和禁忌,相当于用户画像 tosh。 md, 存放的是它能用哪些工具,怎么用?边界是什么?相当于工具清单。 heartbeat, 这里面存放的是一个自检和状态汇报规则,俗称心跳机制文件,比如启动后该检查什么,多久报一次状态。 bloodstream, 它是冷启动时先读的初步化说明,那我们现在还是一个空的 agent, 还没有产生记忆,如果产生了绘画记忆,这个下面还会有一个 memory 文件夹,文件夹下存放的是年月日点。 md 文件,作为我们每天聊天的记忆存放,那还会有一个 memory 点 md, 存放的是稳定的长期记忆, ok。 在 了解了 opencloud 的 目录结构之后,我们想一个问题,你需要几个 agent 帮你处理事情?一个够吗?可以这么说,如果你觉得够,那 opencloud 对 你来说可能未必是最合适的选择。 用 opencloud 的 可玩性建立在多个 agent 的 分工和协助上。如果只有一个 agent, 你 又希望他同时处理很多不同类型的事情,问题很快就会出现,他的上下文会不断被污染,人设会越来越混乱,记忆也会越积越多,滔滔消耗更是会不断飙升。 更麻烦的是,旧任务留下来的对话和上下文,还会持续干扰他对新任务的判断。所以接下来我们要处理的是多个机器人,多个 agent, 一个 agent 只专注一类事,那既然我们要做多 agent, 每个机器人都是不同的打工人, 所以接下来我们要新创建一个 agent, 我 们输入命令来添加一个新的 agent, 后面的 bot 一 agent 就是 我们给这个新的 agent 的 命名,我这个命名比较随意,如果大家有明确的想法,比如这个 agent 是 做什么的,最好语义化命名,不要用中文回车。 然后它让我们输入这个 agent 的 工作区目录,这里它会给一个默认的,当然我们也可以直接把它设置成 workspace, 这样的话和之前那个工作区就在一个目录下,那两个 agent 就 会共用一个工作区。但是我不太建议这样做, 直接回车就好,你会发现它默认在点 opencloud 目录下给了 workspace bot 一 agent 这样一个目录当工作区。结合我们之前介绍过跟目录下还有一个 workspace 工作区。 现在你回过头来理解, workspace 目录其实就是名字为 man 的 这个默认的 agent 工作区目录。那我们现在新创建了一个 agent, 这个目录就是我们新创建这个 agent 工作区目录,然后我们配置模型选择 yes, 那这个大家应该就比较熟悉了,之前引导配置中第一个机器人瞎子我们已经配置了自定义的 provider, 那 这次就换一个官方的吧,具体看你买了哪家。 我其实哪家都有,但是这里选中 mini max 的 速度比较快,所以这里选中 mini max。 mini max 前两天更新了一部,如果使用它官方渠道作为提供商时, opencloud 以内置工具会自动连接到 mini max 的 vl m api 端点,不需要额外配置。 当我们向机器人发送图片的时候,他就会使用这个工具来理解图片内容,也就是自动连接 v r m api 端点来做图片多模态处理,这点还挺方便的。我们选中 office 授权登录,然后选择 c n, 复制一下这个链接,在浏览器打开,然后授 权好了,然后他问我们还没有创建第二个机器人,所以这里先选择 no, 一会创建完第二个机器人,再把它和这个 agent 绑定, ok, 这样就创建好了一个新的 agent。 我 们再来看一下 agent 目录下面都有啥,可以看到多了一个 bot 一 agent, 然后我们也可以跑一下命令,看一下 agent 列表, 看到有两个 agent, 工作区路径也没问题,这就 ok 了。接下来我们来创建第二个飞书机器人,之前我们已经添加了一个机器人,它挂载的是默认账户,默认 agent, 也就是问这个 agent。 我 们回到飞书开放平台,创建第二个机器人,还是同样的操作, 点击创建企业自建应用名字,我们叫瞎子一号, 然后点到应用凭证,再次回到服务器面板,我们需要来配置第二个飞书机器人账号,那这个配置有点特殊,目前需要单独来改配置文件,没有办法通过命令集成,不过这个官方 e c u 已经提到了,估计很快就会得到优化。我们来看一下配置文件中目前的飞书配置是啥样。输入 cat, 这个就是目前的飞书机器人配置,它只配置了一个账号,我们可以直接在服务器上改这个配置文件。当然也可以简单一点,我们回到它这个 web ui 里面, 直接发送给 opencloud 一 段提示词,我让它根据官方的飞书配置文档帮我配置第二个飞书机器人,然后把 app id, app secret 填进去回车。 ok, 他 说配置好了,让我们重启一下,我们复制命令重启一下,再来看一下这个配置文件。 ok, 这就配置好了。那这里需要注意的是,我敢让他动配置文件,是因为我知道官方文档有这么个配置参考, 也知道他要改的是什么东西,我才会放手让他改。如果你不知道怎么改,直接让瞎子给你改配置,那就把你的 open class 系统生杀大权交给了大模型,你的大模型优质的话,能解锁到相关的信息去修改还好,如果大模型不太行,一旦出现了幻觉,那记记你会更难受,所以还是要尽量避免这种行为。接下来我们回到飞出开放平台,继续之前的操作, 点击权限管理,批量导入,粘贴一下,这个跟之前还是一样的,确认申请开通确认确认,然后点击机器人配置名称, 点击事件已回调订阅方式保存。哎,怎么不对?我们来看一下这个配置哦,这怎么写了两份?这个也是写了两份,我们回过头来看一下给他发的消息, 哦,这里发错了,再来复制一下,这里 app id 和 app security 写错了,给你修改一下。 ok, 这回改对了,刚刚那个给他发的提示词里面的 app id 和 apprecate 写错了,我们再回来点下保存。嗯,这次就可以了,刚好演示了一下,如果配错了,这里保存保存不成功,然后点击添加事件接收消息,勾选添加 创建版本,给一个版本号保存发布。 ok, 看一下有没有推送,打开应用,让我们给他发个消息。 ok, 收到回复之后我们就配置完成了,但是这个时候其实我们还没有给这个机器人绑定之前新建的 agent, 我 们可以通过命令来看一下当前 agent 的 绑定关系。 哎,你看我们新创建的瞎子一账号,其实默认绑定在了 man 这个 agent 下面,那目前这两个机器人其实用的是一个 agent, 我 们可以直接修改这个 agent id 的 名字,那这次我们在 yui 里面修改, 我们在这个 dashboard 里面找到 config, 然后点击 ro, 那 现在这份文件其实就是我们的配置文件,我们拖到最底下,找到这个飞书的配置,这是我们刚刚看的飞书的配置,我们找一下 b 的, 对,就这里我们把虾子一这个 agent id 改成我们刚刚创建的新的 agent 名字。 bot 一 agent 修改好了之后,我们直接点击保存更新, ok, 当它断掉,那就是证明已经重启了, 那等它恢复了之后就重启好了。我们直接回到飞书这里,给虾子一号发送一下,问他一下是哪个 agent, ok, 它已经切换到新的 agent 上了,那到这里我们的多 agent 多机器人账户就配置好了。接下来我们来创建一个飞书群组, 填上名字,飞书群组一个人也可以创建群聊,我们直接点击创建,必须得群组创建好了之后,我们才能邀请机器人进来,点击右上角选择设置,点击群,机器人添加, 选中瞎字添加, ok, 这样群组就创建好了。那由于我们之前设置了白名单,只有在白名单内的群组机器人才会回复,我们现在在群组里面给他发消息,他是不会回的,所以我们要先获取飞书群的 id, 那 获取的方法也很简单,我们回到服务器这里 输入 openclogs 转杠 follow 回车。这个命令是实时查看服务器网址,我们打开网址之后,在飞书群里面圈一下机器人,发一个消息。 ok, 这就可以看到这有一个 group, 后面这个 o c 开头的就是它的群组 id, 我 们复制一下, ctrl c 关掉它,还是直接在外部 ui 里面直接给它发消息,让它去改回车。当然我们也可以直接在飞书给机器人发消息也行。 ok, 已经改好了,我们直接让它重启,当看到它断了,那就是开始重启了。 ok, 恢复了,那就重启好了,我们再回到飞出这里再圈一下它,因为我们设置的是只有圈它,它才会回复 这个图标,代表它已经在输入了。 ok, 这就好了,那这样的话群组就搞好了。这里要特别提醒一下,不要轻易被网上那种一个群里面塞满不同角色机器人组成一个所谓的 team, 大家自己讨论自己工作的演示带偏了,那都是博眼球。绝大多数情况下并不是一个合理的生产实践, 因为在多 a 阵的多角色的设定下,每个机器人本质上都对应一个明确的角色和职责边界。如果你把多个角色的机器人同时拉进一个群里面,让他们同时面对同一批消息,那系统很快就会变得混乱。相对还算勉强可控的一种方式是通过艾特提及的方式来明确指定某个机器人角色回应, 也就是说,只有你明确艾特到哪个机器人,哪个机器人再出来处理。如果不是通过艾特提及,而是群里随便发一条消息,多个机器人都可能响应,那就必须额外做非常严格的路由控制。比如你至少要配置成只有某个特定用户 id 发出的消息,才有某个对应的机器人处理。 但即便如此,我仍然不建议让多个 a 证的机器人同时处理同一条消息并分别回应。因为你一旦这样做,整个系统基本上就会进入一种自由混战的状态,看起来好像很智能、很热闹,实际上很多时候只是无意义的多轮响应和无休止的 talk 消耗。更关键的是,这种模式并不真正符合大多数真实的工作组织方式。 现实里的工作流往往不是让一群角色同时对一个输入各说各话,而是有明确分工、明确入口以及明确的责任边界。哪怕你已经做了限制,比如让机器人只回复某个特定 id 的 消息,这种方案本身也不算理想, 因为很多人类的工作流并不是完全串行的,消息和任务经常会交错出现。一旦多个角色长期混在同一个上下文里,非常容易出现上下文混淆、职责边界模糊、记忆污染等问题。所以更合适也更常见的做法其实是下面这几种,一个机器人对应一个 agent, 一个群组对应一个专用的 agent 机器人, 或者一个主机器人作为一个统一入口,背后有多个专职的 a 政在后台分工协助。这几种方案虽然没有多机器人同群互聊那么有观赏性,但从稳定性、可维护性、上下文控制以及 top 成本来看都会更合理。 当然再往后走,如果你真的想做成多 a 政的协同,那就已经不是简单把几个机器人拉进同一个群里面这么粗暴了,而是需要更高级的路由编排和协助策略。这个话题可以单独展开讲,后面有时间的话可以再开一下 a 政的协同的内容,这里我们就先不展开了。 那到这里,我们其实已经有了两个彼此独立的 agent, 也分别绑好了对应的机器人频道,但目前为止我们还没有给他们做任何的功能增强,也没有给每个 agent 配置各自的身份信息、角色设定 和风格。所以现在这两个 agent 还是两个空壳子,虽然他们已经能独立运行,但是还没有真正形成差异化。那接下来我们就要先给这两个 agent 分 别配置不同的信息和性格, 他们真正区分开来。其实我们前面已经讲过,工作区里的那些文件分别对应着什么作用,我们完全可以直接手动去修改这些文件,给 agent 写入不同的设定,但是这种一方面比较繁琐,另一方面不太直观,所以这里我们换一种方便的方式来做。我们直接打开外部 ui, 那 这个是闷塞审,也就是瞎子那个机器人, 我们直接给他发送一个提示词,你是瞎子,一个赛博打工人,巴拉巴拉一堆,然后我们让他自行优化,并且拆分提示词,将这些提示信息分别写入下面的文件里面。回车, ok, 可以 看到它已经帮我们修改好了,这里它问我们要不要把 bootstrap 删掉,这个文件我们之前有介绍过,它只有在输入话的时候会读,删不删都无所谓。那我们直接在面板里面来看一下这几个文件,点击 agent, 然后点击 men, 然后点到 feel 看一下。哎,你看这里面它的灵魂设定已经帮我们写进去了。再来看一下 user, 可以 看到我的名字也写进去了, agents 点 md 这个文件大家有空的时候可以好好看一下,因为整个 agent 的 运行机制其实大概就写在这里, tools 身份 memory ok, 我 们回到飞书给瞎子发一下你是谁, ok, 这就已经配置好了。那现在我们就给瞎子配置了一些基础信息,我是谁,他是谁,他的性格等等等等, 都是些基础信息,也比较简单,大家可以顺着这个思路自由配置。那另外一个 agent 配置起来就简单很多了,也是一样的流程,这里就不赘述了,大家可以给不同的信息自己玩一下。那接下来我们给 agent 做一些基础能力扩展。首先是浏览器操作,那如果我们有 g y 面板 这块就会简单很多,但是由于我们使用的是无 g y 面板的无斑图系统,所以要稍微麻烦一点,我们需要先手动安装一下浏览器,虽然也可以让 opencloud agent 帮我们安装,但不建议这样做,因为需要给它开额外的高级权限才行。那首先我们需要安装一个 chromeem, chromeem 是 谷歌自己家的正式浏览器, 而 chromeem 是 chromeem 浏览器的上游开源版本。那这里需要注意的是, nipp 版本的自身的沙箱机制会产生冲突,导致 c d p 无法正常启动, 所以官方推荐使用 chrome 的 d e b 包,这是专门给得遍或者是无斑图这类 linux 系统用的安装包。首先我们来执行安装 c d p 连接,就是程序通过 chrome 的 devtools protocol 去远程控制浏览器的连接。 playrite 是 python 的 一个浏览器自动化框架,当我们安装浏览器后, open color 会负责浏览器的接入配置和路由, playrite 负责执行很多具体的自动化动作,而底层的浏览器通信协议走的是 c d p, 这样就形成了 linux 系统上的浏览器自动化。 ok, 下载好之后,我们还需要执行安装 那由于我们使用的是 d e b 的 方式安装的浏览器,这种方式还会缺少一些依赖,所以我们还需要让 app 自动把上一步安装 chrome 时缺失的依赖补齐,并且把包的状态修复到正常状态。我们输入命令回车, ok, 一 切就绪之后,我们输入命令来验证一下浏览器的安装路径,然后检查一下它的版本, 这里输出了目录,并且成功输出了版本号,就安装成功了。然后我们输入命令来验证一下无沙箱无头模式下的 c d p 连接。 ok, 只要出现这个幺二七的监听链接就可以了。下面无关紧要的一些报错,比如 g u i 内部的一些注册服务错误可以忽略, ctrl c 退出, ok, 我 们开始配置 openclaw 使用浏览器。这里我们选择的是命令行配置,那最终也会落在配置文件里,我们直接改配置文件也行。首先我们需要启用浏览器能力, 然后配置一下浏览器的路径,那由于我们用的 vps 没有图形界面,所以我们还需要开启无头模式,还需要关闭沙箱来规避 linux 类服务器或者是容器环境下的权限与隔离限制问题。 最后我们还需要指定一下浏览器的 profile。 ok, 这些都执行完,重启一下 get 位, 重启完成之后,我们打开 web ui, 我 们来看一下这个配置落到配置文件里面是什么样子,就是这段配置。 ok, 我 们来测试一下浏览器输入命令,启动一个浏览器实力, 启动成功之后,我们让它打开一个网页,打开之后我们来抓一下这个页面的快照, ok, 拿到结果就没问题了,我们也可以尝试抓一下这个页面的截图, ok, 如果能拿到快照或者是成功截图,说明整个浏览器的渲染页面打开控制链路基本上都是正常的。那现在就可以在飞书里面给机器人发消息,让他截个图试试了。让虾子一号处理吧,虾子一号用的 mini max, 速度比较快, ok, 给了我们截图,那就是成功了。接下来我们来处理联网搜索。 openclaw 有 两个内置的搜索和爬取的 tools, 分 别是 websearch 和 webflash, webflash 负责实时搜索网络内容, webflash 负责爬取某个网站的信息, 这两个 tools 组合起来就构建了一个实时网络剪索的能力。但是由于 openclaw 内置的 websearch rely brave, 这是一个三方的搜索引擎,如果我们要使用的话,需要额外配置 brave 的 api, 这个是收费的,所以目前联网搜索是用不了的,那我们的代替方案就是使用其他的 search 服务来代替内置的 web search。 这里推荐两个 skills 来配合完成这件事。首先是 tabule 这个 skill, tabule 同样是一个三方的商业搜索引擎,但好在它每个月有免费搜索一千次的额度,所以我们可以放心使用。我们可以直接打开 tabule 的 官网, 然后注册就可以拿到一个 api k 复制下来就可以了。还有一个是 multi search, 这是一个集成了多个搜索引擎的免费搜索服务, 如果它 webster search 的 服务不够用,或者搜索结果少的情况下,我们可以使用 multi search n 这个搜索服务来都抵。这两个 skill 组合起来代替内置的 webster, 安装方式也比较简单,我们可以直接发送提示词给瞎子, 我们让它根据文档自己去安装,安装完成之后在 toast 文件里面明确声明 webster 能力的 skill 使用,最后把内置的 webster 能力给禁用掉。 ok, 我 们来看一下 toast 文件, 哎,可以看到它帮我们把这个搜索策略写到了这个 tos 文件里。装好之后我们测试一下,可以看到这里它已经调用了它为设置这个 skill。 那 如果你不想装两个 skill, 并且想要在企业里部署无限使用 web 搜索能力的话,还有一种方案是在一个服务器上自己部署一个 z r x n g 服务,这是一个开源的原搜索引擎服务,聚合了多个搜索引擎的搜索结果。 安装好之后就可以在 opencloud 安装一个 c r x n g skill 来进行搜索服务的本地调用,可以返回结构化的搜索结果,那 像一些三方的收费搜索引擎,会随着你的搜索偏好提供一个个性化的搜索结果。但 c r x n g 这种则是不关心你搜什么,只通过你的搜索内容拿到各个搜索引擎的结果,打分排序,完全隐私,是一个不错的免费搜索方案。如果你想做任何 agent 缺乏 web search 的 能力,都可以使用它。 ok skills 技能,这是 openclaw 能力的核心。通过上一爬联网搜索,我们可以看出,我们需要通过一个个 skill 来扩展 openclaw 的 能力。 那社区上有上万个开源的 skill 让我们集成。我们可以通过 openclaw 官方的 cloudhub 平台去查找对应的 skills, 也可以通过 github 的 awesome openclaw skill 仓库去查找想要使用的技能。 比如你在做一个企业级的 open class 系统,并且企业委托于飞书办公,那么你就可以搜索飞书相关的 skills, 读写飞书文档,操作多余表格,以及处理一系列飞书的自动化功能。你要是想赛博炒股,就搜索金融相关的 skill 去装。要是想让虾子去写代码,那就搜 coding 相关的 skill, 根据自己的需求去装就可以。我给大家推荐一个比较核心也比较通用的技能, self improving agent。 这个 skill 翻译过来叫自我提升,它的核心不是让模型自己训练自己,而是让 agent 在 运行过程中把错误纠正、知识缺口、功能需求结构化写入 markdown, 再把那些反复验证有效的经验进一步提炼成长期可付用的工作规则。它主要解决的是一个非常现实的问题,很多 agent 在 使用过程中都会不断犯错,有的是命令执行失败,有的是工具调用翻车,有的是知识过时了, 还有的是被用户指出你这种做法不对。如果这些问题每次都是当场改正一下就结束了,那这个 agent 本质上没有真正成长,下一次遇到类似的情况,他大概率还会踩一遍同样的坑。而这个 skill 做的事情就是把这些当场修正变成长期记忆。他的 skill 点 m d 里面写的非常明确,典型的触发场景包括命令或操作失败。用户纠正 agent, 用户提出当前做不到的新能力。外部 a p i 或工具调用失败。 agent 呢?发现自己的知识已经过时,或者在重复性工作里发现了更好的做法,所以它本质上不是在增强模型参数,而是在给 agent 增加一层失败记录,加上经验累积,加上晋升规则的机制。 会先在工作区里面建立一个 learnings 目录,把经验分别记录到三个文件里。 learnings md 记录更正知识缺口和最佳实践。 arrows 记录命令失败和异常。 future request 记录用户请求的功能。他会先把这些经验沉淀成可追踪、可复查、可累积的外部记忆, 然后再进一步把那些已经反复验证确实有效的经验提升到更长期的工作区规划文件里。比如行为模式可以提升到 so 点 md 里,工作流经验可以提升到 agents 点 md 里, 工具使用规则则可以提升到 twos 点 m d 里。写进 linux 目录只是临时记录下来,而提升到这些长期文件之后,才意味着这些经验会在后续的绘画中真正参与上下文变成 agent 的 稳定行为规则。那为什么我会觉得它很核心?因为它其实已经碰到了一件更庞大的事情,那就是怎么管理 agent 的 记忆 memory。 不管你是做个人助手、做工作流 a 证的,还是做多 a 证的协助,如何把错误纠正经验沉淀下来几乎是绕不过去的一件事情。而这个 skill 恰好提供了一套非常朴素但却非常实用的解决思路,它可以为我们后续的记忆治理埋下影子。那安装方式和之前一样,是复制一下这个链接,让 openclaw 自己安装即可,我们就不做演示了。 我们前面提到过, open klo 官方的 memory 记忆整体是偏轻量化的,真正的记忆载体始终是工作区里面的 markdown 文件。也就是说,不管你后续接不接数据库,开不开向量剪索, memory 最终落地的地方依旧是这些文件本身。 默认情况下, open klo 会把这些记忆写到工作区的 memory 目录下面,以年月日这样的方式去存储长期记忆则是沉淀在 memory 点 m d 里。 那官方其实也支持接入 sqlite、 list db 以及像 qmd 这样的增强型解锁后端,但这里一定要注意,它们都不是用来代替 markdown 的, 更多的是承担锁影、解锁、召回这一层的工作。所以你可以简单地把它们理解成三类角色, sqlite 更偏默认的清量级锁影以及状态存储。 list db 更偏向量解锁和羽翼召回。 q m d 则是在解锁层更进一步增强的一种混合解锁方案,它会把 b m 二五向量搜索和 ranking 组合起来,尽可能地把记忆找得更准。所以 markdown 是 记忆本质, circle、 拉斯 d b q m d 这些本质上都是解锁层能力。 也正是因为如此, opencloud 官方的方案优点非常明显,简单、透明、可控。但它的短板也同样清晰,那就是它更像一个基础可用的记忆底座,而不是一套完善成熟的记忆治理系统。在默认方案下,记忆的长期维护更多依赖于 markdown 的 持续写入。 而向量解锁、自动召回、 embedding 配置,这些能力需要额外配置之后才能真正发挥作用。并且就目前来说, opencloud 内置的向量解锁能力本身也有一定的限制,比如它依赖外部大模型 api 提供的 embedding 能力,目前只能配置 openai 和 jimmy。 很多国内用户其实并没有把这条链路真正接起来,而一旦没有接起来, memory 虽然还能工作,但就会退回到最基础的文件读写模式,那这个时候,系统依然会把内容写进 memory 文件夹下的年月日文件作为日常记忆, memory 点 m d 作为长期记忆, 这些文件照样存在,照样可写。只是因为没有 byte 模型,系统无法进行基于向量的语义剪辑和相似召回,更多只能依赖内置的 memory get 这类定向读取具体文件或指定范围内容的方式来获取记忆。换句话说,系统这时仍然能记,但不太会找。 而一旦没有比较强的剪辑能力,问题就会慢慢出现。记忆文件会越积越长,历史内容会越来越多,上下文 tock 消耗也会越来越快,用得越久,你越觉得 agent 变笨了。 因为大模型本身的上下文窗口是固定的,而 memory 如果只是不断累积,没有智力,最终就会从资产变成负的。而关键的是,在这种基础方向里,我们通常没有真正意义上的清洗、压缩、分层、失效和冲突消解机制。记忆会不断累积,但缺乏有效智力。时间一长,优化 memory 几乎成为一个必然需求。 但这件事情也不能一概而论, memory 策略没有绝对最优,只有是否适合当前场景。本地部署更关注隐私可控和低成本, 那云部署更看重接入速度和跨端统一。个人助手则更强调个性化与长期偏好。记忆团队 agent 或者是多 agent 协助,他会更看重权限隔离。项目级上下文既污染控制以及整体的可维护性。也正因为侧重点不同,不同场景下适合的 memory 方案往往也并不相同, 所以到目前为止,这个方向其实并没有一个统一稳定、所有人都认可的标准答案。大多数时候,大家还是需要根据自己的需求、资源条件和技术能力去做适合自己的取舍。 homecloud 的 记忆增强大体可以分成两层,第一层是剪缩增强,也就是让 agent 更容易找到相关的记忆。这部分典型代表就是官方默认的 sqlite 剪缩、可选的 sqlite 向量剪缩以及进一步增强的 qmd 混合剪缩。 那这其中 sqlite 更适合轻量级默认可用的本地锁影场景。 sql 更适合做 in binding、 向量存储和域域召回。 qmd 则是更强的混合剪缩方案,它通常以本地 start 进程执行,再把结果交给大模型做 ranking, 也就是二次重排。这里的大模型 random 可以 把它理解成前面,尽量多召回一些可能相关的内容,后面再让大模型重新判断哪几条和当前问题最相关,把它们排到更前面。 所以 qmd 的 价值主要体现在,当记忆很多,认知很多、表述又不统一的时候,它能明显提升召回精度和解锁质量。但也要明确一点, qmd 解决的是怎么找的更准的问题,不是怎么把记忆管理的更好的问题, 也就说它的强化是剪缩层,而不是记忆治理层。如果底层还是无组织的 markdown 文件,那么事实变了,依然可能直接覆盖知识写进去了,也未必经过结构化整理。那长期下来,知识是否真正能沉淀成稳定可赋用的 memory 资产, 是取决于你上层怎么治理。第二层才是记忆治理增强,也就是在能找到的基础上,进一步解决怎么记记什么、怎么压缩、怎么氧化、怎么避免污染这些问题。这部分常见的思路大体可以分成几类,第一类,单文件增强。最直观的方式就是通过各种策略,把重要的信息都不断追加到 memory 点 m d 里。 这种方案的优点非常明显,简单直接,几乎没有额外的系统复杂度。你不需要引入新的数据库、解锁服务或者是后台进程,只需要让模型持续地往 memory 点 m d 里面写就行。但问题也同样明显,随着时间的推移, memory 点 m d 会越来越长,文件不断膨胀,信息密度也越来越低,查找的效率也会越来越差。 第二类,自动记忆管理。那第二种思路是做一套自动记忆管理机制,比如通过定时任务,每隔一次 session transcript 自动提取大模型认为重要的记忆内容, 然后按天进行定时压缩归档,持续维护到 memory 点 m d, 减少人工的干预。那这种方案比起单纯追加文件更进一步,因为它开始尝试怎么解决记忆越来越多怎么办的问题,而不是让系统能记住,还开始试图让系统自动整理记忆。但 这套方案的问题在于,我们其实很难知道它到底记住了什么,以及为什么记住这些内容。因为重要这件事本身是由大模型来判断的,而大模型判断的重要性未必和人真正关心的重要性一致, 哪些该保留,哪些该忽略,很多时候并不好对齐。那另外,这类方案常见的时间线压缩方式,比如按天、按周去归等,虽然可以控制体积,但也会带来另外一个问题,事实变化的历史容易被抹平。 举个例子,一个项目原本是进行中,后来变成已完成,在压缩归档之后,旧的状态可能直接被覆盖掉。最后你看到的是一个更新后的结论,但中间是怎么变化过来的?这段过程信息可能已经丢了。第三类是日制流加上剪索增强。那第三种思路是依赖每日的日制,再加上 memory search, 然后再配合更强的剪索后端来工作。 这种做法的核心很简单,每天持续的写日制,把记忆沉淀在日制流里,真正需要的时候,再通过 memory search 去做剪索,把相关内容找出来。 如果只是默认解锁,这更像一种可搜索的流水账。但如果配上 l s d b 或 q m d, 体验会好很多,因为搜索会更准,召回也会更稳定。它的优点是实现简单,维护成本低,几乎不需要额外的治理策略。 你只需要保证日制的持续写入解锁链路就能跑起来,整个系统就能工作。但它的问题在于,这依然不是一个真正结构化的埋木尔系统。随着日制的不断累积,搜索结果里的噪音会越来越多,相关性也会越来越不稳定。 同一个事实可能分散在几十个不同日期的日制文件中,模型每次都要从这些零散的片段里面重新拼装上下文,这样既浪费 talkin, 也难以形成稳定的知识沉淀。所以这种方案虽然能用,但更适合清亮场景,不太适合长期高密度、需要持续服用的知识系统。 那第四类是外接完整的记忆系统,那再往上走,就是把 open cloud memory 增强做成一个独立的系统,或者直接接入第三方平台。最省事的一类做法就是直接集成第三方平台提供的商业 memory 方案,比如 my machine、 open cloud super memory 这类项目, 本质上就是把 memory 的 存储、召回、管理这些能力外包出去。他们的优点是接入快,上手简单,但代价通常是依赖外部平台,灵活性和口控性相对有限。而如果不走商业平台路线,社区里也有一些重型的增强方案, 比如结构化抽取、分层记忆、长期生命周期管理,甚至是主动式记忆系统。这类方案的能力更强,但接入和维护成本也更高,更适合那些已经明确要把 openclaw 做成长期运行的 a 政策系统的人。比如 memory labs db pro 这个项目就很不错,大家有兴趣的话可以去尝试一下。那如果有更好的方案,也可以评论去分享一下。 ok? 在 了解了概念之后,我们应该怎么处理自己的 openclaw 的 时候,其实并不清楚自己真正需要的是什么, 你是想做一个本地的个人助手,还是想做一个长期运行的 agent? 你 更在意隐私成本还是召回效果进行上线?这些问题如果一开始都没有想清楚,那你过早的去折腾 memory, 最后大概率只是在增加记忆系统的复杂度。 所以在这个阶段,你只需要先意识到 memory 确实是个问题,但不用着急,现在就把它彻底解决。对大多数人来说,先用 opencloud 默认的 markdown 策略做基础处理其实就已经够了,先跑起来,先用起来, 先观察自己的实际使用过程中到底会遇到什么样的问题,这是比一上来就追求高级记忆架构更重要的事情。等到什么时候,你真正开始觉得你的瞎子变傻了,记不住了,照回不准了,上下文越来越贵了,那时候再回来处理这个问题反而是更合理的。 因为这个阶段你已经不是在想象问题,而是在面对真实问题。你会更清楚自己到底缺的是更强的解锁能力,更好的记忆治理,更低的 top 肯消耗,还是多 agent 多场景下的隔离能力。 到了那个时候,你再根据自己的需求,参考前面提到的几类思路,去找到对应的开源项目,逐步尝试优化和治理自己的 memory 系统,会更具针对性。这其实是一个很正常的学习路径,先用默认方案建立认知,再在真实问题里逐步升级,而不是一开始就试图设计出一个完美的记忆系统。 而且说实话,现在这个阶段想一开始就把 open cloud memory 做的非常完善,本身也不太现实。因为目前不管是官方方案还是社区里的各种增强路线,都谈不上稳定统一,没有明显的缺陷。 到目前为止,我还没有看到一个真正能够让所有场景都满意的通用优质方案。很多方案都能解决一部分问题,但同时也会带来新的成本和新的复杂度。所以与其一开始就幻想把这件事一次做对,不如接受一个更现实的结论,慢慢也是一个随着使用过程逐步治理的问题,而不是安装 open class 就 能彻底定型的问题。 当然,从更底层的角度来讲,哪怕你把 mac 策略设计的再漂亮,也依然避不开一个根本限制。大模型的上下文长度始终是硬约束。也就是说,很多所谓的记忆增强,本质上都是在有限的上下文窗口里,尽量让系统记得更准一点,找的更快一点,浪费的更少一点。它能改善体验,但是很难彻底消灭限制本身。 ok? 朋友们,如果你看到这里还没有放弃,那么看起来你是想认真玩一下 opencloud, 那 这种情况下,每个工作区的备份将必不可少。这是为了防止你悉心呵护的瞎子突然发疯干掉了自己,或者是某些改动不想要了,你想回滚? ok, 备份的方案也很简单,走 github 备份。首先为了安全,无论你有没有 github 账号,我都建议大家注册一个新的 github 账号。我们直接打开 github, 点 com, 然后点击注册一个新的账号,这个流程比较简单,我就不说了。那账号注册好之后,我们就可以回到这台服务器的终端操作面板,运行一行命令来生成这台机器的 s s h k, 注意这里的邮箱要换成自己 get up 的 邮箱,一路回车就行。 ok, 运行命令,我们查看一下公告内容,我们先把输出的这行公告全部复制下来, 然后回到 gethelp, 点击右上角的头像,点击 settings, 然后在左侧选中 ssh, 点击新增一个 sshk, 粘贴进去,给一个名字创建。 配置好了之后,我们点击 github 导航栏右侧的加号,选择创建一个新的存储库,那这个仓库其实就对应了一个工作区,所以这个名字我们以工作区名命名。那前面的 r n 三是我这台服务器的缩写,因为我在多台服务器部署了 opencloud, 加上服务器代号更清晰一点。后面的 man work space 代表默认的 agent 工作区, 当然你想叫啥都行,但是我建议有意义一点,不然后面工作区搞多了不好找。还需要注意的一点是,我们这里要选择私有, 这样你的这个项目就只有你私人可见了。点击创建,这是一个空的项目,创建完成之后就会自动跳转到项目页面,我们切换到 s s h, 然后把这个仓库地址复制一下,当然下面这个绑定以及推送的命令我们也复制一下,后面会有用。然后我们回到这台服务器的终端控制面板,来配置一下全区的 get 用户名和邮箱。 配置用户名配置邮箱,注意这里的用户名就写 github 注册的账户名,邮箱就写 github 的 账户邮箱即可。配置完成之后,我们输入命令检查一下, 那这样就配置好了,我们直接回到 web ui, 给瞎子发一条消息,让它绑定并且推送。注意一定要选择 men 这个 agent, 因为我们目前配置的是 men 这个 agent 的 工作区备份,直接输入提示词,那这里的命令就是我们刚刚在 gitup 复制的命令。直接回车, ok, 这样就已经推送好了。我们回到 github 刷新一下页面, ok, 可以 看到工作区已经同步过来了,我们还需要给工作区配置一下,让它每轮修改后都提交代码并推送远程。像这样的固定流程,可以直接加到 agent 点 m d 文件中,那如果你不会写,也不知道要加到哪个文件里,你就可以这样问,直接给瞎子发送一段提示词回车, ok, 等它执行完提示词,就帮我们追加到了 agent 点 m d 文件里,那由于改了文件,这次变更它依然会帮我们提交到 git 仓库,到这里我们的工作区备份就做好了。后续如果你的工作区被删除干净了,或者需要迁移, 直接把仓库地址给到 opencloud, 让它恢复就好。 opencloud 的 每个 agent 执行过程中的持久化产物都会放在工作区,所以你可以随时在 github 仓库在线查看你的工作区文件内容, 甚至也可以直接在 github 在 线修改你的工作区文件,然后提交,那提交后给 opencloud 对 应的 agent 发消息,让他拉取一下最新代码,就可以直接应用了。修改工作区文件是不需要重启网关的,那我们有几个工作区就创建几个仓库即可,这里我就不重复了。工作区的这份 agents 的 md 文件建议大家有时间的话,就一定要看看 大家在安装的过程中有什么问题,或者是有什么花里胡哨的报错,可以直接发送给 ai 去问。我们实操的过程中,你会发现,有些是去服务器中的面板自己操作指令,有些时候也会在 opencloud 的 机器人聊天窗口上的操作。那为什么不全都让 opencloud 自己运行安装或者修改配置呢?原因有几点, 第一,有些命令他自己也跑不了,权限太高也不安全。第二,他的系统提示词太长,执行起来有点慢,还不如问外部的 ai, 然后自己去执行,更速度一点。 三、我们在做的是一个高度自制的 a 证的系统,如果我们完全不熟悉,是玩不起来这个 a 证的系统的。所以这个边界在哪儿?我的看法是涉及到一些 skill 安装或者是工作区目录下的内容,编辑可以给到 opencloud 去做,但涉及到系统层面的,哪怕可以让 opencloud 去改, 你也得知道它具体是改了啥,不然挂了你都不知道怎么解决。还有一个操作是直接在服务器上安装一个 cloudcode, 让 cloudcode 作为外部 ai 工具介入去修改配置文件,降低我们的操作复杂度,甚至可以创建一个专门用于编程的 opencloud 机器人, 但让这个机器人操作 cloud code 去完成编程任务,而不是他自己去完成编程任务。因为 cloud code 是 一个干净稳定的 ai 编程 agent, 是 一个非常优秀的 ai 编程产品。 ok, 本期视频到这里就结束了,真的是啰嗦了太多东西,原本我是不想录这期视频的,虽然我也是一直在有用 open cloud, 但由于上不了生产,对我来说它更像是一个学习样本,一个玩具, 互联网真的把它吹的天花乱坠。那最近估计你又会看到大量的第一批跟风体验 open club 的 人的反馈,一定有很多人态度转变,开始吐槽他,真的是很无语。所以大家要理性看待这件事情。 ok, 感谢大家的观看,相关的文档可以在评论区或者是私信找我要。那觉得不错可以参联。谢谢大家,下期再见。

这是我一人公司的几个 ai 智能体,现在已经全部到货了,我这原本的两台已经完全不够用了,我买这么多 mac studio 做部署本地大模型, 你知道是为了什么吗?之前这个是二百五十六 g 显存的 mac studio, 这个性能其实已经非常强了,但是我发现在用 opencloud 的 时候,我有很多个 agent, 有 我的 ceo, 财务主管,还有运营总监、设计师等等,他们全部都在这一台 mac 里,那就会导致我这个大模型的压力非常大。就算我有二百五十六的显存, 但是它的内存宽带已经限制住了,所以我安排这么多的 max studio, 就是 为了让每一个智能体都能有一个独立的大佬,而不是共享。那我有五个大佬,加上之前的两个,七个大佬去帮我完成很多的工作,那他们可以做什么呢?像做视频, 做设计,整理财务报表。但这一切我只需要给我的主 agent, 也就是 ceo 去发号施令,那他就可以去控制我其他所有的 agent, 让他们各司其 并且二十四小时不停歇,给大家分享一下我是怎么配置的。因为达新出的这个太阳模型,它的能力是非常不错的,我准备用它来去做我的 ceo 的 大佬,千万的这个 code 三的这个模型负责编程,那这个 mini max 的 文案润色呀,各方面都非常好,所以 运营总监我就准备用 mini max, 但是这个模型的数据量是非常大的,直接占用了一百三十多 g 的 容量,是一个一百八十 g 的 模型,所以我会用二百五十六 g 的 这台设备去跑 这个 a 证,然后我会用其他的这些去做我一些零散的工作,比如说像这个千问三的 vivo 八 b, 就 可以在这个三十二 g 的 mac 上,因为它主要是用来分析图片,像小红书啊、抖音啊以及各种咨询,用它就足 够了。还有像 g p t 一 百二十 b 的 模型,它的逻辑性是非常强的,它就需要用六十四 g 的 设备去跑,用这个模型去分析一些财务报表、股票信息、黄金等等都是没有问题的。所以这七台设备去跑不同的模型,所有的设定全部都会设置好。最重要的是这一切 全部都是在本地,完全不用线上的 a p i, 也不用付费 token 的 消耗。就算所有这些大模型,像千万 g p t 这些全部倒闭,那这些模型也会永远为我服务,这种拥有感和体验感才是本地模型的魅力。配合上 opencloud 一 人公司就能直接开张了。

啊,我的电脑装不了小龙虾。 opencloud 对 macos 的 要求是十二点零,我查了一下十二点零对硬件的支持,直到二零一五年早期的 macbook pro, 而我这老爷机 是二零一三年的。完犊子啦,白白升级啦。

你是不是也经常听到别人说安装了 openclaw, 感觉自己也没怎么使劲用,结果一个月的账单就是几百美金甚至上千美金,很多人第一反应是偷工太贵了用不起。但是真相往往是你把计费模式给搞错了。今天我就把 openclaw 里面最容易搞混的两个部署方式讲清楚, oof 和 api key 用完你就知道为什么同样在用 openclaw, 有 的人稳稳一个月几十美金,有的人直接爆单上千美金。 先讲本质区别,你可以记成一句话, os 更像是包月套餐, api key 更像是流量计费,如果你没有设置上线的话,它就没有上线。 os 的 全称是 open authorization, 意思是授权登录。在你部署 open cloud 的 时候,有几家大模型公司都是允许你用 os 来关联你的账号。比如说 open ai, 如果说你有叉 g p d plus, 也就是那个二十美金的会员或者是两百美金的会员的话,你大可以使用这个二十美金或者两百美金的会员来使用 openclaw, 那 么你一个月的使用上限就不会超过二十美金或者是两百美金,不管你是用了哪个会员。再比如说 google, 现在你在 openclaw on board 的 时候,你还可以看到 google 这里也允许 off, 但是据说这个不是官方允许的,所以它不稳定,不确定在我这个视频发布过去一段时间,会不会这个功能就没有了。但是 open ai 这边是可以的,毕竟 open ai 跟 openclaw 现在已经是一家人了, cloud 是 绝对不行的,它就只能让你使用 a p i t 去使用 homecloud, 那 么你的账单就有可能很贵。为什么说使用 off 能够省钱?是因为你本来已经给 open ai 交了订阅费,那么你日常的这些跟 opencloud 的 交互呀,调 agent 啊,反复试错啊,那你所有的消耗呢?都是算在你的 这个二十或者是两百美元的这个订阅费里面,你的账单就不会超。那 off 的 这个路径适合什么人使用?如果说你每天是高频写内容,写代码,调流程,跟 agent 长时间的来回互动,也就是说你是本人在前台不断地去跟 agent 的 对话去调用,那么你就优先使用 off。 那 apikey 又是什么?为什么很多场景大家会用到 apikey, apikey 呢?是你在平台的后台去申请 apikey, 拿到的一串很长的英文字母和数字结合在一起的一串像密码一样的钥匙。如果说你在部署 opencloud 的 过程中,在选模型的那一步 是直接用 apikey 去关联 opencloud 的, 那么你使用 opencloud 的 过程中的所有使用全部都会根据你的 token 使用量来计费。这也就是为什么有些人他的账单非常惊人,几百上千美金。那这么说 apikey 就 很坏,大家都不应该用吗?不是的, apikey 的 优势不是在于它便宜,而是在于它可控,可以审计,可以扩展,你可以精确地知道自己每一个任务花了多少钱,你也可以去设置你的 apikey 使用量的预算上限。一句话,如果说机器自己在后台干活,那么你就首选 apikey。 比如说前段时间我部署上线了一个网站叫 covermagic dot site, 这个网站呢就是可以给大家去生成视频封面的,那在用户,不管是我还是其他的用户,在使用这个网站的时候,就会调用我后台的 google 的 gemine 的 apikey, 那 每一次的调用呢?都有每一次的花费,没有调用的话就没有花费。我也在 google 的 后台设置了每个月使用这个 apikey 的 上限,以防我的信用卡被刷爆。所以如果说你是做了一个下数软件给到客户用,如果说你每天有很多定时的自动化的工作,那么这种自动化的自动执行的工作 后面也应该是关联 a p i t, 因为这些都不是你本人在跟 ai 聊天,而是 ai 在 自动帮你跑任务。如果在这种场景下使用 off, 那 么无论是在稳定性上还是合规上,还是成本上,后面都会出问题。所以呢,这样的场景就是一定要用 a p i t 给大家一个最实用的落地建议。对于你日常的工作跟 ai 的 对话,让他帮你干活儿。这个场景呢,咱们使用 off, 那 你可以使用叉 h b e 的 会员,你可以使用 google 的 会员,这个呢,待定。然后如果说你是使用像 mini max monoshala ai, 或者是像智普 ai, 它们都是有自己的 coding plan, coding plan 呢,相当于是流量包,每个月呢,你有多少个 prompt, 或者你能使用多少 token, 你 不会是完全按 token 来计费,然后你的这个成本你知道是有一个上限的,你不会超过它, 如果超过他们,你再去买更高一级的会员,更高一级的 token plan 就 好了。但是对于已经上线的产品和你需要定时定期去自动化在后台运营的批处理任务这种场景呢,咱们使用 a p r key 配置好预算,上线设置好成本的预警,以防超标。你学会了吗?我是发力,我只分享有价值的思考。

macbook neo 我是 本着把它当做一个即刻玩具的想法购买过来把玩的,就也没有用不同的使用场景专门去测试它的性能。这也不是一期分享电脑性能的视频,我有日常工作去完成复杂项目的电脑,所以本身来讲, macbook neo 在 我这是没有很有价值的 使用场景了,但还是被这个外观所打动,或者什么原因,我希望它能够成为嗯,可以运行一些比较清亮的有意思的东西,成为第二台电脑这么一个角色。就比如说,我在购买之前就觉得这样一个便宜的电脑,然后再加上它是 macos, 拿来跑 open call 好 像还蛮合适的,这几天使用下来也确实。呃,验证了我的想法吧,它确实挺适合拿来去跑 open call。 大家应该也看了 a 十八 pro 用了 iphone 的 处理器的这一台 mac, 它的性能表现怎么样?呃,我稍微再提一嘴吧,以防你不知道。就是它的 cpu 性能 其实和 m 一 芯片是差不太多的,你可以把它就理解为阉割了 gpu 的。 呃,一台 m 一 电脑运行 opencall 又不吃 gpu, 所以 就是可以去放心去选择。呃,这台 h 八 pro 也许换一个角度就是,如果你现在拿一台电脑来运行 opencall 能够做出来最有价值的项目, 呃,都不怎么消耗电脑自身的性能。嗯,如果你给他一个非常复杂的任务交给他来做的话,狂烧 token 不 说也 不一定能做好。所以就是还没到你需要给 a 阵的一台很强大的电脑的时候呢。对我的价值来讲就是一台性能不用特别强,便宜一点的电脑运行 open call 去尝试摸索看。 呃,能运行出来什么?多去了解一点东西。呃,重点就是放在养龙虾这个养字儿上。这期视频属于永无吃亏系列,也贴近一下主题,和你一块分享。 macbook neo 加上 open call, iphone, 还有这个 metal ribbon display 这个智能眼镜,和你分享一下我是怎么玩的。 openclaw 让我觉得有点意思的就是和传统对话式的 ai 不 太一样,他终于可以 稍微干一点事情了,更偏向于一个电子员工的角色。你就像一个老板,你可以拿着手机和他和你的电子员工对话,告诉他做些什么,他也能够向你汇报。我选择的是 whatsapp 作为和他对话的工具,是因为我有日常佩戴和使用这个 metal ribbon 的 智能眼镜。 那这个智能眼镜就可以使用 whatsapp 来和你的 opencall 发信息。呃,会更方便一些,不需要你每回都掏出手机来,让我也觉得身边的设备都可以大的小的配合起来。 嗯,还是蛮方便蛮帅的。你只需要和 meta ai 说, hey, meta send message to opencloud on whatsapp say hi message to opencloud says hi ready to send send sending message 这个状态下你只能够说英文,对我来讲就不是很方便,不过也是有解决办法的。你可以用 whatsapp 的 voice message 语音信息的功能。 hey, meta send a voice message to openclaw with whatsapp voice message to openclaw on whatsapp recording now。 嗨嗨,你好啊,那这时候你说任何语言都可以了,是因为它会把你说的话给录音下来来发送给你的。 open call 这一系列操作在这一款 metal ribbon display 这个型号上还会更加方便,是因为它是有一个小窗,在这个位置你可以看到 ui 界面,它是有专门的 whatsapp 这个 app 的, 在这里你就可以通过配套的机电手环来去控制 u i 选择啊。语音信息, voice message, 或者说直接 dictate, 我 来展示一下,画面会稍微有点闪烁,可能是我相机调的问题,就担待一下。我在这边打开 whatsapp 给 open call 发信息, 选择 voice message, 上网搜索一下关于 macbook neo n e o macbook neo 它的所有的亮点啊,汇总一下到我的 apple notes, 顺便再发一个 message 给我。 因为在这之前我清空了对话,所以说速度还是稍微会快一些的。现在他已经把 apple note 建立好了,我来瞅一眼。有看到在备忘录这里他刚整理的 macbook neo 的 亮点汇总,看有售价,芯片显示, 外观,颜色、电池, apple intelligence 啊,还提供了消息来源啊。可能还是调教方面的问题吧。他并没有发到我的 message, 我 再试一遍, 你还得再发一份到我的 m s h, 这一点你没有做哟,有了,他发过来了,在手机上我就可以看到刚才他发给我的 m s h 啊。我觉得更有意思的是,你可以配合这个手环来去书写文字啊,准确来说是书写字母,它不支持中文,你就是手在一个平面上来去书写字母。当然我试了试的是用这个来写拼音啊,给 open call 他 也还是能够看懂的。 说回发语音信息的方式的话,那么 open call 收到的就是一段语音信息,一个录音嘛,那这时候 open call 就 会检测这是一段语音信息,就会去调用你电脑上面的 whisper 工具。呃, 这是需要下载的,那这个 whisper 工具就会去自动检测你这一段话是什么语言,然后按照这个语言把文字给提取出来, 就是语音传文字的这么一个功能。但是这个算力的话是需要靠电脑本地来运行的,我也尝试了,速度还是还是可以的。我就有用这一系列的功能,在闲暇时间去调研 open call, 做了一个基于 note 开发环境开发出来的小游戏,你可以看一看。这个项目不算复杂,给我更多感触的是 在使用这些设备的时候,比如说遇到 bug, 我 需要修改,不需要专门去调调出来那个 opencloud, 呃, web ui 直接在眼镜上语音信息,就像发给你自己员工一样,告诉他问题出在了哪里,他会自己去分析进行修改。在猜数字游戏里有一个 bug, 你 去摁那个数字,会出现两遍。 呃,这个问题你修改一下,我也试了更复杂的项目,这是让我总结出来,你不适合给 open call 一个性能超强的电脑的原因,就是让他剪视频,他真的剪不好,也许是我的 skills 用的不对,我不太清楚。当然,如果在这种项目上你太较真的话, 那是一个狂烧偷啃的活。比如说我有试到让他给一个视频进行口播配音,他却调用了呃,在 apple 系统内的文本朗读功能,他生成出来的文本交给这个功能朗读出来,他把朗读进行录音,作为视频的口播部分。虽然在第一遍的时候,他弄出来的那个口播, 嗯,很奇怪,叽叽哇哇的都不知道在说什么。我让他来进行修改,问题依旧反复反复的,后来我就稍微有点带情绪了,说,你自己听一听这是什么东西?那你猜怎么着?他就调用了一下 whisper 去专门识别那一段音频, 他可能也是检测不出来那是什么语言什么内容,才回过头来重新去找问题出在哪。最终的问题好像是他调用的那个语音模型。不对,那不是针对于中文的语音模型。不过最终问题还是解决了。但更蠢的就是, 因为我有去规划这个视频的长度应该是在多少吗?他不会把那个文本用那个功能朗读出来之后发现,比如说过长过短,他去增加或者说删减内容。而是他发现,哎,这个音频录出来大概是二十秒不够, 怎么办?他拖慢语速交互方式彻底核心 通过降低语速来达到那个时间。然后我告诉他了,提炼了他一下,他生成了很长的内容。发现,哎,时间又长了。他发现我需要六十秒,在这个六十秒加长而至。最终的效果是这样,是处理多个应用窗口,还是享受沉浸式的观影体验?一切都触手可及为生。 当然,如果我花点耐心,它是完全可以做好的。但,呃,在实用方面来看的话,完全没有必要。这狂烧 token, 它做的还远不如我。这也证明了我所说的,你没有必要现在给它一个性能很强的电脑。所以就现在看来, m 四 m 一 还是 h 八 pro, 这并没有那么重要。或许再简单一点呢?我有让他帮我从美国的苹果官网去下单一个礼品卡,这当然需要我把相应的信息给他。收件人,发件人的名字还有邮箱地址, 他倒是可以进入到正确的网站,把正确的信息填到正确的位置,但这个效率实在是太慢了。之前的话,我是有试过 openai 的, oculus 那 个 ai 的 浏览器, 他是效率还不错,正确率也很高,就完成了。那把这个活放到 open call 上的话,你需要有专门针对于这个使用场景的 skill, 他 依靠这个 skill 来去操作网页,查看网页,把相应的数据来分析要填到哪个位置。这当然没错,但有一点我发现还是难为他了,就是再去 让他去选择给这个礼品卡要留言还是不留言的时候,他要通过截图的方式来去查看,然后再分析鼠标事件,让鼠标点到哪个位置。 反复了好几遍,它还是没有成功。即便看起来很简单的一个活原理我们都懂,但它就是干不好,很多项目都类似于这种,还不如自己去写一个自动化,来去运行,还不少 token。 所以 就现在看来,不要被网络洗脑,不要太理想化,就把它当做一个玩具,预期值降低再降低。 如果你感兴趣的话,就是选择一个性能不怎么样的电脑来去运行就足够了,来尝试尝试。你现在就算给它 m 四 m 八,它都只能运行成这个样子,这和这台电脑它本身的性能是没有关系的。再次验证那个点吧,这台电脑来去玩玩 open call 很 合适。那总个来说,真的就没有一个更契合更有实用价值一点的实用场景吗?呃,我体验这么多天下来 确实没有,但倒是有一个可能。还有一点意思,就是每天晚上八点,让它总结这一天的 top 十,把它用 ms 整理一下发给我, 你可以看看。这是这两天的每一条的话都有三四句话的介绍,我觉得算是一个稍微有一点用于一点价值的项目 吧。 ok, 那 以上就是所有内容,希望你会喜欢。我更想听到是你是怎么使用 macbook neo 的, 你用 opencall 又做了什么,也许能够给我一些提点啊。欢迎在视频下面留言,这里是藏。恩,我们下期视频再见。