其实很多人画 pcb 都容易陷入一个误区,觉得只要线连上,器械摆对就能用。但真正做过产品的都知道,布嵌规则才是一块板子稳不稳定,抗不抗干扰, 能不能量产的关键。今天我就用比较实在,不绕弯子的话,跟大家聊一套通用实用、能直接照抄的布嵌规范。首先最基础的数字信号,比如 gpio、 串口、 spi 这些, 线宽做到零点一五到零点二五毫米就足够了,不用太宽,也别卡着工厂极限去做,留点余量生产更稳定。间距也是同理,常规保持六英里升以上,保证绝缘和安全,避免短路连系,也能减少信号之间的串扰。 但电源线思路就完全不一样,电源线是给整个电路供血的,电流越大,走线就一定要越宽,小电流随便走走没问题,一旦到一安两安甚至更大,你还舍不得加宽,那后期发热、压降变大,待在能力变差都是很常见的问题。 能扑通就尽量扑通,比单纯拉一条粗线要靠谱的多。然后是过孔,日常设计用零点三毫米内径,零点六毫米外径的过孔基本能通吃绝大多数场景。大电流的地方可以多打几个过孔,并连减小导通电阻,散热也更好。 不过像模拟信号、高频信号这种比较敏感的,能少打过孔就少打,每一个过孔都是一段额外的阻抗和寄生参数,打的越多,信号完整性就越容易受影响。再说说模拟和数字电路, 这俩可以说是脾气完全不合。数字电路开关速度快,噪声大,模拟电路精度高,又怕干扰,如果混在一起乱走线,很容易出现读数漂移、噪声大、踩样不准这些问题。最简单实用的办法就是分区布局, 模拟归模拟,数字归数字。地线在电源位置单点汇合,避免形成地环路,干扰会少一大半。还有京震、时钟这类信号,我习惯把它叫做电路的心脏,他一旦不稳,整个系统都容易出问题。 路线原则就一条,尽量短,尽量直,尽量靠近芯片云角周围用地线包起来,多打地过孔屏蔽,别让其他信号从旁边横穿,也别拉的老长,不然干扰进来排查起来特别头疼。 最后再提两个细节,尽量做完整的 g、 n、 d 铺铜地平面越完整,抗干扰能力越强。高低压电路一定要严格分开,安全间距给够,别为了省空间冒险, 先把大气件电源接口铺好,再走关键信号,最后走普通信号线。其实 p、 c、 t 设计并没有那么玄学,你把这些基础规则用扎实,不盲目追求花哨,也不随便省尺寸,大部分板子都能做到一次成功,稳定可靠。 真正的专业不是懂多少冷门技巧,而是把最简单的规范做得足够认真。加油,未来的工程师!
粉丝919获赞7128

这是我最新爆单出来的 openclaw 保姆级零基础教程,完全免费开源。 openclaw 是 目前最火的 ai 智能体,你可以通过手机随时随地给它下达任务,让 ai 操控你的电脑,自动帮你完成。 但很多同学玩 openclaw, 各种踩坑翻车、装不上,烧了钱,甚至数据被误删除,很难真正把 openclaw 玩明白。因此我出手了 这套教程近二十篇,几百张配图,结合了我自己折腾 openclaw 才过的各种坑、翻遍官方文档和社区的经验,我的目标是帮你从零玩转 openclaw, 不 翻车、不烧钱、不被黑, 臭不要脸一下。这应该是目前全网最适合新手的免费 openclaw 教程了,连一键安装脚本和一键卸载脚本都给你准备好了, 哪怕你没有编程基础,一分钟就能上手。教程内容覆盖 openclaw 的 方方面面,我精心梳理了内容结构,让你能够一条龙学习。 从了解 openclaw 是 什么,再到一键安装上手,云端部署、二十四小时在线接入、手机聊天软件、远程控制、模型选择和切换、 工具管理和多媒体能力、 space 技能扩展、定时任务和自动化。组建龙虾军团多 a 阵,此邪作记忆管理和成本控制,安全必称指南,打造能发语音的智能 ai 伴侣,每一步都配有截图示意,哪怕你第一次听说 open to learn, 不 怕你学不会。 此外,我的 ai 知识库里还有一套免费的 web token 零基础入门教程,编程小白也能用 ai 跟我做出产品,甚至盈利,欢迎一起使用。 我一直相信知识分享是互利共赢的,这套教程完全免费开源,希望能帮更多朋友快速、安全、省心的玩转 open club, 但毕竟是我一个人爆单的,会有不足的地方,我会持续更新和完善内容, 如果这套教程对你有帮助的话,希望能点赞或者 star 支持一下。别犹豫,现在就打开教程,输入一行命令,装上小龙虾,跟着鱼皮一起开启养虾之旅吧!

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

哎,他画好了,我们看一下。我去,兄弟们,可以啊,真可以有,图名,比例尺标注也有。 哇哇,真真真可以,远超我的预期,远超我的预期。唯一可惜的就是这个圆形孔的标注他没有标好,你看他标到左下角了,挤到一堆了,哎,这点可惜,如果说这个也标好了,那就完美了。 好的观众朋友们大家好,我是易江恒,就在昨天,鹅厂推出了腾讯版的 open club, 我 本来看到这个新闻的时候是很嗤之以鼻的, 所以只是抱着试试的态度下载来看,没想到测试的结果让我挺惊艳的,我们就一起来看看这个测试的结果吧。首先它目前是只支持 windows 和 mac 系统,我们看看主界面,分为 coding 和普通工作两种模式。我这期视频只测试了普 通工作模式,左下角分为公益、计划、问询三种模式,分别适用于执行文件或命令、执行多步骤的工作计划以及读文件。在他旁边可以选择大模型,右下角可以选择你的工作空间。我们首先上来让他执行一个简单的任务。 好,我告诉他,我有这样一个数据集,让他帮我分类。这次我不告诉他用 python 的 哪个库来做这项工作,我看他能不能自己完成。 哎,很快出结果了,而且他还贴心的帮我打开了生成的图片,非常棒啊,小试牛刀。然后再尝试第二个任务,我让他按照 word 文档名称从大到小合并文件,然后转成 pdf, 那 么这个任务也是挺简单的,他也是出色完成了。我们打开这个 pdf 看一下,发现也是按照我们要求合并的文件, 而且你们有没有发现它有一个很宝贵的品质,那就是那就是它执行任务的时候不会中断。我相信你们用过小龙虾的就是 open cloud, 应该都知道就是 你问它的问题的时候,它执行的好好的,但是实际上它已经卡住了,比如说它的那个画面停留在正在执行 啊,然后实际上它已经卡住了,你还得你还得去告诉它继续执行,然后它才能继续执行下一步,不然它会一直卡在那儿。 但是咱们这个啊,腾讯买的小龙虾,它就不会出现这样问题,包括我后面要做的这些任务,它都不会卡住,它都会一直执行下去,它不像 opencloud 那 样会突然卡住。最最主要的是它现在免费啊,你比如说这里面的几个大模型,现在都是免费用,烧 tokken 就 跟不花钱一样,不对不对, 不是救根救世,不花钱,现在我不知道它以后会不会收费啊,但是现在确实不花钱。那好,最后一个任务就是一个比较冷门且稍微有点复杂的任务。那是什么?那就是画 c a d 咯,毕竟我是土木出身的嘛。 实现在 cad 里面自动化可是我一生的追求啊,不知道能不能实现。那么今天我们就尝试用啊腾讯版的小龙虾来实现一下干什么呢?请看 vcr, 我 让它给我画一个带凹槽与定位孔的矩形支撑块儿 啊,然后我把一些基本的制图规范都写下来了,大家可以暂停看一下,然后他运行了整整三分钟,告诉我任务完成了,然后我点开 cad 一 看,我说你没完成呀,你继续执行,那个脚本就是我,我觉得他应该是把脚本写好了,但是没执行,然后我就让他继续执行, 然后他执行。过一段时间,我发现,哎,确实画出来了,效果挺不错呀。 你看有基本的图名、比例尺、材料,然后这个标注啊,然后按照规定画的两式图。 唯一美中不足的就是他这个定位孔的这个标注没画好呀,你看都挤到左下角一堆了,要是这个画好,真的就完美了。然后你看这些标注也是标注的是正确的,并不是 瞎标的啊,都是实际的长度大小。非常不错啊,非常不错啊,好总结一下啊。总的来说,使用的体验是远超预期的,整个用下来就 很流畅。对了,忘了提人家的名字了,人家叫 workbody, 就是 工作的好兄弟,很少碰到用 opencloud 的 时候碰到的那种任务中断的情况很少碰到。 而且使用大模型也是免费的。最主要的是它是对新手非常友好,不用在步手上花费太多的功夫下载就能用。我建议大家都试试吧,而且我感觉这玩意到后面大概率会收费啊,所以尽快试试。

大家看,这样生成的 ai 图不是死图,而是可以手动调整的活图,也就是你可以直接修改这个图形中的文字和图标组建等等,省去了同 ai 反复对话修改图形的麻烦。 观众朋友们大家好,我是易江横。相信大家学习工作中经常会碰到画各种信息格式图表的情况,普通 ai 生成的图像是死图, 我们需要同它反复确认修改非常麻烦耗时,特别是在画流程图、干特图、技术架构图这些信息准确性要求比较强的图标的时候。 普通 ai 还不具备专业性,但是你要掏出传统的 visual 软件画,又过于的笨重,上手难,模板少。所以我今天就推荐一款轻量化、专业化的信息格式化图表绘制工具,而且它已上线 collab, 喜欢养虾的朋友们可以用 open collab 直接调取它绘图。 你可以直接通过网页版或者下载万星图式的桌面端的方式来使用。我以桌面端为例,点击左侧 ai 按钮,你可以用 ai 模板绘制成同款图形,选择要绘制的图形。我以这张软件开发架构图为例,我让他参考这个模板的风格,帮我绘制一张主题为商城系统分层结构设计的图。 当 ai 绘制出来以后,我们还可以把它插入到画布中,可以看到生成的各层级模块非常完整。大家看,这样生成的 ai 图不是死图,而是可以手动调整的活图, 也就是你可以直接修改这个图形中的文字和图标组建等等,省去了同 ai 反复对话修改图形的麻烦。比如我可以直接把这里的主数据库从 myxico 改为 cyber server, 也可以增删图上的各种图标组建。等 到主页,我们可以看到左侧的模板社区,这工具内置了超过十万个各种的图形模板,不管是汇报用的框架图、流程图,还是项目管理需要的干测图、架构图,两百八十多种图形都能直接套用,一键修改。 当然,你也可以直接和 ai 对 话。这里我以工艺流程图为例,新建画布,点击右下角 ai 生成,选择图片生成,输入指令,指令越详细越好,我这里先简单写点,过一会一张工艺流程图就生成好了。 还有一个很实用的功能,那就是文件生图功能。比如说我这里上传一个 excel 文件,这个 excel 文件中,我大致罗列了这个项目中的若干工作的时间点, 让 ai 帮我生成对应的干特图。生成成功了,我们发现每项工作的起止时间都和文件中保持一致,并且它还贴心的帮我们把各项工作属于哪个项目阶段都分类好了, 还统计出了各项工作的持续时间,非常好。当然,这也是一张活图,你可以根据项目的实际情况再做修改,再也不用手动一个个搭框架、拉线条了。 除此之外,万兴图师这个工具支持 ai 一 键生成 ppt, 操作非常简单,省时省力,你会打字就会用。如果领导或者导师没给你留太多时间做 ppt, 你 可以安装它的 ppt 插件,直接在 ppt 中唤起各种绘图功能,帮你快速搞定汇报材料。

大家好,我是根古,今天是 open 克拉的系列课程的第三十七堂课,欧拉玛对接龙虾,其实之前都是非常慢的,非常卡。 呃,我看到有很多小伙伴他用的 v l m m 模型做做替代,但是最近呢,我发现他变快了很多,然后我就去官网上看了一下,就看了一下第一个他的重大的更新,就是最近两天的更新,零点一,八点二,零点一,八点二,你去更新一下,就你打开你的欧拉玛的视频里面,你翻到下面的,如果不是最新的版本,它会这里提示你更新。 零点一,八点二,零点一,八点二,啊,也就两三天两三天前更新的一个版本,他这个更新更新了什么呢? open code 工具链的一个整体的优化 啊。第二的话,第二的话是非常大的更新,是他的一个推理的框架,在这个地方,在这个地方啊,我放大一点, m l x 这个一个非常大的更新,也就三月十七号这个版本,所以说你们一定要升级啊, v 零点一八点后面的版本就可以了,是吧? 然后第二的话,你需要升级 oppo cola 啊。第二个我告诉你先要升级的两个工具,你先看一下这个,哎,只要是三月十八号以后的版本都可以啊,最新的版本是三月二十三号,更新好了,更新好了以后重启网关,重启网关以后进行配置一下,我先教大家如何配置 oppo cola, 在 oppo cola 配置一下,就 on board 里面一定要选他推荐的那几个模型,一个是 kimi, 一个是这个。呃, gpt 的 模型都是可以的,都是可以的,选这个。 yes, 回车,回车, 到这个地方,大家一定要选欧拉玛是吧?欧拉玛你可以看一下这个幺幺四三四啊,这个端口啊,幺幺四三四的端口你看一下,那就是 i s f 这个,哎,你看到了吗? 我这个幺幺四三四就是欧拉玛站着,所以说这个幺幺四三四的端口就是没错的,如果你改了端口的话,这个地方就要改成别的端口回测一下,然后这个地方你可以选选选上面,也可以选下面,都没关系啊,选了以后 你翻到下面来,你肯定看所有的模型啊,所有的模型你翻到下面,哎,这个地方它很长很长,从上找到下一个是 openload 的 gpt os 二十 b, 这个就是我这个模型,这个模型,哎,这个你千万不要下那个杠服类的,这里面有这么多推荐的模型啊,我试过了,大概千万的,这个也是不错的啊,千万的三十 b 三 s b 这里面都有,找到了以后就回车,剩下的就没有什么可说的,其他的都是 skip 就 好了啊。否了以后重置网关,重置网关了以后,你进入小龙虾这个页面,我刚刚测试下,非常快的,他肯定会告诉我这个 gptos 模型,对吧 对吧?然后比如说二乘以五,对吧?二乘以五多少多少。 那我给他做一个比较难的一个题目,这里面有一个这么大的题目,这个题目其实非常难啊,之前可能要做个二十多分钟是吧?这个可能就是十多秒就做出来了, 哎,你看这个没有十多秒之前,这个真的是要二十分钟卡死了。对,然后还有一些比较,这个这个智力的推理,那个那个推推推理啊,你可以去看一下。对对对,所以说这个更新一定要去更新,更新了以后就不要去折腾其他框架了, 是吧?所以说你更新最新的版本,版本及时的往 get 上面去看,怎么样变成闪电侠的逻辑呢?啊?就是他还有一个 cloud 本地加速,所以你用 cloud 的 话用它也很方便啊,用很方便,这次就是极速的推理响应,它就是更新了推理的框架,所以说你不需要再去看其他的人告诉你这个折腾那个折腾了,没必要了,没必要了。对对对, 还有为什么他之前会很慢?因为他以前是单进程的,也就是对,他现在做成递发了。对对对,做成递发,可以这么理解了,对, 还有还有个联网能力,也一键加载了啊,他之前的这个联网,这个网络搜索也非常非常慢,现在他非常快了。所以说你你你比如说举个例子啊,我,我说这个啥北京的天气啊,今天是多少,对吧? 他肯定很快就出来了,因为他要连连一个天气预报的 skyser, 然后再去通过这个 skyser 的 数据,然后拿到这个。怎么会这么慢呢? 还是还是有点慢,对吧?他掉了我几个 skill, 但是比之前是真的快很多很多。今天是二十五号,最后给大家提个醒,就是我弄龙虾启动的时候最好还是用那个欧拉玛去启动它,就是欧拉玛浪去这个 open club, 然后你再看一下它的一个监听的端口,是吧? 呃,也就是这个 s o f 杠 i 幺幺四三四,哎,这就表示欧拉玛活着了,然后你再用欧拉玛去启动这个 open class, 这样就不会出问题了。网络群它其实取决于网络的快慢,如果我是运行一加一等于二,或者是一个简单的这个数学推理,它应该会比较 比较比较快的,比较快的,这取决你的 skill 是 强不强大。所以说大家还是要更新最新的欧拉玛的框架,非常快的,非常快的,这两个就分享给你学会了。

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。

好好,我们先来拆解一个问题啊, open 广告为什么这么火 啊?我个人觉得呢,是有两点因素叠加在一起的啊,可以让它有一个这个现象级的出圈啊。第一个呢,就是一个,它是一个 超级黑奴啊,它可以七成二十四小时不间断的来干活,并且呢,呃,叫什么童叟无欺啊,只要电,只要 talk 啊,别的什么都不需要 啊,这是第一点啊,它超脱于原本的这个呃, gpt 的 问问答啊,它可以了去帮你操作系统了啊,可以去帮你去干一些实事了,你能干的事它也能干了啊。然后第二点呢,就是我觉得最最重要点呢,就是它 把这个信任权限啊,开的非常大,就是我们我们常说的这个 open globe, 它叫什么?具有这个系统的最高权权限,它可以去删库啊,它可以删库啊,也可以删邮件。这个例子大大家可能看到过,我们后面在讲实战的时候会讲一下,非常有意思啊, 他非常的信任。然后第二呢,就是这个社区生态啊,因为大家可能刚好就到了这个时时间点了啊,大家都需要这么一个东西 啊,因为 ai, ai 呢,已经发展到一个地步了,它已经有这些能力了,现在就是需要有这么一个人,有这么一个软件,去把这个呃叫什么所谓的专业化一点的东西给它带入到大众视野里面来啊, open code 就 抓住了这一点 啊,把这个东西给实现了啊,并且呢,它开源在这 github 上,所以它一夜爆火, 可以让欧文可乐帮我跑图像目标检测,并自动优化知心度跟准确率吗?你要把 skills 给写好 啊,你直接跟他说的话,他应该还是没有这个能力的,或者说我觉得实现的不好啊,但是呢,如果你精心的去写了他这个 skills 啊,你告诉他他需要干什么啊?跑图像检测需要用到什么样的库啊?我觉得他是可以的,包括我们后面会提起嘴啊,现在很多 就是也就这两天出来了吧。科烟,科烟龙虾啊,博士龙虾这种东西,它就相当于这个 skills, 它写的非常的好,可以来帮忙去帮你读论文,帮你总结论文,帮你去做一些实验啊,把什么准备好? skills 技能, skills 就是你打游戏学的那学的那些技能点儿,把 skills 给准备好。好,我们看一下这个框架图啊, open code, 它本质上是一个本地部署的 ai 智能框架 啊,他的目标呢,就是把大模型啊,工具,还有各种的啊,通信渠道,这里通信渠道就整合在一起,从而整体的来构建一个叫什么可以持续运行的一个智能代理系统 啊。我们可以看到这里面有几个核心模块, a 进的 lob 啊,他的 a 进的循环,我们可以把它理解为这个龙虾的身体啊。 呃,那个可以把它理解为龙虾的大脑,说错了,龙虾的大脑啊。第二个呢就是工具啊,我们可以把它理解为我们龙虾,龙虾这个手钳,然后第三个呢,是也是这个 open klo 最关键的一个东西啊,叫 getaway 啊, getaway, 我 们可以把它看成是龙虾的身体啊,这个网关我觉得是 opencode, 相比于之前的 ai 真的 最大最大的一个区别啊,最大一点区别我们后面会详细讲一下啊,剩下什么 gi 啊,大模型啊,还有我们刚刚说的这个, 呃, kano 啊,都是都是一些,呃,相比于别的来说没有那么创新的东西啊。好,我们详细拆解一下这个小龙虾的三块儿。 好,我们刚刚说了 open globe, 它其实就可以看看作是三大模块来组成的一个东西啊,第一个呢就是这个小龙虾的大脑 啊, agent lop 啊,第二个是手脚,第三个呢是 get away 啊,它们这三者联合起来才会形成了我们一个七乘二二十四小时都不用下班的一个 ai 员工。 skills 可以 替代 m c p 吗?可以,并且这个绝对是趋势啊,绝对会替代这个 m c p 的。 嗯, 而且 skills 就 像你说的,它就是提示词工程啊,在我理解来看,它也就是提示词啊,所以叫什么?我一,我一直有个观念啊,就是我们人类也在自己造一个我们不能理解的一个红黄猛,红黄猛兽啊,我们现在对它的这个能力开发 还非常非常非常的短啊,非常的少啊,很多时候不是大模型的能力不够,而是我们不知道怎么去用它,怎么去把它给叫什么给它, 呃,激发它这个潜能,就像最开始这个思维链的时候啊, zero x 啊,到这个普通的这个 c o t, 它其实就一句话嘛,就让它你给我一步步的思考啊,这样它就出了一个思维链出来了啊,这还发了个很厉害的论文呢, 哈哈哈,还没开始学就过时了。是的, m c p 你 要是没学,你可以先放一放,因为马上会被这个 skills 给替代的,这个毋庸置疑。嗯,好,我们详细看一下我们这个美味的小龙虾这三部分啊。 第一部分,我们看一下这个虾脑啊, ai agent, 呃,它,它的 logo 是 什么?我们可以把它理解为就是 ai 接到一个任务之后,它自己一步一步的把这个事情给做完的一个机制 啊,我们以一个制作一个这个登录页面为例啊,那我们如果告诉小龙虾啊,你帮我做这个事情,它的流程大概是怎么样的?它那个小小的虾脑里面,它会怎么想呢?啊?第一步, ai 会先思考一下啊,要做一个登录页面,那我首先要干嘛?我需要去创建一个叫 html 的 文件,对不对啊?第二呢,我们我既然要创建这个文件,那我就需要调用工具把这个 html 的 代码给写出来 啊。第三步,写完之后,对吧?我们人类会干嘛?你写完之后,你不会把它拿去直接跑吧啊?你跑完之后,你会去检查一下它这个 结果啊,我会发现,哎,现在页面好像还没有样式文件,对吧?啊,那我们再去思考一下,下一步我们要去补一个 css 文件出来啊,然后同样的一步,循循环,再调用工具,把这个写出来,再检查结果,再判断啊,反复循环啊,这个 loft 的 过程 啊,就是不断的思考啊,不断的调用工具,然后不断的检查结果,然后呢去决定下一步的操作,直到整个登录页面完成。这个就是我们这个小小的龙虾大脑,他在思考的一个事情啊,是不是也没,也没怎么难的?左下角被 ppt 挡住了, 嗯,对,这个 ai 自动生成的,厉害吧?哈哈,当然,你提示词得写得好一点了。 ppt 会发到哪里啊? 我不知道,我发给助教老师了。左下角我挪不走。同学们,这个我挪我挪不走是这个平台的问题。嗯,大家从第几步看不清的?第六,第七、第八、第九是吧? 啊?那六检查结果啊,其实跟前面是一样的。我我,我们既然都说是 log 了嘛,啊,就是循环嘛,对吧, 八九就继续执行,继续这个反复啊。可能这个最关键一点呢,就是他需要不断地来重复思考,调用工具检查结果,然后执行下一步啊,这个一到四这个过程,他不断地执行,你给他这个任务越难啊,他循环的次数就越多 啊,他本质上来说,他就是把你给他的一个非常复杂的任务来拆解成一小个,一小个需要去啊,去进行的一个步骤,跟我们人类在思考的时候是一样的,对不对啊? 好,这个我们就是这个小龙虾的大脑,他这个小小的脑袋里面在想一个什么样的事情啊?看不到,看不清啊。这个,这个助教老师解决一下吧。 好啊, react 啊,这个框架跟 react 的 框架是如出一辙啊。先推理思考再行动。推理思考再行动。烧的 token 是 不是就越多?对啊,所以你给他的任务啊,越多,你自然而然,你这个对吧,花的 money 也就越多了。好, 能不能让他画图?可以,我这个图不都是他画的啊,龙虾讲龙虾,这都是他画的。那我,我是个美术白痴,我没有这样的这个美术功底的,这全都是小龙虾画的啊。 好,那我,这个,我们刚刚说这个 ai agent 的 这个 loft 啊,它其实呢是基于这个 p i s d k 的 啊,它是一个独立的开源项目,这点呢,跟普通的 agent 呢,也是不太一样的啊,这个我只是皮嘴而已,它详细是个什么东西,大家如果感兴趣的话,可以去这个 github 上去看一下 啊,跟普通的 agent 是 有点区别在里面的啊,那我想说的是什么呢?我,我想说这个小龙虾的大脑啊,它这个 agent lab, 它并不是 open cloud 的, 它的独家优势 啊, cloud code 和这个 open i 的 code x, 它们都有这样类似于 agent lab 的 这个逻辑啊,所以说光从这个脑子的设计上来看, open cloud 跟其他的 ai agent 呢,是没有什么本质区别的啊。 好,那既然它没有,那我们看看这个小龙虾,这个钳子,这个手脚有没有什么特殊的地方啊? opencloud 它的工具体系呢,大致可以分为三层啊。第一层,我们从下往上看啊,第一是它的 base, 它的基础工具,什么叫基础工具?比如说对吧,你让它读写某个文件啊,去执行某项命令,或者说让它去打开这个浏览器的网页 啊,这些东西都是他的基础工具,没有这些东西他啥也干不了,他就算理解了你的想法,他也没有办法去操控你的电脑,这也是我们说的,就是这个 opencloud, 它一大特点啊,就是增强型的 g u i 啊, 它可以去理解你的屏幕啊,理解你的电电脑屏幕,并且呢有很高的权限去干成这,干成这,干成那,各种各样的活啊。第二点呢,叫 skills 啊, skills 啊,我总结了一句话,就是教这个小龙虾,让它像人一样来干活啊,有点像我们打游戏给的这个技能点这个经验包一样 啊,就比如说啊,刚刚那个同学问的,能不能让他来,嗯?叫什么这个?帮他做这个图图像识别,对吧?做这个一公交叉啊,或什么样各种科研任务。那 ai 他本身就不会的啊,这个大模型他的能力还没有到那个地步啊。但是呢,我们可以给他写一个这种 skills 啊,他其实也是一个本地的文档啊,非常简单,是一个可编辑的一个文档啊,上面有这个 meta information, 有 源信息 啊,然后后面有相应的步骤,你就告诉他啊,如果你要去干什么?去完成一个图像识别这样的一个科研任务的话啊,那你首先要干嘛?你首先要打开 vs code 对 吧?然后其次呢?其次呢,你要去上那个 骨骼学术,去搜索相关的文献,然后第三呢,理解了我的需求之后,你需要用到什么什么?需要用到什么?什么?第四步,你要把它干嘛?把它干嘛啊,就把你怎么做的,你就告诉他啊,让你去搞一个图像识别的任务出来,你怎么做 啊?你告诉他你写给他就可以了,把他放在本地就可以了,能让他上去玩英雄联盟吗? 哈哈哈哈哈哈,不好,不好意思,没忍住啊,哈哈哈,理论上可以,但但是不建议啊,因为你会被喷的。 skills 是 不是点 m d 文件啊?是它它它就是一个本地可编辑的文件啊,并且呢有一个叫呃,我们后后面会讲到这个和到 haub 的 一个地地方,它里面就发布了大家这个,嗯,各行各业的牛人写的那种 skills 放在那上面啊, 写提示词,刚刚那个说打英雄联盟的同学,你也可以写一个这样的这样的 skills 放上去啊,我绝对下载 一共交叉用 kol 的 做不要太简单,但是你 kol 你 不能就是在手机上跟他说两句自然语言就让他做了呀,这个就提到这个 open kol, 它后面的概念啊,就是这种定时性啊,定时性,你可以让他重复的干那样的活,我们刚刚说了七乘二十四小时 啊, open kol 的 现在还是没有这个能力的好,据说是透根消耗非常大。是的, 那我们说这三层大概可以分成什么呢?我刚刚简单讲了一下,基础工具就是读写文件,执行命令, 浏览网页啊,搜索抓取信息这些啊,就是给了你键盘和鼠标了,你可以真正的去操控这个电脑,而不是呢仅仅停留在我们的聊天页面里面啊。第二点呢,就是 skills, 像刚刚举的那个例子啊,你写代码前要干嘛?创建文件,扫描项目结构啊,修改文件前呢,你记得要先备份啊,你不要去 直接给我改完了给我删掉了啊,写完代码之后你要测试一下,不要那么无脑啊。 skills 是 自然语言写的吗?长啥样的?是的,就是自然语言 啊,就是自然语言,我后面会把那个网站给放上来,大家可以感兴趣可以可以去搜一下,叫 club 啊,里面有今天应该两两万多个 skills 了吧。我昨天看的时候, 第三层外部工具,他比如说调用外部 api 啊,接入 sas 服务,或者说扩展一些新的工具能力啊,这个是小龙虾的第三层啊, 最重要的呢,就是这两层了啊,而且我觉得最最出圈的一点啊,就是他给了他权限,可以让他完全的操控这个电电脑啊, 生成图片用的是多模态大模型吧,有生成图片的功能。是的,而且之前我看有人做过实验啊,就是小龙虾他自己知道,就是我要生成一个图片啊,但是我就是你给我这个大脑,我不是多模态的,我生成不了图片,那我应该怎么办怎么办怎么办啊?咳 啊,好,最后呢,我们说了,前面那两个东西啊,都是已有的啊,都是别的 ai 阵的都干成的,那为什么它这么出权啊,就是因为它这个 getaway, 它的网关也是我们说这个龙虾的身体啊 啊,小龙虾之所以能够一直在先一直干活,背后呢,其实都是这个网关,刚刚那位同学也提到了一公家交叉让 claudio 的 做不要太爽。是的,我也觉得很爽啊,但是呢,我如果对吧,我要量产 这种一公交叉的科研成果,怎么办呢?啊,我不能我一个人实时的坐在这个 claudio 的 面前对吧,我让他一直给我生成。 那 getaway 可以 实现这个 skills 就 sop, 对, 它就是一个工作流啊, skills 啊,那它有六大特点啊,是什么呢?第一呢,不关机啊,因为你是网关嘛,对吧?第二就是它可以连接所有的平台, 飞书啊,钉钉啊,还有那个纸飞机啊,还有 line 都可以对吧啊第三呢,就是绘画隔离啊。第四,排队控制,先进来的任务先做,后进来的任务后做,大家觉得这个可能没啥 啊,但其实呢,这个还是一个比较关键的东西,因为这种顺序性的结构对于大模型来说是非常友好的啊,大模型不喜欢你给他什么一堆东西同时喂给他啊,他那个脑子想不过来。然后第五呢,就是这个 心跳巡查,我们下一页会讲他是个什么东西啊,包括这个记忆刷盘啊, get away, 就是 把这六样东西全部都实现了 之后啊,他就有了一个可以二七成二十四小时干活的一个小龙虾啊,可以让他成为我们人类的这种综合黑母啊。怎么部署?下一节会讲怎么部署,大家可以先把这个电脑给准备起来啊。 好,第一第二第三,我们刚才讲了这个不关机啊,这个大家都能理解,比如说你服务器三点挂了,你的 get 位会自动的把你这个小龙虾给重新拉起来,并且恢复之前的对话上下文,并且继续来处理那些还没做完的任务 啊,等第二天早上来看的时候,哎,他还在工作,并且呢,没有断,没有断过啊。第二就是我们刚刚说的接平台,他就不说了。然后第三就是绘画隔离 啊,每个聊天窗口他都是独立的啊,你和他的对话不会被其他的任务所干扰啊,因为这不同的任务他在网关里,他的逻辑上是完全隔离的,各自是有各自的上下文,不会窜台 啊,这样也就形成了,你可以对吧?多实力啊,你可以一个人指挥一个龙虾大军去帮你做一共交叉 啊, getaway 就是 真正干活的一台永远在线的电脑,对,也是一个吞金巨兽啊,不过我相信这个 talking 的 价格肯肯定是打下来的啊,这个需要我们这个国产大模型再努力一点啊,当然已经还可以了,还挺便宜了 kimi 这些的。 好,第四,我们刚说排队控制啊,同一时间处理一个任务啊,不会因为消息太多而搞混啊。这个我刚刚也讲了,看起来好像没有什么,但是呢, 这种方式是非常适合大模型的,处理完上个任务再处理下个任务啊,这个非常适合大模型做思考和运行啊。然后我们着重讲一下第五条啊,心跳巡查啊,我认为啊,心跳巡查是龙虾,他可以主动来做任务的核心 啊,我们刚刚说了,他可以七成二十四小时干活啊,靠的是什么呢?靠的就是两套,呃,两两套机制。第一个就是 heartbeat 啊,周期性的巡检,我可以告诉他对吧?你这每隔 呃十个小时,你检查一下我这个代码跑怎么样了啊,有没有早停啊,早停之后你赶紧给我开始下一个任任务啊,可以周期性巡检。然后第二个呢, call 就是 负责精确的定时来调度,比如说早上八点把今天跟 ai 所有的新闻告诉我啊,晚上七点把今天所有球赛的结果来告诉我啊,这个是 cloud code code x 这样的 ai agent 的, 他做不了的啊。 get away 会定时的来主动检查你有没有代办的任务,而如果有就去执行,你不用去催他啊。然后第六呢,就是继续抓板啊,恭喜极欧出单为你鼓掌。二零二六四维链全速前进啊,是大模型内部 呃,一个参数迭代的一个内容啊, 继续刷盘,就是当对话太长需要压缩的时候啊,它就会先把它存存到这个记忆文件里面啊,再进行压缩,避免关键信息的丢失啊,这就是 opencloud 最最重要的东西是什么啊?就是它的小龙虾的身体, 这是它最重要的。前面那两个东西,别的 agent 也有什么用工具啊,对吧?然后 agentlab 啊,这些东,这些东西啊,别的都有 啊, get away 网关是龙虾最核心的东西,那网关里面最关键的东西是最关键的东西是什么呢?这六个, 六个里面最关键的就是心跳巡查, ok, 听到这里恭喜你啊, open klo 它的底层怎么运作的你就知道了啊,再往深,那就是底层代码的东西了,我相信大家如果不做这个啊,代码开发的话,或者说你自己不想手搓一个这个新的 klo 出来啊,什么 q klo 之类的, 嗯,那我相信你也是没有必要去学他的好吧,啊,在这里大家就理解了这个龙虾他到底是怎么工作的了啊,隐身出来呢,你也可以知道,对吧?你如果用到你的垂直领域的话,你可以干嘛? 你应该怎么去做啊?比如说做科研,那我就要在 skills 里面给他写一个叫什么,写一个如何去做科研的一套流程 啊,那我还需要给他外接什么样的 tools 啊,外接什么样的工具这样的好,我们简单对比一下,它跟 color code 是 什么呢啊? color code 本质上呢,它就是一个本地的工具 啊,你打开它干活,任务做完,你关掉它啊,不会一直在线,也不会呢,主动执行任务,并且最关键的它是个闭源的产品 啊,你没有办法去玩它啊,并且呢,你的所有数据都在 club 的 code 那 里啊,但是 open club 不 一样,它把开源之后,把所有东西都扔到你的本地,所有东西都是可控的,它的权限自然而然也是最高的啊,只要你不犯傻啊,你不要给它开放什么山库这样的 skills 啊,对吧,它就不会有问题,它的数据隐私也不会泄露出去啊,当然它还是会有这个叫什么安全隐患的。 opencloud 能用谷歌的 api 吗?可以, opencloud 的。 全量记忆是不是本质上其实也就是通过提?哎,刷上去了啊,通过提示词组装来提交给大模型的 全量记忆?我没太懂你的意思同学,全量记忆跟提示词组装有什么区?呃?有什么关联吗? memory 是 memory 啊,提示词是提示词呀。好,我们先讲啊,这个 简单来说,我们做一个类比啊,这也是小龙虾他自己帮我想的啊,他说他自己像瑞士军刀啊,开源可定制主动执行啊,克拉扣呢,像一把精准的手术刀啊,你有什么疑难杂症一刀就给它切开了啊。 g p 怎么和龙虾结合啊,我们马上就要进部署了啊。 好,我们最后说一下简单的感想啊,就是我们可以看到前面没有哪个模块是算法级的技术突破啊, 上过我这个 vip 课的同学都知道,我们前面讲这个大模型的课的时候啊,那么三个月就有一个算法级的突破啊,一个新的架构出来啊,一个什么新的 mo e 啊,新的思维链啊,这种新的算法出来,但是小龙虾呢,一个都没有啊。无每一个呢,其实都像是一个整合的操作而已 啊,但是他就是仅仅只靠这种封装啊,靠这种整合。但是呢人家整的好啊,彼此咬合稳定运行就可以让他变成一个真正能用的一个产品啊。这件事情本身就已经很厉害了啊,所以我觉得对于大家来说啊, 我们如何去求得生存呢?包括我觉得以后未来这个 ai 时代这个浪潮下啊,最重要的人是什么就是叫什么 具有创新能力的人啊,你技术突破只是专业的人士去干的啊。如果呢你可以把这个技术找到一个好的应用场景,那恭喜你,你也同样是人才,你也可以 make money, 你 也可以赚到钱啊。 三十二 b 的 本地模型可以完成基础任务吗?难,挺难的,因为我用一些国产的大模型的 api, 我 觉得他都挺傻的,我让他帮我整理一下桌面吧啊他都他都干不好,就是一些比较垃圾的模型 好。是不是需要车辆安全防护?不用 啊,当然就前提是你没有按那种对吧全家桶式的东西啊,那样不行啊。所以总结四句话送给大家,第一不用焦虑啊,不用焦虑,第二呢你先用起来 对吧,你不用天天想什么。哎呀,我饭碗会不会被抢了,别人会不会用这个工具超过我了啊。你不用想那么些,你先用起来再说啊,选定一个工具做好一件事情,你能干到这一点我觉得在当下就已经超过绝大多数的人了啊。好, 我经常用哪个模型老师比较穷啊?我一般呃就是叫什么用 codex, 这个是主推,然后 color code 就是 放一点啊备用,就主要是干一些实在是科研级别的需要很大程度去干的任务。用 color code 的, 因为那玩意太贵了, 然后平常处理一些日常任务还是用咱们国产的 mini max 或者 kimi, 这两个都挺便宜的,而且有包月啊。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

我们来用龙虾试一试,画一个数学函数 y 等于 x 的 平方, y 等于 x 平方。画一个函数函 数图,心 放在搓脸上 洗脸没有啊? 没有搓吧?

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

ok, 接下来我们来从零到一的实操下 openclaw 的 安装、部署和使用。那装之前一定要问自己一句,你想让他帮你做什么?不要盲目跟风。 目前的 openclaw 不 太适合用于生产环境,所以只能算是一个有意思的玩具。如果你有闲置的 mac mini 或者任意一台闲置的 macos 系统电脑,那他们一定是最好的选择。 如果你是 windows 电脑,那也可以,只不过 openclaw 的 生态对 macos 系统支持比较好。那如果你都没有,不建议大家为了使用 openclaw 去买一台电脑, 也一定不要在你日常使用的电脑安装,包括国内各个公司基于 openclaw 推出的一键安装的客户端,都不要在自己日常使用的电脑安装。 如果你实在想体验一把,我们可以花二三十刀,也就是一百来块钱购买一台两合两 g 的 vps 就 可以了。如果你觉得你会长期使用,从而装很多东西,那就买一台四合四 g 的 vps, 大概是四十刀到六十刀左右。哦,对,我说的是一年的价格,非常便宜。那我目前这台 v p s 应该是一个三合四 g 加一百 g 的 硬盘配置,使用的是无斑图二四系统,不是它必须得这个配置,而是我目前只有这样一台闲置的 v p s。 来做演示了。那我之前一直在使用的 oppo cloud 服务,其实是部署在一台两合两 g 的 v p s 上, 没有问题,基本够用的,也装了很多额外的扩展,那目前这台机器的内存占用是百分之四十,此盘大约用了有十五个 g。 ok, 我 们来到官方文档,复制一下安装命令,然后回到终端直接执行, 这里由于要安装一些东西,所以比较慢,大家要等一下安装完成之后,我们就进入了一个引导配置,那这个提示简单来讲就是问此安装是不是你一个人在用?如果是个人用,选 yes, 那 如果你这台机器还会给别人登录,或者是放在公司服务器上,以及要对外公开访问,那就选 no, 我 们选择 yes, 然后选择快速入门。接下来是选择模型厂商这块,根据自己的需求来,他特别需要注意的是,如果使用国产的 mini, max, kimi, 智谱这些厂商,他们分国内版和国外版,那我们这里先选一个自定义的 provider, 也就是自定义厂商,输入我们的 base ul, 大家根据自己使用的平台写就好,但一定要注意,因为我们平常使用可乐扣的扣的 x 去配置自定义厂商,背四幺 l 的 时候一般不用写后面的 v 一, 但 open colle 这里要写。然后回车,我们选择直接粘贴 api k, 把我们的 api k 粘进来,回车短点兼容性,这个看我们自定义厂商的平台支持啥,一般都会支持 opa 这种格式,所以我们直接选 opa 就 可以。接着是模型 id, 如果你是选择自定义厂商呢?模型 id 需要你自己填,那我们这里用 gpt 五点四 回车, ok, 刚我们回车之后,它自己做了验证,那如果你的填写有误,这块会验证失败,那接下来是填的自定义厂商名字, 接下来是模型别名,我们直接回车即可,不用填。然后就开始配置聊天频道了,就是你要在哪个应用上跟你的瞎子聊天就选哪个。那我的建议是能用 telegram, discard 就 用它们,用不了的话,国内最合适的就是飞书,那飞书国内版目前也已经内置在 opencloud 包里边了。既然配置麻烦了点, 目前最简单的消息频道配置是 qq, 但他最多只支持五个机器人,还容易被屏蔽一些消息。那微信的话想要接入就只能走起微了,那更麻烦。 最近腾讯出的比较让人期待的 qq 了,最终走的也是客服消息,而不是给了个人微信机器人号,所以也不推荐。那后面我会使用飞书做演示,其他几个消息频道的接入教程就不在视频里讲了,看视频的附属文档就可以。这里我们先选择跳过 一会再来配置聊天频道。接下来是选择联网搜索的供应商,那如果你有这几家的 api k, 那 就填,如果没有的话就跳过。 然后是配置技能,也就是 skills, 我 们选择否后面再按需安装就可以。其实 skill 为啥出来比 mcp 晚,但是却能盖过 mcp? 我 们在玩瞎子的过程中会有深刻体会, 这一步是在问你要不要起用一些附加小功能。自动钩子,通俗点讲就是当瞎子触发了某个事件时,自动帮你做一些事情,不开也能用。开了只是多一些自动化或者是增强功能。看到的这几项大概可以这样理解, bot md 就是 在 get 位启动的时候自动运行 bot, 点 md 文件,也就是 open cloud, 一 启动就先把你写在 bot 点 md 里面的启动说明,输入法规划 及预设内容读进去可以理解为开机自启动的说明书,那接下来这个是在 agent bootstrap 阶段额外注入一些工作区文件,那官方说明是,当你的工作区里面有多个上下文跟目录,比如 monroe ripple 多模块项目,想要把额外的 agent 点 md tools 点 md 这类文件一起带入上下文,但是又不想改工作器跟目录,那就用它。然后是 command log, 它是记录你执行过的命令,方便排查问题,把所有的命令事件记录到一个统一的日期文件里。 section memory 保存绘画记忆, 就是让他记住这次运行中的一些上下文。当你发出斜杠 new 指令的时候,他会把当前绘画的上下文保存进 memory。 通俗点说,当你打开一个新的绘画时,会把旧的绘画存档,那这些都是一些基础的户客,大家可以根据自己的需求去选,不选也可以,我们这里可以选都勾选上回车, ok, 这就已经就绪了。这一步是在你想用什么方式把下子启动起来。第一个 t u i 就是 在 v p s 部署,所以它是推荐方式,也就是直接在命令行里和它交互,不用开浏览器。 第二个是 web ui, 这是个网页界面,就是启动后用浏览器来操作,看起来更直观。第三个就是不启动之后再说,我们直接选择 web ui, ok, 它让我们运行 dashboard 的 命令来查看这个 web ui 的 服务,我们直接跑一下这个命令, 那由于我们是在服务器上跑 opencloud, 没有 g u i 页面,所以你会看到它让我们在本地使用 s s h 连接服务器内部的一个服务端口,通过这样的方式就可以在我们自己的电脑上访问这个 web ui 控制界面了。我们直接把这一行复制一下, micro s 就 打开 bash item, windows 就 打开 powershell, 然后把这个命令粘贴回车一下,是否继续连接输入 yes, 然后我们输入服务器的密码,回车 密码输入时啥也看不见是正常的,大家只管输入完回车即可,输错了就重新来一遍,只要回车没有报错,那就是成功了。也就在本地电脑和服务器的 opencloud web 服务之间建立了一个隧道连接,然后我们回到服务器终端,我们复制一下这个链接, 打开浏览器,那这样我们在本地电脑浏览器就可以看这个外部 ui 界面了。那需要说明一下,之所以使用隧道的连接方式,是因为这是默认且 opencloud 推荐的方式。当然我们也可以直接将服务器的 opencloud 外部服务暴露在公网上,通过服务器的 ip 或者是绑定域名来访问, 但这样很不安全,如果你需要暴露到公网,那么 opencloud 的 配置力度需要在细上一些,以应对一些安全风险。进入外部 ui 之后,默认就是聊天面板,我们直接发送一个消息, 那如果你的模型配置没有问题,就会收到回复。 ok, 到这里快捷的引导设置就完成了,夹子也算基础部署成功了,后面就是定制化了,接下来我们来配置一下飞书机器人的接入。那首先我们要打开一下飞书开放平台, 这个不需要使用企业飞书,个人飞书也可以点击创建企业自建应用,我们给个名字和描述,然后选一个图标吧。 ok, 创建完了之后,我们就可以看左侧的侧边栏,选中凭证信息,这里的 app id 和 app secret 我 们要复制下来保存好。 ok, 我 们回到服务器的终端面板,输入添加频道的命令,问我们是否配置。是,然后我们选择飞书, 那上面这个是让你重新下载飞出这个插件,但是现在它内部集成了,所以我们直接使用插件路径就可以。 ok, 它让我们填 app secret, 我 们回到飞出平台,复制一下这个 app secret, 回来粘贴回车,然后设 app id, 再复制一下 粘贴回车。连接方式,我们选择默认的 web socket 就 可以,然后非输的域名,那国内的就是 c n 的 后缀。群组的安全配置, 第一个是白名单,只有在白名单内的群组机器人才会回复。第二个是全部打开,机器人被拉进任何一个群组它都可以回复。第三个是直接在群组中借用机器人,那我们选择白名单就可以,由于我们还没有创建群组,我们直接回车就可以,后面有了再添加。 ok, 这样就基本上配置完了,然后我们选择 finish 完成,让我们配置飞书的 dm 策略,选择 yes, 这个策略我们直接全部打开就行,这样最简单。给账户添加显示的名字,然后我们选择 no 就 行,然后给这个账户绑定 agent。 yes, 那 选择 agent 的 时候,它只有一个默认的 man, 我 们回车。 ok, 这样就配置好了,然后再回到飞出控制台,点击权限管理,然后点击批量导入权限,然后粘贴所有权限的 jason, 那 这个大家直接粘贴我提供的这份就好,因为官方文档上面的那份, jason 缺少一个权限,点击下一步确认申请开通,确认 确认, ok, 权限开通好了,我们点击机器人,然后配置一下它的名字, 然后在左侧点击事件与回调,点击这里的订阅方式,然后选择长链接保存。注意这里保存时, opencloud 的 应用程序必须已经配置好了,并且正在运行中才能保存成功。然后我们点击添加事件,直接搜索接收消息,勾选它添加, 然后我们直接点击上方的创建版本,给一个版本号更新说明,也填一下,滑到最底部,点击保存确认, ok, 这个时候我们打开飞书, 那在飞书里面就可以看到一个应用创建成功的推送,我们直接点击打开应用,然后给他发个消息, 当我们收到了回复之后,飞书的渠道配置就已经完成了。 ok, 接下来先不着急,我们先来了解一下 openclaw 的 目录结构。首先你一定要知道一个目录,点 openclaw, 我们使用 cd 命令来进入到 opencloud 的 根目录,然后输入 ls, 看一下根目录下都有什么文件。 opencloud 点 jason, 这是 opencloud 的 主要配置文件,相当于总控面板,大多数的核心设置都在这里,以后也少不了和他打交道。我们刚刚在引导配置中的绝大多数内容最终都落到了这个文件里,那这个文件还有一些,后面带 back, 然后 back 一, 这是配置文件的备份,当我们执行一些修改操作时, opencloud 就 会帮我们把之前的内容存一个备份,避免我们改坏了回不去。 workspace, 它是默认 agent 的 工作区目录,放的是你希望这个 agent 的 长期记住遵守的东西,比如项目文件、说明书、长期规则、人设等等。那 agent 目录, 这是每个 agent 自己的后台数据目录,用来存放这个 agent 的 运行状态、认证配置、绘画记录等内容。官方会把一个 agent 分 成三部分, workspace 用来存放 agent 的 人格以及规则,还有记忆文件。 agent d i r 存放每个 agent 的 状态配置。 session 存的是 agent 的 绘画记录,其中 agent d i r 和 session 最终都会落在这个 agent 下面。那这个目录下面现在只有一个 man, 它是我们在程序安装时的默认 agent, 那 这个名字叫 man 的 agent 对 应的工作区目录就是这个 workspace log 文件夹存的是各类的运行日制,那出问题的时候第一时间看的其实就是这里,尤其是 getaway, skills, hux 相关的错误。 converse, 它是用来规划和编排的临时目录,很多 a 正的框架会把计划任务分解,临时中间产物放在类似的区域,用来支撑一个提示来触发多个模型调用的链路。 on, 它是定时任务与自动化触发的文件夹。 devices, 它是设备与执行环境的抽象层。飞书目录,它存放的就是飞书机器人适配与凭证的相关信息。有这个文件夹是因为我们装了飞书机器人 identity, 它是存放身份与认证的相关目录。 update check, 这是 opencloud 的 更新状态与相关原书记检查的文件。 我们再来看一下 workspace 里面都有啥 agent 点。 md, 这个里面存储的是有哪些代理各自负责什么?相当于岗位的说明书,一个工作规范,也是最重要的一个文件。四五 md, 这里面存放的是瞎子的灵魂设定 u 字。 md, 它存的是你是谁,你的偏好和禁忌,相当于用户画像 tosh。 md, 存放的是它能用哪些工具,怎么用?边界是什么?相当于工具清单。 heartbeat, 这里面存放的是一个自检和状态汇报规则,俗称心跳机制文件,比如启动后该检查什么,多久报一次状态。 bloodstream, 它是冷启动时先读的初步化说明,那我们现在还是一个空的 agent, 还没有产生记忆,如果产生了绘画记忆,这个下面还会有一个 memory 文件夹,文件夹下存放的是年月日点。 md 文件,作为我们每天聊天的记忆存放,那还会有一个 memory 点 md, 存放的是稳定的长期记忆, ok。 在 了解了 opencloud 的 目录结构之后,我们想一个问题,你需要几个 agent 帮你处理事情?一个够吗?可以这么说,如果你觉得够,那 opencloud 对 你来说可能未必是最合适的选择。 用 opencloud 的 可玩性建立在多个 agent 的 分工和协助上。如果只有一个 agent, 你 又希望他同时处理很多不同类型的事情,问题很快就会出现,他的上下文会不断被污染,人设会越来越混乱,记忆也会越积越多,滔滔消耗更是会不断飙升。 更麻烦的是,旧任务留下来的对话和上下文,还会持续干扰他对新任务的判断。所以接下来我们要处理的是多个机器人,多个 agent, 一个 agent 只专注一类事,那既然我们要做多 agent, 每个机器人都是不同的打工人, 所以接下来我们要新创建一个 agent, 我 们输入命令来添加一个新的 agent, 后面的 bot 一 agent 就是 我们给这个新的 agent 的 命名,我这个命名比较随意,如果大家有明确的想法,比如这个 agent 是 做什么的,最好语义化命名,不要用中文回车。 然后它让我们输入这个 agent 的 工作区目录,这里它会给一个默认的,当然我们也可以直接把它设置成 workspace, 这样的话和之前那个工作区就在一个目录下,那两个 agent 就 会共用一个工作区。但是我不太建议这样做, 直接回车就好,你会发现它默认在点 opencloud 目录下给了 workspace bot 一 agent 这样一个目录当工作区。结合我们之前介绍过跟目录下还有一个 workspace 工作区。 现在你回过头来理解, workspace 目录其实就是名字为 man 的 这个默认的 agent 工作区目录。那我们现在新创建了一个 agent, 这个目录就是我们新创建这个 agent 工作区目录,然后我们配置模型选择 yes, 那这个大家应该就比较熟悉了,之前引导配置中第一个机器人瞎子我们已经配置了自定义的 provider, 那 这次就换一个官方的吧,具体看你买了哪家。 我其实哪家都有,但是这里选中 mini max 的 速度比较快,所以这里选中 mini max。 mini max 前两天更新了一部,如果使用它官方渠道作为提供商时, opencloud 以内置工具会自动连接到 mini max 的 vl m api 端点,不需要额外配置。 当我们向机器人发送图片的时候,他就会使用这个工具来理解图片内容,也就是自动连接 v r m api 端点来做图片多模态处理,这点还挺方便的。我们选中 office 授权登录,然后选择 c n, 复制一下这个链接,在浏览器打开,然后授 权好了,然后他问我们还没有创建第二个机器人,所以这里先选择 no, 一会创建完第二个机器人,再把它和这个 agent 绑定, ok, 这样就创建好了一个新的 agent。 我 们再来看一下 agent 目录下面都有啥,可以看到多了一个 bot 一 agent, 然后我们也可以跑一下命令,看一下 agent 列表, 看到有两个 agent, 工作区路径也没问题,这就 ok 了。接下来我们来创建第二个飞书机器人,之前我们已经添加了一个机器人,它挂载的是默认账户,默认 agent, 也就是问这个 agent。 我 们回到飞书开放平台,创建第二个机器人,还是同样的操作, 点击创建企业自建应用名字,我们叫瞎子一号, 然后点到应用凭证,再次回到服务器面板,我们需要来配置第二个飞书机器人账号,那这个配置有点特殊,目前需要单独来改配置文件,没有办法通过命令集成,不过这个官方 e c u 已经提到了,估计很快就会得到优化。我们来看一下配置文件中目前的飞书配置是啥样。输入 cat, 这个就是目前的飞书机器人配置,它只配置了一个账号,我们可以直接在服务器上改这个配置文件。当然也可以简单一点,我们回到它这个 web ui 里面, 直接发送给 opencloud 一 段提示词,我让它根据官方的飞书配置文档帮我配置第二个飞书机器人,然后把 app id, app secret 填进去回车。 ok, 他 说配置好了,让我们重启一下,我们复制命令重启一下,再来看一下这个配置文件。 ok, 这就配置好了。那这里需要注意的是,我敢让他动配置文件,是因为我知道官方文档有这么个配置参考, 也知道他要改的是什么东西,我才会放手让他改。如果你不知道怎么改,直接让瞎子给你改配置,那就把你的 open class 系统生杀大权交给了大模型,你的大模型优质的话,能解锁到相关的信息去修改还好,如果大模型不太行,一旦出现了幻觉,那记记你会更难受,所以还是要尽量避免这种行为。接下来我们回到飞出开放平台,继续之前的操作, 点击权限管理,批量导入,粘贴一下,这个跟之前还是一样的,确认申请开通确认确认,然后点击机器人配置名称, 点击事件已回调订阅方式保存。哎,怎么不对?我们来看一下这个配置哦,这怎么写了两份?这个也是写了两份,我们回过头来看一下给他发的消息, 哦,这里发错了,再来复制一下,这里 app id 和 app security 写错了,给你修改一下。 ok, 这回改对了,刚刚那个给他发的提示词里面的 app id 和 apprecate 写错了,我们再回来点下保存。嗯,这次就可以了,刚好演示了一下,如果配错了,这里保存保存不成功,然后点击添加事件接收消息,勾选添加 创建版本,给一个版本号保存发布。 ok, 看一下有没有推送,打开应用,让我们给他发个消息。 ok, 收到回复之后我们就配置完成了,但是这个时候其实我们还没有给这个机器人绑定之前新建的 agent, 我 们可以通过命令来看一下当前 agent 的 绑定关系。 哎,你看我们新创建的瞎子一账号,其实默认绑定在了 man 这个 agent 下面,那目前这两个机器人其实用的是一个 agent, 我 们可以直接修改这个 agent id 的 名字,那这次我们在 yui 里面修改, 我们在这个 dashboard 里面找到 config, 然后点击 ro, 那 现在这份文件其实就是我们的配置文件,我们拖到最底下,找到这个飞书的配置,这是我们刚刚看的飞书的配置,我们找一下 b 的, 对,就这里我们把虾子一这个 agent id 改成我们刚刚创建的新的 agent 名字。 bot 一 agent 修改好了之后,我们直接点击保存更新, ok, 当它断掉,那就是证明已经重启了, 那等它恢复了之后就重启好了。我们直接回到飞书这里,给虾子一号发送一下,问他一下是哪个 agent, ok, 它已经切换到新的 agent 上了,那到这里我们的多 agent 多机器人账户就配置好了。接下来我们来创建一个飞书群组, 填上名字,飞书群组一个人也可以创建群聊,我们直接点击创建,必须得群组创建好了之后,我们才能邀请机器人进来,点击右上角选择设置,点击群,机器人添加, 选中瞎字添加, ok, 这样群组就创建好了。那由于我们之前设置了白名单,只有在白名单内的群组机器人才会回复,我们现在在群组里面给他发消息,他是不会回的,所以我们要先获取飞书群的 id, 那 获取的方法也很简单,我们回到服务器这里 输入 openclogs 转杠 follow 回车。这个命令是实时查看服务器网址,我们打开网址之后,在飞书群里面圈一下机器人,发一个消息。 ok, 这就可以看到这有一个 group, 后面这个 o c 开头的就是它的群组 id, 我 们复制一下, ctrl c 关掉它,还是直接在外部 ui 里面直接给它发消息,让它去改回车。当然我们也可以直接在飞书给机器人发消息也行。 ok, 已经改好了,我们直接让它重启,当看到它断了,那就是开始重启了。 ok, 恢复了,那就重启好了,我们再回到飞出这里再圈一下它,因为我们设置的是只有圈它,它才会回复 这个图标,代表它已经在输入了。 ok, 这就好了,那这样的话群组就搞好了。这里要特别提醒一下,不要轻易被网上那种一个群里面塞满不同角色机器人组成一个所谓的 team, 大家自己讨论自己工作的演示带偏了,那都是博眼球。绝大多数情况下并不是一个合理的生产实践, 因为在多 a 阵的多角色的设定下,每个机器人本质上都对应一个明确的角色和职责边界。如果你把多个角色的机器人同时拉进一个群里面,让他们同时面对同一批消息,那系统很快就会变得混乱。相对还算勉强可控的一种方式是通过艾特提及的方式来明确指定某个机器人角色回应, 也就是说,只有你明确艾特到哪个机器人,哪个机器人再出来处理。如果不是通过艾特提及,而是群里随便发一条消息,多个机器人都可能响应,那就必须额外做非常严格的路由控制。比如你至少要配置成只有某个特定用户 id 发出的消息,才有某个对应的机器人处理。 但即便如此,我仍然不建议让多个 a 证的机器人同时处理同一条消息并分别回应。因为你一旦这样做,整个系统基本上就会进入一种自由混战的状态,看起来好像很智能、很热闹,实际上很多时候只是无意义的多轮响应和无休止的 talk 消耗。更关键的是,这种模式并不真正符合大多数真实的工作组织方式。 现实里的工作流往往不是让一群角色同时对一个输入各说各话,而是有明确分工、明确入口以及明确的责任边界。哪怕你已经做了限制,比如让机器人只回复某个特定 id 的 消息,这种方案本身也不算理想, 因为很多人类的工作流并不是完全串行的,消息和任务经常会交错出现。一旦多个角色长期混在同一个上下文里,非常容易出现上下文混淆、职责边界模糊、记忆污染等问题。所以更合适也更常见的做法其实是下面这几种,一个机器人对应一个 agent, 一个群组对应一个专用的 agent 机器人, 或者一个主机器人作为一个统一入口,背后有多个专职的 a 政在后台分工协助。这几种方案虽然没有多机器人同群互聊那么有观赏性,但从稳定性、可维护性、上下文控制以及 top 成本来看都会更合理。 当然再往后走,如果你真的想做成多 a 政的协同,那就已经不是简单把几个机器人拉进同一个群里面这么粗暴了,而是需要更高级的路由编排和协助策略。这个话题可以单独展开讲,后面有时间的话可以再开一下 a 政的协同的内容,这里我们就先不展开了。 那到这里,我们其实已经有了两个彼此独立的 agent, 也分别绑好了对应的机器人频道,但目前为止我们还没有给他们做任何的功能增强,也没有给每个 agent 配置各自的身份信息、角色设定 和风格。所以现在这两个 agent 还是两个空壳子,虽然他们已经能独立运行,但是还没有真正形成差异化。那接下来我们就要先给这两个 agent 分 别配置不同的信息和性格, 他们真正区分开来。其实我们前面已经讲过,工作区里的那些文件分别对应着什么作用,我们完全可以直接手动去修改这些文件,给 agent 写入不同的设定,但是这种一方面比较繁琐,另一方面不太直观,所以这里我们换一种方便的方式来做。我们直接打开外部 ui, 那 这个是闷塞审,也就是瞎子那个机器人, 我们直接给他发送一个提示词,你是瞎子,一个赛博打工人,巴拉巴拉一堆,然后我们让他自行优化,并且拆分提示词,将这些提示信息分别写入下面的文件里面。回车, ok, 可以 看到它已经帮我们修改好了,这里它问我们要不要把 bootstrap 删掉,这个文件我们之前有介绍过,它只有在输入话的时候会读,删不删都无所谓。那我们直接在面板里面来看一下这几个文件,点击 agent, 然后点击 men, 然后点到 feel 看一下。哎,你看这里面它的灵魂设定已经帮我们写进去了。再来看一下 user, 可以 看到我的名字也写进去了, agents 点 md 这个文件大家有空的时候可以好好看一下,因为整个 agent 的 运行机制其实大概就写在这里, tools 身份 memory ok, 我 们回到飞书给瞎子发一下你是谁, ok, 这就已经配置好了。那现在我们就给瞎子配置了一些基础信息,我是谁,他是谁,他的性格等等等等, 都是些基础信息,也比较简单,大家可以顺着这个思路自由配置。那另外一个 agent 配置起来就简单很多了,也是一样的流程,这里就不赘述了,大家可以给不同的信息自己玩一下。那接下来我们给 agent 做一些基础能力扩展。首先是浏览器操作,那如果我们有 g y 面板 这块就会简单很多,但是由于我们使用的是无 g y 面板的无斑图系统,所以要稍微麻烦一点,我们需要先手动安装一下浏览器,虽然也可以让 opencloud agent 帮我们安装,但不建议这样做,因为需要给它开额外的高级权限才行。那首先我们需要安装一个 chromeem, chromeem 是 谷歌自己家的正式浏览器, 而 chromeem 是 chromeem 浏览器的上游开源版本。那这里需要注意的是, nipp 版本的自身的沙箱机制会产生冲突,导致 c d p 无法正常启动, 所以官方推荐使用 chrome 的 d e b 包,这是专门给得遍或者是无斑图这类 linux 系统用的安装包。首先我们来执行安装 c d p 连接,就是程序通过 chrome 的 devtools protocol 去远程控制浏览器的连接。 playrite 是 python 的 一个浏览器自动化框架,当我们安装浏览器后, open color 会负责浏览器的接入配置和路由, playrite 负责执行很多具体的自动化动作,而底层的浏览器通信协议走的是 c d p, 这样就形成了 linux 系统上的浏览器自动化。 ok, 下载好之后,我们还需要执行安装 那由于我们使用的是 d e b 的 方式安装的浏览器,这种方式还会缺少一些依赖,所以我们还需要让 app 自动把上一步安装 chrome 时缺失的依赖补齐,并且把包的状态修复到正常状态。我们输入命令回车, ok, 一 切就绪之后,我们输入命令来验证一下浏览器的安装路径,然后检查一下它的版本, 这里输出了目录,并且成功输出了版本号,就安装成功了。然后我们输入命令来验证一下无沙箱无头模式下的 c d p 连接。 ok, 只要出现这个幺二七的监听链接就可以了。下面无关紧要的一些报错,比如 g u i 内部的一些注册服务错误可以忽略, ctrl c 退出, ok, 我 们开始配置 openclaw 使用浏览器。这里我们选择的是命令行配置,那最终也会落在配置文件里,我们直接改配置文件也行。首先我们需要启用浏览器能力, 然后配置一下浏览器的路径,那由于我们用的 vps 没有图形界面,所以我们还需要开启无头模式,还需要关闭沙箱来规避 linux 类服务器或者是容器环境下的权限与隔离限制问题。 最后我们还需要指定一下浏览器的 profile。 ok, 这些都执行完,重启一下 get 位, 重启完成之后,我们打开 web ui, 我 们来看一下这个配置落到配置文件里面是什么样子,就是这段配置。 ok, 我 们来测试一下浏览器输入命令,启动一个浏览器实力, 启动成功之后,我们让它打开一个网页,打开之后我们来抓一下这个页面的快照, ok, 拿到结果就没问题了,我们也可以尝试抓一下这个页面的截图, ok, 如果能拿到快照或者是成功截图,说明整个浏览器的渲染页面打开控制链路基本上都是正常的。那现在就可以在飞书里面给机器人发消息,让他截个图试试了。让虾子一号处理吧,虾子一号用的 mini max, 速度比较快, ok, 给了我们截图,那就是成功了。接下来我们来处理联网搜索。 openclaw 有 两个内置的搜索和爬取的 tools, 分 别是 websearch 和 webflash, webflash 负责实时搜索网络内容, webflash 负责爬取某个网站的信息, 这两个 tools 组合起来就构建了一个实时网络剪索的能力。但是由于 openclaw 内置的 websearch rely brave, 这是一个三方的搜索引擎,如果我们要使用的话,需要额外配置 brave 的 api, 这个是收费的,所以目前联网搜索是用不了的,那我们的代替方案就是使用其他的 search 服务来代替内置的 web search。 这里推荐两个 skills 来配合完成这件事。首先是 tabule 这个 skill, tabule 同样是一个三方的商业搜索引擎,但好在它每个月有免费搜索一千次的额度,所以我们可以放心使用。我们可以直接打开 tabule 的 官网, 然后注册就可以拿到一个 api k 复制下来就可以了。还有一个是 multi search, 这是一个集成了多个搜索引擎的免费搜索服务, 如果它 webster search 的 服务不够用,或者搜索结果少的情况下,我们可以使用 multi search n 这个搜索服务来都抵。这两个 skill 组合起来代替内置的 webster, 安装方式也比较简单,我们可以直接发送提示词给瞎子, 我们让它根据文档自己去安装,安装完成之后在 toast 文件里面明确声明 webster 能力的 skill 使用,最后把内置的 webster 能力给禁用掉。 ok, 我 们来看一下 toast 文件, 哎,可以看到它帮我们把这个搜索策略写到了这个 tos 文件里。装好之后我们测试一下,可以看到这里它已经调用了它为设置这个 skill。 那 如果你不想装两个 skill, 并且想要在企业里部署无限使用 web 搜索能力的话,还有一种方案是在一个服务器上自己部署一个 z r x n g 服务,这是一个开源的原搜索引擎服务,聚合了多个搜索引擎的搜索结果。 安装好之后就可以在 opencloud 安装一个 c r x n g skill 来进行搜索服务的本地调用,可以返回结构化的搜索结果,那 像一些三方的收费搜索引擎,会随着你的搜索偏好提供一个个性化的搜索结果。但 c r x n g 这种则是不关心你搜什么,只通过你的搜索内容拿到各个搜索引擎的结果,打分排序,完全隐私,是一个不错的免费搜索方案。如果你想做任何 agent 缺乏 web search 的 能力,都可以使用它。 ok skills 技能,这是 openclaw 能力的核心。通过上一爬联网搜索,我们可以看出,我们需要通过一个个 skill 来扩展 openclaw 的 能力。 那社区上有上万个开源的 skill 让我们集成。我们可以通过 openclaw 官方的 cloudhub 平台去查找对应的 skills, 也可以通过 github 的 awesome openclaw skill 仓库去查找想要使用的技能。 比如你在做一个企业级的 open class 系统,并且企业委托于飞书办公,那么你就可以搜索飞书相关的 skills, 读写飞书文档,操作多余表格,以及处理一系列飞书的自动化功能。你要是想赛博炒股,就搜索金融相关的 skill 去装。要是想让虾子去写代码,那就搜 coding 相关的 skill, 根据自己的需求去装就可以。我给大家推荐一个比较核心也比较通用的技能, self improving agent。 这个 skill 翻译过来叫自我提升,它的核心不是让模型自己训练自己,而是让 agent 在 运行过程中把错误纠正、知识缺口、功能需求结构化写入 markdown, 再把那些反复验证有效的经验进一步提炼成长期可付用的工作规则。它主要解决的是一个非常现实的问题,很多 agent 在 使用过程中都会不断犯错,有的是命令执行失败,有的是工具调用翻车,有的是知识过时了, 还有的是被用户指出你这种做法不对。如果这些问题每次都是当场改正一下就结束了,那这个 agent 本质上没有真正成长,下一次遇到类似的情况,他大概率还会踩一遍同样的坑。而这个 skill 做的事情就是把这些当场修正变成长期记忆。他的 skill 点 m d 里面写的非常明确,典型的触发场景包括命令或操作失败。用户纠正 agent, 用户提出当前做不到的新能力。外部 a p i 或工具调用失败。 agent 呢?发现自己的知识已经过时,或者在重复性工作里发现了更好的做法,所以它本质上不是在增强模型参数,而是在给 agent 增加一层失败记录,加上经验累积,加上晋升规则的机制。 会先在工作区里面建立一个 learnings 目录,把经验分别记录到三个文件里。 learnings md 记录更正知识缺口和最佳实践。 arrows 记录命令失败和异常。 future request 记录用户请求的功能。他会先把这些经验沉淀成可追踪、可复查、可累积的外部记忆, 然后再进一步把那些已经反复验证确实有效的经验提升到更长期的工作区规划文件里。比如行为模式可以提升到 so 点 md 里,工作流经验可以提升到 agents 点 md 里, 工具使用规则则可以提升到 twos 点 m d 里。写进 linux 目录只是临时记录下来,而提升到这些长期文件之后,才意味着这些经验会在后续的绘画中真正参与上下文变成 agent 的 稳定行为规则。那为什么我会觉得它很核心?因为它其实已经碰到了一件更庞大的事情,那就是怎么管理 agent 的 记忆 memory。 不管你是做个人助手、做工作流 a 证的,还是做多 a 证的协助,如何把错误纠正经验沉淀下来几乎是绕不过去的一件事情。而这个 skill 恰好提供了一套非常朴素但却非常实用的解决思路,它可以为我们后续的记忆治理埋下影子。那安装方式和之前一样,是复制一下这个链接,让 openclaw 自己安装即可,我们就不做演示了。 我们前面提到过, open klo 官方的 memory 记忆整体是偏轻量化的,真正的记忆载体始终是工作区里面的 markdown 文件。也就是说,不管你后续接不接数据库,开不开向量剪索, memory 最终落地的地方依旧是这些文件本身。 默认情况下, open klo 会把这些记忆写到工作区的 memory 目录下面,以年月日这样的方式去存储长期记忆则是沉淀在 memory 点 m d 里。 那官方其实也支持接入 sqlite、 list db 以及像 qmd 这样的增强型解锁后端,但这里一定要注意,它们都不是用来代替 markdown 的, 更多的是承担锁影、解锁、召回这一层的工作。所以你可以简单地把它们理解成三类角色, sqlite 更偏默认的清量级锁影以及状态存储。 list db 更偏向量解锁和羽翼召回。 q m d 则是在解锁层更进一步增强的一种混合解锁方案,它会把 b m 二五向量搜索和 ranking 组合起来,尽可能地把记忆找得更准。所以 markdown 是 记忆本质, circle、 拉斯 d b q m d 这些本质上都是解锁层能力。 也正是因为如此, opencloud 官方的方案优点非常明显,简单、透明、可控。但它的短板也同样清晰,那就是它更像一个基础可用的记忆底座,而不是一套完善成熟的记忆治理系统。在默认方案下,记忆的长期维护更多依赖于 markdown 的 持续写入。 而向量解锁、自动召回、 embedding 配置,这些能力需要额外配置之后才能真正发挥作用。并且就目前来说, opencloud 内置的向量解锁能力本身也有一定的限制,比如它依赖外部大模型 api 提供的 embedding 能力,目前只能配置 openai 和 jimmy。 很多国内用户其实并没有把这条链路真正接起来,而一旦没有接起来, memory 虽然还能工作,但就会退回到最基础的文件读写模式,那这个时候,系统依然会把内容写进 memory 文件夹下的年月日文件作为日常记忆, memory 点 m d 作为长期记忆, 这些文件照样存在,照样可写。只是因为没有 byte 模型,系统无法进行基于向量的语义剪辑和相似召回,更多只能依赖内置的 memory get 这类定向读取具体文件或指定范围内容的方式来获取记忆。换句话说,系统这时仍然能记,但不太会找。 而一旦没有比较强的剪辑能力,问题就会慢慢出现。记忆文件会越积越长,历史内容会越来越多,上下文 tock 消耗也会越来越快,用得越久,你越觉得 agent 变笨了。 因为大模型本身的上下文窗口是固定的,而 memory 如果只是不断累积,没有智力,最终就会从资产变成负的。而关键的是,在这种基础方向里,我们通常没有真正意义上的清洗、压缩、分层、失效和冲突消解机制。记忆会不断累积,但缺乏有效智力。时间一长,优化 memory 几乎成为一个必然需求。 但这件事情也不能一概而论, memory 策略没有绝对最优,只有是否适合当前场景。本地部署更关注隐私可控和低成本, 那云部署更看重接入速度和跨端统一。个人助手则更强调个性化与长期偏好。记忆团队 agent 或者是多 agent 协助,他会更看重权限隔离。项目级上下文既污染控制以及整体的可维护性。也正因为侧重点不同,不同场景下适合的 memory 方案往往也并不相同, 所以到目前为止,这个方向其实并没有一个统一稳定、所有人都认可的标准答案。大多数时候,大家还是需要根据自己的需求、资源条件和技术能力去做适合自己的取舍。 homecloud 的 记忆增强大体可以分成两层,第一层是剪缩增强,也就是让 agent 更容易找到相关的记忆。这部分典型代表就是官方默认的 sqlite 剪缩、可选的 sqlite 向量剪缩以及进一步增强的 qmd 混合剪缩。 那这其中 sqlite 更适合轻量级默认可用的本地锁影场景。 sql 更适合做 in binding、 向量存储和域域召回。 qmd 则是更强的混合剪缩方案,它通常以本地 start 进程执行,再把结果交给大模型做 ranking, 也就是二次重排。这里的大模型 random 可以 把它理解成前面,尽量多召回一些可能相关的内容,后面再让大模型重新判断哪几条和当前问题最相关,把它们排到更前面。 所以 qmd 的 价值主要体现在,当记忆很多,认知很多、表述又不统一的时候,它能明显提升召回精度和解锁质量。但也要明确一点, qmd 解决的是怎么找的更准的问题,不是怎么把记忆管理的更好的问题, 也就说它的强化是剪缩层,而不是记忆治理层。如果底层还是无组织的 markdown 文件,那么事实变了,依然可能直接覆盖知识写进去了,也未必经过结构化整理。那长期下来,知识是否真正能沉淀成稳定可赋用的 memory 资产, 是取决于你上层怎么治理。第二层才是记忆治理增强,也就是在能找到的基础上,进一步解决怎么记记什么、怎么压缩、怎么氧化、怎么避免污染这些问题。这部分常见的思路大体可以分成几类,第一类,单文件增强。最直观的方式就是通过各种策略,把重要的信息都不断追加到 memory 点 m d 里。 这种方案的优点非常明显,简单直接,几乎没有额外的系统复杂度。你不需要引入新的数据库、解锁服务或者是后台进程,只需要让模型持续地往 memory 点 m d 里面写就行。但问题也同样明显,随着时间的推移, memory 点 m d 会越来越长,文件不断膨胀,信息密度也越来越低,查找的效率也会越来越差。 第二类,自动记忆管理。那第二种思路是做一套自动记忆管理机制,比如通过定时任务,每隔一次 session transcript 自动提取大模型认为重要的记忆内容, 然后按天进行定时压缩归档,持续维护到 memory 点 m d, 减少人工的干预。那这种方案比起单纯追加文件更进一步,因为它开始尝试怎么解决记忆越来越多怎么办的问题,而不是让系统能记住,还开始试图让系统自动整理记忆。但 这套方案的问题在于,我们其实很难知道它到底记住了什么,以及为什么记住这些内容。因为重要这件事本身是由大模型来判断的,而大模型判断的重要性未必和人真正关心的重要性一致, 哪些该保留,哪些该忽略,很多时候并不好对齐。那另外,这类方案常见的时间线压缩方式,比如按天、按周去归等,虽然可以控制体积,但也会带来另外一个问题,事实变化的历史容易被抹平。 举个例子,一个项目原本是进行中,后来变成已完成,在压缩归档之后,旧的状态可能直接被覆盖掉。最后你看到的是一个更新后的结论,但中间是怎么变化过来的?这段过程信息可能已经丢了。第三类是日制流加上剪索增强。那第三种思路是依赖每日的日制,再加上 memory search, 然后再配合更强的剪索后端来工作。 这种做法的核心很简单,每天持续的写日制,把记忆沉淀在日制流里,真正需要的时候,再通过 memory search 去做剪索,把相关内容找出来。 如果只是默认解锁,这更像一种可搜索的流水账。但如果配上 l s d b 或 q m d, 体验会好很多,因为搜索会更准,召回也会更稳定。它的优点是实现简单,维护成本低,几乎不需要额外的治理策略。 你只需要保证日制的持续写入解锁链路就能跑起来,整个系统就能工作。但它的问题在于,这依然不是一个真正结构化的埋木尔系统。随着日制的不断累积,搜索结果里的噪音会越来越多,相关性也会越来越不稳定。 同一个事实可能分散在几十个不同日期的日制文件中,模型每次都要从这些零散的片段里面重新拼装上下文,这样既浪费 talkin, 也难以形成稳定的知识沉淀。所以这种方案虽然能用,但更适合清亮场景,不太适合长期高密度、需要持续服用的知识系统。 那第四类是外接完整的记忆系统,那再往上走,就是把 open cloud memory 增强做成一个独立的系统,或者直接接入第三方平台。最省事的一类做法就是直接集成第三方平台提供的商业 memory 方案,比如 my machine、 open cloud super memory 这类项目, 本质上就是把 memory 的 存储、召回、管理这些能力外包出去。他们的优点是接入快,上手简单,但代价通常是依赖外部平台,灵活性和口控性相对有限。而如果不走商业平台路线,社区里也有一些重型的增强方案, 比如结构化抽取、分层记忆、长期生命周期管理,甚至是主动式记忆系统。这类方案的能力更强,但接入和维护成本也更高,更适合那些已经明确要把 openclaw 做成长期运行的 a 政策系统的人。比如 memory labs db pro 这个项目就很不错,大家有兴趣的话可以去尝试一下。那如果有更好的方案,也可以评论去分享一下。 ok? 在 了解了概念之后,我们应该怎么处理自己的 openclaw 的 时候,其实并不清楚自己真正需要的是什么, 你是想做一个本地的个人助手,还是想做一个长期运行的 agent? 你 更在意隐私成本还是召回效果进行上线?这些问题如果一开始都没有想清楚,那你过早的去折腾 memory, 最后大概率只是在增加记忆系统的复杂度。 所以在这个阶段,你只需要先意识到 memory 确实是个问题,但不用着急,现在就把它彻底解决。对大多数人来说,先用 opencloud 默认的 markdown 策略做基础处理其实就已经够了,先跑起来,先用起来, 先观察自己的实际使用过程中到底会遇到什么样的问题,这是比一上来就追求高级记忆架构更重要的事情。等到什么时候,你真正开始觉得你的瞎子变傻了,记不住了,照回不准了,上下文越来越贵了,那时候再回来处理这个问题反而是更合理的。 因为这个阶段你已经不是在想象问题,而是在面对真实问题。你会更清楚自己到底缺的是更强的解锁能力,更好的记忆治理,更低的 top 肯消耗,还是多 agent 多场景下的隔离能力。 到了那个时候,你再根据自己的需求,参考前面提到的几类思路,去找到对应的开源项目,逐步尝试优化和治理自己的 memory 系统,会更具针对性。这其实是一个很正常的学习路径,先用默认方案建立认知,再在真实问题里逐步升级,而不是一开始就试图设计出一个完美的记忆系统。 而且说实话,现在这个阶段想一开始就把 open cloud memory 做的非常完善,本身也不太现实。因为目前不管是官方方案还是社区里的各种增强路线,都谈不上稳定统一,没有明显的缺陷。 到目前为止,我还没有看到一个真正能够让所有场景都满意的通用优质方案。很多方案都能解决一部分问题,但同时也会带来新的成本和新的复杂度。所以与其一开始就幻想把这件事一次做对,不如接受一个更现实的结论,慢慢也是一个随着使用过程逐步治理的问题,而不是安装 open class 就 能彻底定型的问题。 当然,从更底层的角度来讲,哪怕你把 mac 策略设计的再漂亮,也依然避不开一个根本限制。大模型的上下文长度始终是硬约束。也就是说,很多所谓的记忆增强,本质上都是在有限的上下文窗口里,尽量让系统记得更准一点,找的更快一点,浪费的更少一点。它能改善体验,但是很难彻底消灭限制本身。 ok? 朋友们,如果你看到这里还没有放弃,那么看起来你是想认真玩一下 opencloud, 那 这种情况下,每个工作区的备份将必不可少。这是为了防止你悉心呵护的瞎子突然发疯干掉了自己,或者是某些改动不想要了,你想回滚? ok, 备份的方案也很简单,走 github 备份。首先为了安全,无论你有没有 github 账号,我都建议大家注册一个新的 github 账号。我们直接打开 github, 点 com, 然后点击注册一个新的账号,这个流程比较简单,我就不说了。那账号注册好之后,我们就可以回到这台服务器的终端操作面板,运行一行命令来生成这台机器的 s s h k, 注意这里的邮箱要换成自己 get up 的 邮箱,一路回车就行。 ok, 运行命令,我们查看一下公告内容,我们先把输出的这行公告全部复制下来, 然后回到 gethelp, 点击右上角的头像,点击 settings, 然后在左侧选中 ssh, 点击新增一个 sshk, 粘贴进去,给一个名字创建。 配置好了之后,我们点击 github 导航栏右侧的加号,选择创建一个新的存储库,那这个仓库其实就对应了一个工作区,所以这个名字我们以工作区名命名。那前面的 r n 三是我这台服务器的缩写,因为我在多台服务器部署了 opencloud, 加上服务器代号更清晰一点。后面的 man work space 代表默认的 agent 工作区, 当然你想叫啥都行,但是我建议有意义一点,不然后面工作区搞多了不好找。还需要注意的一点是,我们这里要选择私有, 这样你的这个项目就只有你私人可见了。点击创建,这是一个空的项目,创建完成之后就会自动跳转到项目页面,我们切换到 s s h, 然后把这个仓库地址复制一下,当然下面这个绑定以及推送的命令我们也复制一下,后面会有用。然后我们回到这台服务器的终端控制面板,来配置一下全区的 get 用户名和邮箱。 配置用户名配置邮箱,注意这里的用户名就写 github 注册的账户名,邮箱就写 github 的 账户邮箱即可。配置完成之后,我们输入命令检查一下, 那这样就配置好了,我们直接回到 web ui, 给瞎子发一条消息,让它绑定并且推送。注意一定要选择 men 这个 agent, 因为我们目前配置的是 men 这个 agent 的 工作区备份,直接输入提示词,那这里的命令就是我们刚刚在 gitup 复制的命令。直接回车, ok, 这样就已经推送好了。我们回到 github 刷新一下页面, ok, 可以 看到工作区已经同步过来了,我们还需要给工作区配置一下,让它每轮修改后都提交代码并推送远程。像这样的固定流程,可以直接加到 agent 点 m d 文件中,那如果你不会写,也不知道要加到哪个文件里,你就可以这样问,直接给瞎子发送一段提示词回车, ok, 等它执行完提示词,就帮我们追加到了 agent 点 m d 文件里,那由于改了文件,这次变更它依然会帮我们提交到 git 仓库,到这里我们的工作区备份就做好了。后续如果你的工作区被删除干净了,或者需要迁移, 直接把仓库地址给到 opencloud, 让它恢复就好。 opencloud 的 每个 agent 执行过程中的持久化产物都会放在工作区,所以你可以随时在 github 仓库在线查看你的工作区文件内容, 甚至也可以直接在 github 在 线修改你的工作区文件,然后提交,那提交后给 opencloud 对 应的 agent 发消息,让他拉取一下最新代码,就可以直接应用了。修改工作区文件是不需要重启网关的,那我们有几个工作区就创建几个仓库即可,这里我就不重复了。工作区的这份 agents 的 md 文件建议大家有时间的话,就一定要看看 大家在安装的过程中有什么问题,或者是有什么花里胡哨的报错,可以直接发送给 ai 去问。我们实操的过程中,你会发现,有些是去服务器中的面板自己操作指令,有些时候也会在 opencloud 的 机器人聊天窗口上的操作。那为什么不全都让 opencloud 自己运行安装或者修改配置呢?原因有几点, 第一,有些命令他自己也跑不了,权限太高也不安全。第二,他的系统提示词太长,执行起来有点慢,还不如问外部的 ai, 然后自己去执行,更速度一点。 三、我们在做的是一个高度自制的 a 证的系统,如果我们完全不熟悉,是玩不起来这个 a 证的系统的。所以这个边界在哪儿?我的看法是涉及到一些 skill 安装或者是工作区目录下的内容,编辑可以给到 opencloud 去做,但涉及到系统层面的,哪怕可以让 opencloud 去改, 你也得知道它具体是改了啥,不然挂了你都不知道怎么解决。还有一个操作是直接在服务器上安装一个 cloudcode, 让 cloudcode 作为外部 ai 工具介入去修改配置文件,降低我们的操作复杂度,甚至可以创建一个专门用于编程的 opencloud 机器人, 但让这个机器人操作 cloud code 去完成编程任务,而不是他自己去完成编程任务。因为 cloud code 是 一个干净稳定的 ai 编程 agent, 是 一个非常优秀的 ai 编程产品。 ok, 本期视频到这里就结束了,真的是啰嗦了太多东西,原本我是不想录这期视频的,虽然我也是一直在有用 open cloud, 但由于上不了生产,对我来说它更像是一个学习样本,一个玩具, 互联网真的把它吹的天花乱坠。那最近估计你又会看到大量的第一批跟风体验 open club 的 人的反馈,一定有很多人态度转变,开始吐槽他,真的是很无语。所以大家要理性看待这件事情。 ok, 感谢大家的观看,相关的文档可以在评论区或者是私信找我要。那觉得不错可以参联。谢谢大家,下期再见。

安装完 oppo 壳不会用一分钟教会你从零到一,普通人也能直接上手。首先我们要搞懂什么是 oppo 壳,简单来说他就是一个本地 ai 执行助手,能听懂人话,并且能够操控你的电脑,帮助你干活。当我们安装好之后,我们可以检查一下他是否成功运行, 只需要打开终端,然后我们运行这个代码,在这里就可以看到他是否在运行的状态,可以看到他是在正常运行的, 下面我们就来测试一下,给他一个命令,然后看他是否能够正常运行。这里我们让他在桌面创建一个文档,文档内容是我成功启动 open code, 然后让他执行 好,这里可以看到他已经完成了,然后我们来到桌面看一下,可以看到桌面就已经建好了一个文档,我们打开看一下内容,可以看到与我们的要求完全一致,好。测试完成之后,我们来认识一下他的一个主要功能, 我们只用记得这三个,第一个就是概览,在这里我们可以看一下他的状态,检查一下是否正常,同时在这我们也可以修改他的语言 好。然后第二个就非常重要的 skus, 他的一个技能就像我们人一样,需要不断的学习各种技能才能提升自己,那可口可乐也是一样的,我们需要在这个地方去安装各种各样的技能,当然也可以从外部导入, 这也是养龙虾的第一步,给他增加技能。这里的话给他一个建议,就是可以根据你的行业或者需求,然后去安装对应的一个技能。而第三个的话就是 agent, 也就是你的一个团队员工,然后默认的话他只有一个主要的能力, 然后我们点击这个 tos, 可以 看到它的一个基本配置,在这里我们可以修改它的一个权限,从左边的话是默认最低,然后我们可以点 for, 然后权限给它开满。 那我们如何增加多位镜头呢?我们可以直接根据自己的行业或者需求,然后让 open 可乐帮你设计一套多位镜头, 我们可以直接在聊天窗口告诉他我们的需求,然后让他帮你设计,就像这样。那我们应该怎样去增加一个 app 呢?下面我就为大家实际演示一下。首先我们打开终端,然后输入这个代码, 最后的话是他的名字可以自行设定好,设定好我们按回车,在这里就打开了一个配置界面, 好,这里我们按回车,这里我们选择 yes, 然后同样的按回车, 这里的话我们因为出于演示,在这位置我们选 no, 直接跳过,然后这里也是选 yes, 到这里就选择你需要接入的一个 a 帧,就比如你要接入飞书,你就选择飞书,那这里我们直接跳过。好,下面我们来到 ctrl 界面,然后点这个代理, 可以看到我们刚刚配置的 a 帧就已经配置好了。好的,那么本期视频就到这里。