今天的播课,我们来聊一聊如何通过一种叫做 opencloud 本地优先的记忆解锁系统。嗯,来对大模型的记忆管理机制进行一个彻底的重构, 包括怎么去用一些独特性的原则,持续性的原则,相关性的原则,还有完整性的原则来对记忆进行解锁,以及怎么去用一些全线的沙盒和一些本地的缩影来增强记忆的安全性和解锁的效率。 最终呢,实现一种更像人脑的,会遗忘、会进化的这样的数字记忆。没错没错,这些东西其实都特别有意思,那我们就开始今天的讨论吧。首先我们要聊的就是这个 open club, 它的核心机制就是为什么我们要去关注上下文爆炸的问题。 其实在很多应用里面,用户的每一次输入他都不是在真空中的,就比如说聊天机器人,他要去知道之前聊了什么,才能理解现在说的是什么, 所以它会把历史的对话,甚至一些文件都会塞到当前的这个请求里面作为背景信息。哦,原来如此,所以上下文的长度是会不断的增长的。对,但是这个 token 的 长度它是有限制的嘛,所以如果它超过限制之后呢,就会导致核心的信息被丢掉,然后成本也会变得很高。 还有就是噪音也会很多,模型的回答就会变得很离谱。哎,那为什么要对记忆进行分层的管理?为什么不能一视同仁?因为不同的记忆他的风险是不一样的,就比如说对话的历史,他是很容易就会爆炸的, 所以它是一个高危区,它需要更精细的去切分和检测啊,那像一些身份信息或者是技能,它其实变化很慢,它就属于安全区,就不需要那么频繁的去管理。好的,那咱们就来进入这个精准记忆解锁的四大黄金法则, 那咱们就一条一条来看。首先第一个独特性,它在实际使用的时候会解决什么问题?独特性它其实就是专门来干掉那些高度相似的荣誉信息的。 比如说用户可能反复的说我喜欢苹果,我喜欢苹果,我喜欢苹果,那其实在解锁的时候就只会留下一个我喜欢苹果,这样就避免了模型一遍又一遍的去考虑相同的内容,导致效率降低或者产生混乱。 然后咱们再来说说这个持续性和相关性这两个原则到底是怎么影响模型去挑选记忆的。持续性其实就是给记忆加上了一个时间的权重,就越新的记忆,他的权重会越高,所以他会反映出用户最近的喜好的变化。 那相关性呢?他是不再去管什么关键词是不是一样,而是通过高维的向量空间去捕捉语义上的关联, 所以他会让检测出来的结果跟你想要问的东西在意思上更加贴切。了解了那完整性这个原则,他在实际操作的时候会遇到什么比较棘手的问题?嗯,完整性主要就是为了防止记忆被切片之后失去了原本的语境, 就比如说有一句话被拦腰截断了,前一半在这一个切片,后一半在下一个切片,那模型可能就会理解错误。 所以完整性就是要保证这些相关的内容是不会被拆开的,它永远都是一个完整的意义。快明白了,然后我们下一个主题就是架构的重塑。那这个 local first 的 记忆引擎到底是怎么斩断这种天价的 api 的 账单,并且保护隐私的? 这个问题很关键,就是我们把这个记忆的搜索的提供者切换到了本地之后呢,我们就不再需要每次都去请求远程的 api, 那 我们就彻底的跟这个 api 的 费用说拜拜了。 然后所有的解锁都是在设备里面完成的,所以数据根本就不会离开你自己的机器,那隐私自然也就有了保障。那这个向量引擎的选择 到底是怎么影响羽翼解锁的效果呢?呃,因为不同的向量引擎,它对于羽翼的空间的划分是不一样的。就比如说我们把官方默认的伽玛换成了 q n 三零六 b, 它是一个七百六十八维的向量空间, 然后它在中英文的混合的理解上面是特别强的,那这个空间的分布就会变得更加精细,这样我们在做相似性剪缩的时候就会又准又全。既然如此,在不同的场景下,我们怎么去调整这个混合剪缩的公式,让它可以满足我们的实际需求?这个其实就是靠调整 lamb 的 参数。 那如果说我们把列表调的靠近零,那它就会更侧重于文本的独特性,它就会尽可能的去给你找那些不重复的答案,适合用在那种局的思考型的 agent。 那 如果说我们把列表调的靠近一,那它就会更侧重于向量的相关性,那这个时候它就会专注于和当前任务最贴切的那些记忆,适用于那种日常的助理型的,需要快速反应的 agent。 没错没错, 时间衰减算法到底是怎么让 agent 能够像人一样去遗忘并且去适应新的偏好的?就是这个算法会给每一段记忆都设一个半衰期,就比如说我们设三十天,那每过三十天,这个记忆的权重就会减少一半,所以就会让旧的记忆慢慢的变淡,新的记忆会占据主导地位。 这样的话,即使用户的喜好变了, agent 也可以自动的去调整,不会一直停留在过去的人设里面。好, 那 qmd 这个本地的搜索引擎,它到底是怎么帮个人或者小型的团队去高效的管理和解锁大规模的记忆数据的? qmd 其实是专门为个人和即刻开发者设计的,因为那些企业级的搜索集群太复杂了,而 qmd 又轻巧又高效, 只要在 opencloud 的 框架里面把 include default memory 打开,它就会自动把所有的长期记忆都切分好,然后建立缩影。 同时它也会把当前的这个高频的 session 也都接入到搜索里面,所以它的解锁速度也是非常快的。原来是这样啊。 然后我们再来看看怎么能够让 agent 直接去调用我们外部的知识库,就比如说像 opcdine 这种笔记软件里面的那些资料。这个其实也很简单,你只需要在配置里面把你外部知识库的路径指定好,然后 agent 就 可以直接去读取 opcdine 里面的那些 markdown 文件,论文、笔记等等。 这些东西都不需要你再手动地去导入或者整理,它就会自动变成 aegant, 可以 随时查阅的知识储备,真正做到你学即他学。嗯,然后我还有一个问题,就是在多用户的环境下,怎么去保证每个用户的记忆是安全隔离的?这就需要给每一个用户都设置一个独立的权限沙盒儿。 比如说你可以给不同的对话设定不同的 chat cap, 像私信的话就只能是发信人和收信人可见。然后每个频道也会有自己的 arch prefix, 就是 只有符合这个前缀的对话才可以被访问, 同时还要开启 default deny 就是 默认拒绝任何越权的请求,这样就可以防止用户之间互相偷看记忆。在多用户的场景下,为了防止敏感信息泄露, 还有什么其他的安全措施是必须要做的吗?其实最保险的就是在公共服务里面把 session 的 解锁彻底关掉,这样的话就可以避免因为一些碎片的信息被误搜而导致的信息泄露,这样可以进一步地加强这种多用户环境下的隔离和防护。然后我们来看看本地所引的构建和验证的管线, 就是说我们在实际操作的时候都有哪些关键的步骤。第一步就是要先确保你的 node js 和 node 拉曼 c p p 都已经装好了,这是基础的环境。 然后第二步就是你要通过 qmd update 这个命令来下载 embedding 的 模型,并且把你所有的本地文档都切成小块儿。最后一步就是你要使用 opencloud memory index, 然后加上 force 这个参数来强制重建缩影,你就可以通过命令行来提问, 比如说你可以问我最喜欢的颜色是什么,来检验它是不是可以准确地召回不同频道的记忆碎片。好的,那我们最后要聊的这个主题呢,是记忆系统的终极进化路径, 就芝士图谱和离线文档摘药到底是怎么让 agent 的 认知能力产生一个质变的?芝士图谱,他会把这些零散的记忆节点像一张网一样的连起来,这样的话 agent 就 可以通过这个逻辑关系去做一些更深入的推理, 然后再加上离线文档摘药,它是可以用本地的大模型去提炼出这些长文的要点, 再把这些要点作为锁引,所以它是可以解决信息密度不均的问题以及提升剪索的效率。 所以这两个东西加起来,就会让 agent 的 认知能力有一个断崖式的提升。主动遗忘和参数的动态调整为什么在记忆系统进化的过程当中变得这么关键?因为只有主动的去遗忘那些噪音信息, 然后去动态地调优你的这个 mmr 的 lambda 和 time decay 的 这些参数,才可以让 agent 真正地去根据不同的场景去挑选出最相关的记忆,而不是说什么都存什么都搜。 所以这是一个主动地去管理本地缩影的过程,只有这样才可以让 agent 真正地去掌控自己的数据,并且适应各种复杂的任务。没错,今天我们聊了很多关于 openclaw 怎么去帮 agent 构建一个更智能、更安全、更贴近于人脑运作方式的记忆系统。 然后也聊了一些包括分层管理、持续权重、本地优先解锁以及主动遗忘在内的一些核心的机制。好了,那么这就是这期播课的全部内容了,然后感谢大家的收听,我们下期再见,拜拜。拜拜。
粉丝3479获赞2.5万

手把手带你安装 openclaw 龙虾必备的 skills。 之前我出过一期 openclaw 保姆级安装教程,但装完之后你会发现它其实还只是一只裸龙虾。你让它查看文件,它说没权限,你让它算下天线,它说没联网,属于一同操作猛如虎,另近一看原地图,所以这个视频带你正确配置龙虾,补齐必备技能, 让它真正从能聊天进化成能干活。但在开始之前,我们先熟悉几个会频繁用到的命令,如果你是 windows 系统,就在 power 里输入这些命令,如 mini 是 micro, 二,系统就在终端 terminal 里输入。要开始用 openclaw, 第一步是先把网关启动起来,对应的命令是 openclaw gateway start。 启动后,我们可以打开 openclaw 控制台,也就是它的可式化操作键。面对的命令是 openclaw dashboard。 如果你暂时不用 openclaw 了,也可以把网关停掉。对应的命令是 openclaw gateway stop。 技巧一,本地文件读写从二零二六点三点二版本开始啊。 opencl 默认对本地文件访问权限做了限制,所以如果你想让它读取甚至进一步操作你电脑里的文件,要先把对应权限打开。操作也很简单,打开 opencl 或终端,输入 opencl config set tools, 点 profile for 命令回车执行。 把 opencl 的 工具权限切换成完整版,运行后还需要重启网关,让配置生效。对应的命令是 opencl gateway restart。 搞定以后,你就可以让 opcode 做各种文件提取和修改的操作了,比如批量重命名、文件整理、桌面分析、磁盘空间占用等等。 技巧二,联网搜索 opcode 默认情况下是无法获取网上信息的,所以你问天气、问资讯、问股价,他通通不知道,但我们可以安装一个负责联网搜索的 skill。 skill 可以 理解成是 opcode 的 技能包,本质上是一套针对某类任务的说明和流程, 用来教他在特定场景下该怎么做。比如这就是一个简单的 skill 的 例子, openclaw 有 个官方技能市场 clawhot, 你 能在上面看到很多别人做好的 skill, 可以 直接拿来安装使用。要事先联网搜索,可以搜一个叫 tablie search 的 skill, 这个 scheme 要求从 tiffany 点 com 获取 api 密钥,我们可以稍后设置。安装方法也很简单,我们可以直接复制 call hop 上 tiffany search 的 页面链接,粘贴到和 opcode 的 聊天里,无论是控制台还是飞书这类通讯渠道聊天窗口都行,然后让 opcode 自己帮你安装。 tiffany search 还会用到 api 密钥,所以我们来到 tiffany search 官网 注册登录后啊,就可以直接得到一个密钥,他每个月呢都有免费额度,而且不需要绑卡。拿到之后,我们可以把 api 密钥一起发给 opencall, 让他安装后自行完成配置。 装好之后,我们可以简单测试一下,比如在飞书里问他茅台目前的股票价格是多少,这时候啊, opencall 就 能顺利返回来自互联网的实时信息了。 技巧三,定时任务欧姆克劳支持通过 com 创建定时任务,不需要额外安装 sku。 比如你可以直接对欧姆克劳说,每隔五分钟汇报某只股票当前的价格,他就会创建一个定时任务, 然后按设定的间隔自动运行,帮我们实现对股价的监控。所以啊,不管是每天早上七点发资讯,每周一九点写周报,还是二十分钟后提醒浇花这类定时任务,你都可以直接交给他。 小四,浏览器操作 opcode 本身自带 browser 工具,不需要额外安装 skill, 就 可以读取网页内容。比如可以对他说,帮我看看知乎上现在有什么热点网址是这个,它会自动用浏览器打开网页,读取页面内容,把上面的信息整理出来。而且不只是读网页, 像点击输入之类的基础操作啊,它也能完成。比如让它去 github 上搜索 linux, 然后把排在前三的搜索结果给你, opcode 也能直接搞定。不过它的缺点啊也很明显,第一是比较稍 token, 因为网页内容因为状态,还有每一次工具调用的结果啊,都会不断进入模型的上下文。 第二是执行速度比较慢,因为 opcode 的 工作方式不像程序脚本或 rpa 那 样,流程确定后一次跑完。而 每做一步,都要先看当前页面,理解页面内容,探讨下一步该点哪里,再执行操作,然后再读取结果,继续推理下一步。所以它更像是一个会操作网页的 ai 助手,而不是一个高效率的自动化程序。另外,如果遇到强制登录、扫码、验证码校验,或者比较严格的反爬机制啊,我不靠也容易翻车。 技巧五技能查找 opcode 的 skills 很多,但真正麻烦的是不知道该装哪个。这里推荐两个实用 skill, 一个负责找 skill, 一个负责审 skill。 第一个是 find skills, 它的作用就是根据你的需求去查找合适的 skills。 安装方法和前面一样,直接把链接发给 opcode, 让他自己安装就行。 装好之后,我们可以对 okl 说帮我查找邮件自动化相关的 skills, 他 就会推荐合适的 skill, 这样你就不用自己去技能市场里一个个翻了。但接下来还有一个问题是,他推荐给你的 skill 真的 安全吗?那么我们可以再安装一个 skill better, 它的作用啊,就是在安装前先帮你做一层安全审查, 重点看看有没有权限问题、可疑行为,平常窃取回销代码或者数据外传之类的风险。我们可以再提醒一下 oppo, 安装每个 skill 前用 skillbetter 检查一下,这样后面啊,他在安装新 skill 的 时候就会先审一遍,再决定要不要装 技巧六,既能创建与改进除乱中别人已经写好的 skill, 我 们也可以直接通过自然语言让 opcode 创建新的 skill。 比如可以直接告诉他帮我创建一个 skill, 把新收到的邮件内容提炼成三句话总结。这样一来, opcode 就 能根据你的描述自动创建一个 skill, 让这套流程可以长期服用, 以后再遇到类似任务啊,他就不用每次从零开始了。如果你还想让他越学越聪明,可以再装一个 skill, 叫 self improving agent。 这个 skill 的 作用就是帮 opcode 把错误纠正和新学到的方法都记下来,慢慢沉淀成经验。 具体来说就是有失败的操作时,他会自动记录到 error state, md, 你 纠正他了,或者他学到了更好的方法,会记录到 learning state, md, 你 提了他一个还不会的功能, 会记录到 feature request, 点 md 一 些真正有价值的内容啊,后面还会进一步沉淀到 memory, 点 md 这种长期记忆文件里。那么安装之后, okl 不 止完成当前任务,还会把每次失误和改进建议啊,沉淀下来,自动应用过往经验,变成一个会复盘的助手。那希望以上这些技能补齐之后,你的龙虾能真正下场干活了。如果这个视频对你有帮助,也欢迎点赞和关注,我们下个视频见。

安装完 oppo 壳不会用一分钟教会你从零到一,普通人也能直接上手。首先我们要搞懂什么是 oppo 壳,简单来说他就是一个本地 ai 执行助手,能听懂人话,并且能够操控你的电脑,帮助你干活。当我们安装好之后,我们可以检查一下他是否成功运行, 只需要打开终端,然后我们运行这个代码,在这里就可以看到他是否在运行的状态,可以看到他是在正常运行的, 下面我们就来测试一下,给他一个命令,然后看他是否能够正常运行。这里我们让他在桌面创建一个文档,文档内容是我成功启动 open code, 然后让他执行 好,这里可以看到他已经完成了,然后我们来到桌面看一下,可以看到桌面就已经建好了一个文档,我们打开看一下内容,可以看到与我们的要求完全一致,好。测试完成之后,我们来认识一下他的一个主要功能, 我们只用记得这三个,第一个就是概览,在这里我们可以看一下他的状态,检查一下是否正常,同时在这我们也可以修改他的语言 好。然后第二个就非常重要的 skus, 他的一个技能就像我们人一样,需要不断的学习各种技能才能提升自己,那可口可乐也是一样的,我们需要在这个地方去安装各种各样的技能,当然也可以从外部导入, 这也是养龙虾的第一步,给他增加技能。这里的话给他一个建议,就是可以根据你的行业或者需求,然后去安装对应的一个技能。而第三个的话就是 agent, 也就是你的一个团队员工,然后默认的话他只有一个主要的能力, 然后我们点击这个 tos, 可以 看到它的一个基本配置,在这里我们可以修改它的一个权限,从左边的话是默认最低,然后我们可以点 for, 然后权限给它开满。 那我们如何增加多位镜头呢?我们可以直接根据自己的行业或者需求,然后让 open 可乐帮你设计一套多位镜头, 我们可以直接在聊天窗口告诉他我们的需求,然后让他帮你设计,就像这样。那我们应该怎样去增加一个 app 呢?下面我就为大家实际演示一下。首先我们打开终端,然后输入这个代码, 最后的话是他的名字可以自行设定好,设定好我们按回车,在这里就打开了一个配置界面, 好,这里我们按回车,这里我们选择 yes, 然后同样的按回车, 这里的话我们因为出于演示,在这位置我们选 no, 直接跳过,然后这里也是选 yes, 到这里就选择你需要接入的一个 a 帧,就比如你要接入飞书,你就选择飞书,那这里我们直接跳过。好,下面我们来到 ctrl 界面,然后点这个代理, 可以看到我们刚刚配置的 a 帧就已经配置好了。好的,那么本期视频就到这里。

哈喽大家好,欢迎来到我的频道。如果你还在为你的小龙虾装了一堆 skill, 却不知道用哪个,或者看着 call up 上一万多个插件眼花缭乱,那今天这期视频就是给你省的。 我不讲大道理,只告诉你这十个 skill 装上去具体能干嘛,全是干货,直接抄作业。首先第一名 skill vetter 安全守门员,装任何插件前先把它装上, 它的作用就是给你的新插件做安检。装陌生 skill 之前自动扫描有没有读取 api 密钥,访问本地文件,这类危险行为,把恶意插件扼杀在摇篮里,这年头安全第一。第二名, find skills 搜索神器, 以前找个插件还得去翻仓库,太麻烦了,有了它你直接打字说我想找个能抓网页的 skill, 他 自己就去翻库了,找到还会告诉你咋装,主打一个动口不动手。第三名, memory setup 记忆大王, 没装它之前,小龙虾是鱼的记忆,聊完就忘装了它,你的使用习惯偏好它都能记住,下次聊天不用重复自己的背景信息, ai 才会越用越懂你。第四名, self improving 自我进化这玩意特有意思, 你用着用着如果纠正了它一个错误,它会自己记小本本上,下次同样的问题就不会再犯。简单说,这是一个能用时间换智商的神器。 第五名, summarize 全能总结,扔给他一个 b 站链接,一篇公众号长文,或者一个几百页的 pdf, 他 几秒钟就能给你吐出核心摘要。现在信息爆炸,省点阅读时间,多刷会视频不好吗?第六名, web content fetch 有 些网页特别是微信公众号文章不好复制,装塔,他 能绕过各种限制,把正文内容给你扒下来,转成干净的 markdown 格式,为给 ai 做下一步处理,搞研究必备。第七名, nano pdf 你们有没有这种经历?老板发来个 pdf 让你改几个字,你只能干瞪眼装了这个你直接说把第二段那个错别字改一下,他自己就动手改了,咱就不用为了改俩字再去开那臃肿的 adobe 了。第八名, humanizer 去 ai 位 现在的 ai 写东西一股套话味,动不动就值得注意的是,这个 skill 专门趣味,把 ai 生成的内容改得更像真人说话,发朋友圈,写小红书,文案用它过一遍,从此告别 ai 低能儿。第九名, nano banana pro 全能画图 不用单独开 mid journey 了,在对话框里直接打字,让它画图,甚至让它给现有图片换个背景,改个风格都行。支持四 k, 日常做封面,搞配图,它一个就够了。 第十名, proactive agent 主动服务这个最牛,装完它,你的 ai 就 从被动应答变成主动服务。 你可以让它每天早上九点帮你巡检服务器状态,或者定个闹钟提醒你带伞,这才是真正的智能助理。以上所有插件都可以在 github 或 clubhub 中找到并下载,你还有哪些私藏的神仙插件?欢迎在评论区留言分享,别忘了一键三连,下期见!

这个开源项目简直不要太酷,只要十来块钱的 esp 三二 s 三,插上 usb 电源就能丝滑运行 open 框。 mini 框没有 linux 和 note gs, 只有纯粹的语言,堪称 open 框基础平替。只要零点五 w 功率,八 mb 三内存,十六 mb flash 存储的开发板,连上 wifi 就能二十四小时不间断运行 open 框,性价比直接拉满 flash 持久化存储上下文重启后直接从 flash 加载,根本不怕忘掉对话,并且支持 telegram 接入,所有设备都在十几块芯片上运行。这套方案不仅便宜还优雅,非常值得研究研究。

小龙虾, opencore 关掉以后不知道怎么再打开,记住这两条命令就够了。很多人第一次装完 opencore, 最容易卡住的不是安装,是下一次想用的时候 不知道怎么再进去。你可以直接这样进,平时正常用先是 opencore 的是 board, 这个命令更像是打开控制台,也是官方文档里本地最快进入域外的说法。或者直接打开 h t t p 冒号斜杠斜杠一二七点零点零点一冒号一八七八九斜杠。但如果你重启过电脑或者页面,根本打不开, 再先是 openclog to a star, 这个命令更像是先把后台服务启动起来。所以最实用的记法就一句,先输 openclog dashboard, 打不开再输 openclog to a star。 还有一个小建议,你可以把 h t t p 冒号斜杠斜杠一二七点零点零点一幺八七八九先存成书签,但要注意,书签只是网址, 如果 gateway 没启动,页面还是进不去。关注收藏我一下,帮你避坑,轻松上手 openclock!

大家好,我安装的 open core 啊,今天开始叫我皇帝陛下了,而且他回复的这个内容呢,有需要我确认, 然后的话是整个过程的语气是非常的毕恭毕敬的,那这是怎么实现的呢?今天我们继续 open core 必学的第二期,我们来讲解一下 open core 的 三个非常非常重要的文件。那这三个文件呢,决定了 open core 对 你的信息进行回复的个性化,他处理的流程 以及它的一些特征等等。那当你安装完 openclip 之后,如果没有进行任何的设置,那它使用的就是这三个文件,都是默认的设置,那么默认的设置和 你单独设置过之后的区别是什么呢?我们可以通过对话的内容来看一下同样的任务啊,在没有设置任何的这个三个文件内容的机器人里面的回复里面 是非常的近中性的,然后他这边结果也不会有任何的,让我继续下一步操作的一个提醒。那么设置了三个文件不同内容呢?他就那么语气是会根据我们设计的语气和我们的回复风格来跟我们对话,所以能看到一个明显的区别,那为什么会有这样的效果呢?这个我们可以先来了解一下,就是 它的原理是什么。那么你当你跟 openclip 对 话的时候, openclip 会把你设置的这三个文件的内容啊放到这个上下文里面去, 然后呢 ai 会根据你这个上下文里面的要求,你的内容的要求去回复你的格式,比如说我们这个所有点 md, 我 们可以把它认为它是一个性格,比如说你你定义的这个所有点 md 是 一个活泼、可爱、幽默的,那么 ai 回复的内容可能就会比较活泼、可爱、幽默,那这个就是它会把这三个文件的内容啊加到我们的上下文里面去, 那为什么会有这三个文件呢?其实最大的作用是来自于这里,那我们先来了解一下它最大的作用啊, 那 open call 它底层,它其实是对接一个聊天工具的,那么通过聊天工具啊,接收不同人的信息,那么不同的人,那么你就需要有不同的回复方式,那比如说啊,张总是你的老板, 那么王哥是你的同事啊,还有一个客户,他们三个人你回复的内容的语气,处理的方法,以及他他们各自的可能不喜欢聊的一些事情,每个人限制的东西都不一样,如果没有这三个文件, 那么就有可能你对每一个人的回复的内容格式都是一样的。那比如说张总,他更关注的内容是非常简洁的,非常有 重要,信息非常突出的,那王哥是你的同事,那么你回复的语气可能是比较活泼,比较轻松的。那客户呢? 那就是你要非常的尊敬,或者说其他的一些,为了实现不同的人,你能回复不同的格式,不同的语气,不同的人格给他们, 那所以有了这三个文件,而且这三个文件是跟这个 agent 去一一对应去处理的。那么下一期课程我们会继续讲解这个 agent 的 搭建啊。那么当 open group 装完之后啊,会有一个默认的机器人, 但是你也可以配置不同的这种机器人,就是这里说的 agent, 那 么不同的 agent, 然后每一个 agent 都有这三个文件,那这三个文件就代表了你这个 agent 的 性格,回复的特点,以及你服务的客户。比如说张总这个 agent, 那 么他是专门来服务张总的,他就会定义这三个文件, 那么你就知道张总你的老板喜欢什么,听什么,他的画的风格是什么。所以说为什么说他是非常关键呢?如果你没有 多个 a 型的,那么这个你定义的这三个文件其实就是赋于你自己的。那接下来我们就来分别讲解一下每一个这样的文件它的作用是什么?那怎么来写?那 给到一些案例,那第一个呢就是 sort md, 我 们可以把它简单认为就是你对这个机器人这个 agent 定义它的人格和原则,我们可以看一下官方对这个 sort md 的 一个模板,那么它这边就是第一个就是核心准则, 就是你的原则性的问题。第二个就是边界,也就是说你不能怎么做,不能怎么做。那第四个,第三个就是你的气质,就是你个人的特点是什么。 那第五个就是一个连续性,就说你通过学习,通过更新可能成长了,那么需要去更新这个文件,所以呢所有的 md 是 一个非常非常重要的核心文件,那我们总结下,把所有的 md 的 这种每一个模块该怎么写, 比如说核心的信条就是它核心的原则是什么?写行为规则,不要写空格,比如说 先给,这就是你要总结出方法论,然后让他呢按照你的这个方法论去定义怎么去做事。边界就是 你不需要做什么,比如说不能泄露隐私,那么这个就是蓬荜和禁禁区。风格和气质就是他的性格特点,而冷静、直接、务实,或者沉默,或者说幽默,对吧?或者是风趣,这都是他的个人的一些性格特质。 连续性,就是你可能持续交流中可以去更新,那么其实这三个是必须的,那后面这个你可以写,也可以不写, 这个文件是三个文件里面最重要的。那接下来就是一些案例,比如说你现在定的是一个创业顾问的一个 a 技能,那么你就可以去设置,比如说核心的原则是先给结论,再给证据,不要讲空话,发现风险啊,先预警,再给替代方案。这三,其实这三条就立住了。这个 ajin 的 式的风格是什么?处事的风格是什么样子的啊?边界,那么这个就是你要限制他,就是不要做哪些事情,气质啊,务实、清晰、可靠啊。连续性,那么这边的话一个技术搭档啊,这边是也是一样这三条定义的,这个人的大概的轮廓、性格特点、 边界是什么样子的,不猜测未验证的事实,这个就是我们如果需要这样一个搭档,或者说你要去回复这样一个搭档的问题的话,那么你就可以这样去定义。好,那第四个就是这个 it, 就 我可以把它认为叫身份名片啊,很很好理解,就是你去定义它叫什么名字,就是你这个 agent 它叫什么名字,那比如说 我这边的 agent, 我 给他起了个名字叫金基数首辅,那么在这个聊天工具里面会出现这个名字,那么在飞书里面,因为这个名称是被这个飞书软件自己覆盖掉了,所以说是没办法显示这个名称的,那除了显示这个名称之外,他还有这个啊,头像啊,表情头像, 然后的话你是可以在别的工具里面去展示出来,那比如说我这个有个图片,但是这个没有加载出来,你是可以定义他头像的,是可以定义头像的,这是一个非常个性化的一个。那么这边有一些案例啊,比如说这个什么专业商务啊,还有这种幽默,我的就是这个御行军机大臣 啊,就是定义好了这个特性啊,或者这种名字头像,那么这个头像是要放到这个 agent 所属的这个工作目录里面。第五个就是第二重要的,除了 solo 的 md 呢?第五个 user 的 md, 这个也是非常重要,那这个就决定了他要去服务谁, 然后怎么去服务这个人有什么特点,那比如说我们在前面的例子里面说到,比如说啊张总,那么 user 点 md 就是 来描述张总这个人,他的要求是有了这个描述,那么 agent 就 能按照张总喜欢的这个风格来进行回复。所以呢, user 是 面向客户的,他是跟客户沟通的说明书,那这个跟我们在现实中去跟客户沟通一样,提前要知道这客户喜欢什么,那这个文件就是起了这个作用, 他回答的是什么?我在服务谁?这个人喜欢怎么沟通?怎么表达?讨厌什么表达。那么这边的话也是有格式,比如说 name, 这个人,这个客户叫什么名字?怎么称呼他?那比如说我这边就叫皇帝陛下,那我就叫我皇帝陛下啊,那这个就是昵称 啊,比如说老板啊,老师,那这个时区的话,这个也不是特别有作用,这个非常重要啊。这个 nose 就是 背景信息,就是非用一句话总结你客户的一个特点, 比如说正在 ai 创业节奏快,那比如说我这个啊,因为他服务的是我,我是皇帝陛下,那么这边的话就是会总结一条,就是统一六国之后,时间比黄金还贵,这句话就代表就是你不要啰嗦说重要的内容,那最后一个就是这个啊,也是一样的,就可以去长期去沟通之后去更新 这个 user 的 目的,因为可能你对这个客户进行沟通之后, ai 去发现它的一些特点,把它更新到这里面去。那 context 呢?就是你要去总结就是它的一个沟通的偏好, 那建议就是按关注点喜欢的输出禁忌三字来写。这个也是非常重要的,就是总就是决定了你跟你回复个这个客户的这个风格。 那比如说我们这个案例里面,比如 ceo, 那 么他关注的是这个东西这三样,所以呢,你就是在回复这个 ceo 的 对话的时候,你就会按照这个规则去组装。这样的话, 那比如说技术负责人,他关注的是性能和稳定性,那喜欢讨论,讨厌什么,喜欢什么,关注什么,这就一个固定的格式了。那讲完上面这三个啊,那基本上你就能知道这三个文件分别代表了不同的作用。配置好了之后,那你对这个 a 件的描述是具象化了, 那怎么去配置呢?那有两种配置方式,那在外部端,比如说在这个外部端点开这个代理,然后这里面就是你配的这个 agent, 那 个 man 就是 你创建完之后有个默认的,那这边有个 files, 那 就有这个啊, solo 的 md 啊,比如说我这里的就是 皇帝陛下的,那这边的话就会定义好它的一个性格特点,核心是什么?边界没有经过我的同意,不得不得发表任何的这个结论。 然后的话我喜欢什么在这一个里面,就是比如说每次做爆要有要有给我一个决策,那这个就对应了至少一条,那就对应了这个决策,让我定了完之后,你就可以出现这样的效果,那这个是身份啊,就是我这个名字, 然后有一个这样的表情,然后有个这样的头像,这些东西都是可以自己去再去扩充的,就大概的符合这个格式就行了,就是也没有说是写死了,一定要这样子, 因为我们写的其实是一个文档,那这个文档你你只要写得出来,或者说你只要描述得清楚, ai 是 能理解的,这种格式只是方便大家用结构化的方式去书写, 你只要能表达出来这个人是什么样的性格特点就 ok 了。那除了外部端这种保存方式呢?那么你如果使用的是服务器这种方式啊, 那么你就需要去在这个 opencloud 的 目录里面去修改这三个文件啊,去配配置我们的这个主 a 文件。 那么其他的,如果你创建了这个其他的这个 agent 的 话,你就要去 open freelancer agent 这个目录里面去找你这个名称,再找到这个 workspace。 最后我们来总结一下,就是当你没有创建这个 agent 的 时候啊,可能你会觉得这三个东西没有用,有它和没它 没有区别,但是当你创建多个 a 群的时候,那它就非常重要了,它就需要有不同的风格去回复不同的上有的信息,这是非常非常重要,也是 open, 我 觉得是最大的意义,它能接这种不同的消息,能处理不同的消息。 ok, 本期视频就到这,希望这些内容对你有所帮助。

这是最近热度比较高的一个 open 可乐小龙虾智能助手,还有很多人都在想为自己的电脑安装上,今天我就在这台麦克上给大家做一个详细的一个安装教程。好,下面开始安装。首先我们打开安装包,我们打开之后我们先运行这个, 好,这里我们点同意安装,这里我们输入开机密码,按回车, 好,安装完成,我们点关闭,下面开始第二步,打开这个第二步好,我们再打开这个搜索终端,好,打开,打开之后我们来复制这个第一行代码, 好,复制了,我们粘贴过来按回车,好的,这里它出现这个 v, 二十二点二二,就说明环境部署已经完成。我们开始第二步,复制这个同样的粘贴过来按回车, 好,这里它在安装,我们耐心等待一下, 这里出现这个我们点安装,然后同意,然后我们耐心等待它安装完成。安装完成之后,我们点完成 好,下面开始复制第三行代码,同样的也是复制了,然后粘贴过来,粘贴好按回车, 好,这里需要输入密码,我们输入开机密码按回车,整个过程不会显示。好,下面开始第四个代码,也是复制了,粘贴过来, 好,这里他开始转了,就是表示在安装了,我们耐心等待一下,就一直等待他转完好,到这里就完,完成了,然后下面我们要新建一个窗口, 新建之后我们复制第五个代码,然后粘贴进来,按回车好了,这里出现这个二零二六三点八,这个就说明已经安装好了,然后我们最后来执行最后一个代码, 按回车,好了,这里就来到小龙虾的配置界面,这里我们按键盘左键按回车,选 yes, 这里直接按回车,这里也是按回车。好到这里我们随便选一个,然后选 mini max, 然后也是选下面一个,好到这里弹弹出了一个窗口,这儿我们点授权, 这里是因为我注册了账号,然后他会直接弹出来,没有账号的自己去注册一个,然后重新来最后一步。好,首先我们重新打开,这好,这里我们直接点按回车,好到这里我们选最后一个, 这个 skip 空 now 啊,这里也是同样的啊,这里我们选 no 啊,这里按空格,然后回车,这里选第一个,按回车, 好到这里我们选择第二个,然后整个 open code 就 部署完成了。

很多人装了 opencolor 后,发现不能自动化的执行操作, opencolor 无法自动打开系统文件,以及浏览器不能读写文件,不能执行任何系统命令, 这是比较常见的问题。核心原因在于你的 openclip 在 minimal 权限模式下,也就是最小权限模式, ai 基本处于被绑住手脚的状态,让 openclip 打开个文件夹,运行和命令都做不到,总是提示 exact 工具不可用。要解决这个问题比较简单,在中单修改一下配置文件就可以了。具体操作呢如下, 第一步,打开终端。你是 mac 电脑的话,同时按住 command 键和空格键,会弹出搜索框,输入中单两个字,然后回车就可以打开了。 如果你用的是 windows 系统,那叫命令提示符,同样可以在菜单栏里搜索到。打开中单后,咱们先看看配置文件在哪。先在中单里输入这一行命令, 然后回车你会看到一堆文件,其中有一个叫 openclose 点 jason, 这就是我们要找到配置文件。为了确认问题,咱们要看看当前的配置。继续在中单输入这行命令,然后回车在配置文件里面找到 tos 这个词,你应该会看到这样的内容, 看到 minimal 这一词了吗? minimal 就是 最小的意思,这就是问题的根源,现在是最小的权限,所以 ai 啥也干不了。现在确认到问题第三步,我们就要修改配置,咱们还是要在中单里面操作,把 minimal 改成 for, 在 中单里面输入这行 set 命令, 然后回车把 minimal 替换成 for, 替换完成后就进入到最后一步,重启 get away, 必须要重启一下 open, 我 们的修改才会生效。 重启可以这样,在终端里面输入这行命令并回车。看到如下的提示就说明重启了。现在你再重新打开 iphone pro, 看看是否成功。现在的 ai 有 执行命令的能力, 它可以帮你打开文件夹,运行程序等等。但还是要提醒一句,权限越大,责任就越大。负二模式下, ai 可以 执行任何命令,所以一定要在可信的环境下使用,别让 ai 干一些奇怪的事情。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

最近很多人都在用 openklo 搭建自己的 ai agent, 但用过的朋友应该都遇到过一个问题,跟 a 阵 t 聊了十几轮之后,他突然就忘了你之前说过的关键信息。 这其实是 opencla 当前架构的一个痛点,每轮对话权量加载历史 tucker 消耗越来越高,最终触发上下文压缩,关键决策就被粗暴地丢掉了。为了解决这个问题,我们在 opencla 的 基础上实现了一套三层分层记忆锁影系统。 至于效果怎么样,我们先看一组实测的数据。红色这条线是原版 open class 偷坑,消耗一路攀升,十轮就到了三万。而绿色这条是我们的分层锁银板,始终控制在一点五万以下,节省超过百分之五十。 更关键的是,如果继续到五十轮,原版会以 o n 平方的速度飙升,而分层锁银板几乎是平的。 接下来我们实际对比一下这两个版本的效果,下面我们来进行一下对比测试。首先这个是原版的 openclaw, 这里先问一下你是什么模型, 同样我们问一下分层缩影版本的 openclaw, 嗯,我们现在可以确定两个版本的模型配置相同,都是使用的千万 max 模型。 下面来对比一下这两个版本对 token 的 消耗情况。可以看到原版的 open kala 消耗了一万两千一百八十个 tokens。 下面来看一下我的这个分层锁影版本的 open kala 对 token 的 消耗情况。可以看到消耗了五千零四十三个 tokens, 和原版相比节省了约百分之五十九的 token。 下面我们给他说我们的项目叫星汉,部署在阿里云上海区域,然后使用的是千问 max 模型,让他记住这些信息。同样的文字输入给分层锁影版本, 下面来看一下 token 的 消耗。 原版消耗了一万四千零七十四个 tokens。 看一下分层锁影版本, 可以看到消耗了五千九百七十九个 tokens, 相比原版节省了近三分之二的 tokens。 下面让其写一个 parse 脚本,记录当前目录下所有 jason 文件,并统计每个文件的行数,然后保存到 report 中。 同样的命令发送给分层缩影版本, 下面继续对比下 token 的 消耗。原版消耗了一万六千零二十个 tokens, 而我的分层锁影版本仅消耗了八千零八十个 tokens, 和原版相比节省了一半的 token。 继续对话,新汉的数据端口改为了五千四百三十三,之前的是五四三二,帮我记一下,然后另外帮我查一下今天的天气。同样的命令发送给分层锁影版本, 这里原版消耗了一万八千两百二十八个 tokens, 分 层缩影版本消耗的 token 量是一万零八百四十二。 下面来看下记忆解锁功能。由于我们现在的对话轮次较少,问他之前的对话内容没有什么挑战性,可以看到现在是晚上十点五十三分,所以我接下来问他在二十二点四十一分的时候,我向你提问了什么问题。我们先看下原版的回答, 他并没有找到在这个时间段发生了什么事情。从这里我们大概是可以猜出 open 克拉的记忆存储采用的是上下文压缩的方法,所以他无法从时间来想起已经发生的事情。下面来看下分层缩影版本的回复, 他精准地找到了在十点四十一分的时候我提问的内容, 这是我十点四十一时的提问,和他回答的一模一样。到这可能有的朋友会感到这种测试不公平,如果你给原版的模型添加了时间戳,那不也可以达到这种效果吗? 先别急,我们接着往下看。在我又进行了五轮对话后,我再次向他询问之前的事情。 在这里我问他,你还记得我们一开始对话的内容吗?看这里,原版并没有找到一开始的对话内容,这是由于上下文压缩,将最初的对话压缩掉了,导致的模型失忆。现在大家再来看下分层所引的版本, 看一下他的回复,当然记得最初询问了关于我的身份等相关信息。刚才大家看到分层缩影版能准确回忆之前的信息,那他的记忆到底长什么样?我们直接打开看一下, 这是 l 零时间线,每一轮对话结束后,自动生成一行摘药,你可以看到每一行都有一个精确到分钟的时间戳 id 后面跟着这轮做了什么事。它就像一本书的目录模型,每次对话开始时,都会先读这个目录,知道之前做过什么。 看这个是 le 关键决策。刚才时间线只是一句话的摘要,而这里记录的是具体的技术细节,改了什么文件端口号是多少,用了什么方案。注意,每条前面都有一个时间戳标记,和时间线里是对应的,和时间线里是对应的。 只有当用户引用之前的工作时,模型才会按需加载这部分内容,平时不加载,不浪费偷看。 而原版 openclaw 的 记忆全在鸡三脑里,压缩之后就没了,你根本不知道它记住了什么,丢掉了什么。但在分层锁印板里,所有记忆都是可见的,结构化的,可追溯的。最后我来讲一下这个分层记忆锁印架构是怎么实现的。 整个记忆系统分为三层, l 零是时间线缩影,极度精简,每轮必加载,让模型知道之前做过什么。 l 一 是关键决策家,要包含具体的技术细节,只在需要时按需加载 l 二是完整的原始对话,几乎不加载,只有你说把之前的完整代码调出来时才触发。这样大部分对话只需要 l 零的几百个 token, 偶尔加载 l 一, 极少触发 l 二,所以 token 消耗能保持恒定。 总结一下,分层缩影版通过三层按需加载的记忆架构,实现了两个核心目标,第一,第一, token 消耗超过,轮次越多优势越大。第二,关键决策永不丢失。 原版超限后压缩会导致失忆,而我们的版本把记忆结构化的保存下来,精确到每一分钟,需要时按需加载,不需要时不浪费。 目前该版本已经在 tiktok 上开源,感兴趣的朋友可以自行研究。如果觉得这个方案对你有帮助,也欢迎 ticu 和 pr 一 起把 aia 健特的记忆做得更好。

兄弟们,就在刚刚,我发现了目前为止可能是最简单的 open 库的安装方式,只需要一分钟,不仅同时适用于 windows 系统还有 mac 系统,而且可以直接部署到你的本地。最关键的是,它优化了原版中间一些做的好的技能还有插件,看完这篇,立刻帮你省下四百九十九块钱的安装费,保证任何人都能最快速度用上属于你自己的手相。 这个呢,就是自古刚刚发布的 autocool, 它跟之前的小龙虾安装最大的不同就是你再也不需要担心环境的部署了,也不需要输入命令行,整个过程就像你安装一个 app 一 样的简单还有快捷。你只要打开它们的官网,下载安装包,然后去登录账号,弹出这个界面,就输入真的是 完全安装好了。如果你还想部署到飞书上使用,其实也特别的简单。我用我这里的 mac 来举例子, mac 和 windows 稍微有个明显的不同,那 那么 mac 呢?你点击链接飞书以后,它会自动弹出一个弹窗,开始自动配置。你只需要扫完飞书,登录二维码,剩下的全部交给 ai, 它全部会自动化帮你都配置完成, 你就会看到目前为止我可能认为是最丝滑的 ai 操作了。还需要什么教程吗?一键安装不响吗?而 windows 系统呢,就会稍微复杂一点点,需要按着操作文档一步一步来,因为这方面还没有设备的特别好,这一块你们跟着做也完全没有问题,我就不再敷。 那除了配置过程呢?小龙虾 tommy 的 消耗量也是劝退大部分人的一个主要因素。这一次制服他做了两个优化,第一个是呢,用了一个龙虾的专属模型,叫 pony r four two, 这是 一个匿名的模型,还没有正式发布,就是先上来做一个测试。它的任务的成功率和它的调度其实都是有一些优化的,而 tommy 的 消耗量是有了一些甩减的。另一个呢,就是他们做了一个专门的页面,贴心的帮你把用量统计给显示出来,你再也不用担心他到底花了多少。 当然,如果你想填自己的 a p i k, 你 用你自己的模型也完全没有问题。 autocool 支持全世界所有的 a p i 模 型。那除此之外呢,还有一个不错的优化点,就是 autocool 在 内制了原本小龙虾技能包的同时呢,还对这个核心的 skill 进行了一些优化。比如说呢, to research 这个 skill 优化后,它能解锁到的内容无论是质量还是新鲜度都比原本的 open go 强了不少。还有一个他们优化的比较好的 是一个操作你浏览器的,基本上你涉及到一些网页的操作的模拟点击都需要这个东西。相比 open code, 它原有自带的 for use, 它其实是能力强的非常多,而且非常适配国内的互联网生态,懂的都懂。 那讲真的,智普这个 open code 呢,是我目前用过最方便的一个小龙虾了,技术其实从来不缺牛的,缺的就是如何让普通人真的用得上 open code 走到了这一步。你至于以后能走多远呢?说实话我也不知道,但就现在这个版本,我觉得它已经值得你花一分钟的时间去装一下,来真正的去亲身体验一下 agent 的 魅力。

前两天给大家录了一个 open core 在 mac 环境的从零到一安装的教程,这次我们来录一个 windows 版本的,在录之前我先给大家做一个风险预警, 因为 windows 环境的权限管控没有 mac 环境的严格,如果这台电脑是你们的主用电脑,上面有一些你们的隐私啊或者是重要文件的, 就尽量不要在这上面安装,因为会存在一定的隐私泄露或者是文件误删的一个风险。好,那我们现在开始 假设这台电脑上面没有装过任何的依赖环境,我们从零开始安装。第一步我们先按 win 加 r 输入 power shell, 打开控制终端,先输入两行指令, 第一行是允许当前的用户执行脚本, 第二行是允许当前的一个窗口执行脚本。 好,准备好了以后,我们就可以开始正式安装我们的一个运行环境了,因为 oppo core 的 话是要运行在诺基亚 s 的 一个环境里面的,所以我们先进到它的官网去下载它的安装包, 然后我们找到 windows 安装程序,然后下载并安装,安装的话就和普通的一个程序的安装过程是一样的,就一路下一步就可以了, 然后我这边就不浪费时间下载和演示了,然后下一个的话是要安装一个 git, 因为 windows 不 像 mac 是 自带 git 的, 所以我们这边需要手动安装一下,我们一样进入它的官网 去下载安装一下,我们下载这个 get 4 windows x 六四,然后下载了也是一路下一步,和普通的一个软件安装是一样的,这边我也不浪费时间给大家下载安装,因为我电脑上面已经装过了, 然后最关键的就是装完这两个软件,我们需要配置一下它的环境变量,如果不配环境变量的话呢, 就没办法在控制台直接运行这两个软件,然后如何配置控制环境变量呢?我们先在搜索里面输入系统,然后找到那个系统, 然后找到系统信息,高级系统设置环境变量,然后在系统环境变量里面找到 pass, 然后我们将 node js 的 根目录以及 get 的 cmd 目录加到这个环境变量里面, 加完以后的话,因为是在系统环境变量里面加的,所以我们需要重启下电脑。重启完电脑以后呢,我们去验证一下 有没安装成功,就输入一下 node 杠一看一下有没有版本啊,如果有版本出现,那说明是安装成功了, n p m 的 话,一样去确认一下,一样要有版本出现。还有一个 git 也是 这三个都有版本出现了,那说明我们的一个基础的一个依赖环境已经准备好了,我们就可以去正式安装 open call 了。 我们进到 opencall 的 一个官网 找到快速 启动,然后我们不用这第一个,我们用 npm 来安装,因为这个的话相对报错的概率比较少一点,我们很多人卡住安装就是因为它在安装的过程中报错嘛,尽量选用就是报错概率小的安装方式, 然后在安装这个的时候呢,最好看一下科学上网,不然的话有可能会卡住连不上。好,现在我们开始装, 那这一段我们就快进 好装好,我们来确认一下它的版本,输入 open call 杠一 好是三月十三号的,然后因为在三月二号的时候, opencall 发布了一个大更新, 就是把操作电脑的权限给禁了,所以我们需要执行一下这行命令,把权限把工具的权限给它打开,不然的话它就纯粹只是一个聊天机器人, 没法操控你的电脑。 好,然后我们就开始配置,输入 open call 方为 r d, 开始配置它的一些细节。 第一步它会先提示一个风险,我们同意风险,选 quickstar, 选第一个,然后我们开始配置大模型,然后大模型的话,我就先配一个 mini max 作为一个测试吧,因为 mini max 的 话爆率很便宜,而且 用来处理一些日常事物的话也够用了,量大管饱。 先需要授权一下,然后 keep current。 好, 下一步是配置通道,通道的话我们就下一次一起讲吧,因为配置一个 agent 的 话意义不大, 最好是配置多个 event, 然后对接多个回收机器人,这样的话才能体现 open call 的 价值。我们下次单独开一节课来讲 啊,这个也跳过 技能先不配,然后钩子也先不配,重新启动。 好,我们来看一下,应该是报错了,看这个错的话是在 windows 还原键里面经常会报的一个错,就是因为后台其实是它被断开了,我们可以 不用管它,我们直接把那个给它会手动停止一下, 然后再给它在前台启动 好,成功启动了,这样的话我们就可以再往一旦看见它了。 好了,这样的话就是一个基础版的 open call 在 windows 环境中的安装已经完成了, 如果大家需要这份安装文档的话,可以在视频下面留言,我私信发给你们, 那下一次的话我抽时间给大家录一下,就是多英俊特对应多飞书机器人的配置教程吧。

大家好,欢迎来到科技熊,接下来这一期的话,我给大家分享 oppo club 相关的一些知识。今天的话不给大家讲部署了,因为部署的话网上有好多教程,大家可以自行去直接搜索去部署就可以了,给大家分享 oppo club 部署完成以后的话,我们该如何去使用,我们来看第一步该怎么做。 我们普通人部署完 openclaw 以后的话,肯定都会有一个通讯端,不管你是用 qq 呀,或者是用其他的都是可以的,当然我用的是一个飞书,我们打开以后给大家看一下界面,部署完以后的话,我们肯定会部署的一个飞书机器人,也就是 openclaw 这个机器人。当我们部署完以后的话,先测试一下,打开以后的话直接输入一个测试 发给你好就可以了,测试看一下这个机型能不能正常去给你回复啊,如果它能够正常回复说明的话就已经部署成功了。但像第一步的话,我们刚部署完这个 openclaw 以后的话,它基本的功能是非常少的,比如说它可以帮你删除电 脑上的文件呀,或者是直接建立文件夹,这些简单的命令都可以操作,像一些复杂的命令呢,是无法操作的。所以说给大家分享第一步的话,我们是需要给它安装技能,也就是安装 skills。 第一步的话,先给这个 open club 安装一个呃 fan 的 叫 fan skills 这个技能,安装以后的话,它就可以自动的帮你安装所有的技能了,我来教大家如何去操作。 首先的话我们需要打开龙虾技能的这个安装的一个官网啊,然后的话点击这个 skills, 也就是它的技能,我们点击进入,这里面有很多很多,大家可以看到有两万多个技能,但是我们首先要安装什么呢?我们刚部署完以后,首先要安装的技能就是这个,大家可以看一下 fat skill, 就是 查找查找技能,为什么安装这个查找技能呢?因为安装以后的话,你只要想安装技能,什么技能只要跟那个龙虾说一下,然后的话它自动就从这里边给你搜索了,所以说这个功能是必须要装的, 我们怎么装这个技能呢?因为现在的话服务器可能是比较拥堵,你在就是通过代码装是无法装的,我们直接通过手动去安装,我们直接点这个 skill 技能,点以后的话直接把它下载一下,下载到桌面上, 当我们下载完成以后的话,点击右键然后复制,因为之之后的话我们需要把它解压呢,先点一下复制,然后找到这个 skill 的 根文件夹, 当我们把它复制到文件夹以后的话,直接给您龙虾发一个。发一个什么呢?就是帮我安装并学习这个技能,然后把这个路径呢直接复制一下,大家可以看一下,直接复制这里边就可以了,这样的话他就可以直接按照路径去学习这个技能了,学好以后的话会提示 file kills fed skills skill 已经安装并学习完成。使用场景,比如说帮我找一个,找一个什么什么技能,有没有这样的技能可以做,你只要通过这种命令去问他以后的话他就可以给你自动安装任何的 skill 了,可以说非常的方便,你学会了吗?今天给大家分享这一点,安装 fed skill。

刚安装完 opencolor 的 时候,你是不是觉得他什么都做不了,甚至还有点笨啊?不用怀疑啊,是因为你还没有去 karthop 安装 skill 技能, karthop 上你有一万个、七千个 skill, 我 从下载量前三十名里面结合自己的高频使用场景,再推荐五个。安装完这五个之后,你的龙虾战力至少还能再翻三倍!第一个, remotion, 如果你想让 opencolor 帮你做视频,那么就一定要安装这个 skill, 它特别适合做知识讲解、课间演示、技能盘点、 软件教程这一类的内容。比如说字幕跟着口播,卡点出现重点内容自动放大页面切换炫酷数字和图标能够动起来,那么整体质感会比普通剪辑高级很多啊。 你现在看到的这条视频,本身就是用 remotion 这条流程做出来的。第二个,宝玉 skills, 这里我觉得一定要单独讲,因为它不是一个 skill, 而是一个一整套 skill 的 集合。这里面打包了很多内容生产和图案制作的相关能力,相当于直接给 open code 补齐了一整套工具箱。 像宝玉 slade take 这个能做 ppt, 还有能做信息图,你妹子能做封面图,还有文章翻译,做漫画,做小红书图文等等。所以它最直的地方不是某项单项特别强,而是你做内容的时候,很多环节你就不用到处找 skills 了。 装一个宝玉 skills, 等于一次性给 open call 的 装了很多只手。第三个,公众号三件套,这里我更推荐一个组合来用啊, wechat, teacher waiter, 然后 for meter, publisher waiter, 负责收集资料,组织内容,把文章先写出来。 for meter 负责把 markdown 的 格式转换成适合公众号排版样式。 publisher 则是把文章直接推进公众号草稿箱里面,也就是说,从写稿 排版这道进入后台,这条电路基本就打通了。如果说你想让 opencode 帮你做公众号,那么这套就非常实用。第四个 hamlet。 这个 skill 最实用的地方就是把 ai 位降下去,它会专门检查那些像 ai 写出来的官话、套话、闲话, 还有那种一看就是很模板式的表表达,你自己读的时候可能觉得还行啊,但是发出去别人一下就能看出来很不自然。所以说,如果你需要 opencloud 的 来写文案,写公众号,写视频口播,那么这个 skills 非常值得装。第五个 skills, operator。 这个很多人装的 skills 很 积极,但是装完就完全不管了,所以这个 skills 的 价值很直接,就是帮你检查 opencloud 的 和本地已经安装的 skill 有 没有去更新啊。最后总结一下, 这五个 skills 结合起来,补的就是 open core 的 最关键的几块能力,视频能做、内容能产、公众号能发、文案能优化,技能,还能自动维护。你装的不是几个小插件,而是装的是一套把 open core 的 从会聊天真正拉到了会干活的生产力组合。

刚才说了,全球人民都在养龙虾,好龙虾进化了! open curl v 两千零二十六点三七刚刚发布,八十九项,提交两百多个 bug 修复,史上最密集的一次。 但最让开发者炸锅的是, ai 的 记忆终于可以自由插拔了。先说最硬核的 context engine 插件接口,做过 ai 应用的人明白,上下文管理是最头疼的问题,对话轮子一多,偷啃就炸, 信息一压缩,关键细节就丢。以前这些处理逻辑写死在核心代码里,改一处就可能崩全尘。这次 openclo 开放了完整的生命周期,从初步化注入、组装、压缩到子智能体深沉,前后的处理全部可以自定义。其实就是换一套上下文处理逻辑, 像换插件一样简单,不用动底层代码,想用 r a g 可以, 想做接近压缩随意,想让不同子任务有隔离的记忆空间接口都给你准备好了,这把 open curl 从一个工具变成了一个平台。第二个亮点,同步首发,适配 g p t 五点四和 gemna 三点一 flash。 更重要的是模型降解机制,某个模型限流或过载时,系统自动切换到备选模型,不报错,不让用户干等。你可以把 open curl 想象成一个模型, 前端是你习惯的聊天工具,后端可以挂 cloud gpt、 gemini、 deepseek, 哪个便宜切哪个,哪个好用用哪个。第三个亮点,两百多项 bug 修复,覆盖了 discord 的 断联、死机、 telegram 频道隔离、 whatsapp 前缀注录、 cclide 的 锁冲突、沙盒逃逸防范, 几乎把整个平台翻修了一遍。一个开源项目能不能长线运营? bug 修复的密度是照妖镜,这次的密度说明用户量在高速增长。 大厂 ai 产品有算力、有团队、有用户基础,但有一件事,他们永远给不了你控制感。当你把 ai 部署在自己服务器上,数据在自己手里,源码随时可查,模型随时可换,这种信任是大厂给不了的。 opencloud 三点七,让工具更稳、更开放、更可信,而可信在 ai 时代是宝贵的稀缺品。关注星智源,秒追 a s i。